關於 ChatGPT 的 6 個事實及其意義

2023-03-18 17:45:03 超級管理員 75

ChatGPT系流行的聊天機器人應用程序,來自 OpenAI 的 ChatGPT 一直在頭條新聞中引起轟動——也許您已經親自嘗試過它(當它未達到最大容量時)以了解它可以做什麼。

Hero-v2-1-1.png

我們在產品開發中使用此產品和類似產品,因此在這裡,我們提供了一個信息圖來解釋有關 ChatGPT 的一些最有趣的事實,並觸及每個指標的重要性。

數據量巨大

ChatGPT 所訓練的數據的龐大規模並不能完全轉化為人類對語言的理解,因為我們的交流比書面文字要深入得多。儘管如此,這仍然比您和您所有最親密的朋友在您的一生中閱讀的內容要多得多,這意味著它可以提供大量信息。

企業最終將能夠通過向它提供具有各種用途的數據來微調這個系統和其他系統,比如提供人們實際使用的知識庫,就像 Reddit 一樣。

ChatGPT 的學習方式是高度可定制的

開發人員可以通過多種方式微調系統的學習方式,從它通過學習率處理信息的速度,到它如何解釋具有各種隱藏層的複雜數據集,這些隱藏層為每次分析的數據提供條件視角。

更複雜的關係受益於額外的處理層和視角,這對於像英語這樣具有大量隨機、任意規則的語言很有幫助,這使得它能夠理解其他復雜的數據集。

它通過聯想學習,但並不完全像人類

它對每種語言的理解和能力都不同,因為它缺乏我們用來識別關聯和推動我們對語言理解的認知數據。但是,它可以使用一些信息在相似的語言之間進行學習,例如共享相似規則的羅曼語,並且通常具有可以在某些學習場景中提供幫助的同源詞。

儘管句子結構和變位可能不同,但這可以幫助它學習如何在正確的上下文中有效地正確使用定義較少的語言元素,例如行話或特定的品牌語言。

這並不完美

ChatGPT 的生成模型一般能夠處理大部分文本提示,但並不完美。就像一個人一樣,你問問題的方式可能會導致它“過度關注”某個特定的元素,從而使其變得無關緊要。其他常見問題是重複、語法不一致(例如,時態在單個“想法”中不斷變化)和不連貫,其中一些想法會從不相關的來源和其他不合邏輯的地方引入“人工製品” 

自定義使用將需要一些人工干預,以確保它正在學習並產生正確的輸出——它是一種語言模型,所以在目前的形式下,它永遠不會像我們在好萊塢看到的 AI 那樣。

ChatGPT 可以模擬人類對話

由於它的大部分學習材料都是對話式的,因此它擅長模擬與人類無法區分的對話。自然,這是一個令人擔憂的問題,因為有人可能會效仿您最喜歡的阿姨或從海外模仿您。 

話雖如此,溝通驅動的流程仍有巨大的潛力,比如終於不再糟糕的客戶服務聊天機器人。

它審查了您在網絡上可以找到的幾乎所有內容

它主要審查網頁,包括論壇和社交媒體,但也包括科學期刊、漫畫、文學等等。因此,它可能很快就能幫助闡明緊迫的第一世界問題,比如許多關於“誰會贏”的古老辯論