馬斯克的AI機器人Grok出現(xiàn)“幻覺”生成虛假誤導回應
- 來源:互聯(lián)網(wǎng)
- 作者:IT之家
- 編輯:陶笛
ChatGPT的強勁對手陸續(xù)問世,前有谷歌,近日埃隆?馬斯克旗下 AI 公司 xAI也 推出了全新的人工智能聊天機器人 Grok,并面向美國地區(qū)的 Premium+ X 用戶開放。
據(jù)官方介紹,Grok 采用了名為 Grok-1 的模型,與目前 OpenAI 旗下 ChatGPT 所使用的 GPT-4 模型完全不同。值得一提的是,Grok 還整合了 X 平臺的實時數(shù)據(jù),能夠根據(jù) X 平臺的最新動態(tài)提供實時回應,這也是其與其他競爭對手的顯著差異之一。
然而,就像所有 AI 聊天機器人一樣,Grok 也存在“幻覺”問題,即生成包含虛假或誤導信息的回應。這種現(xiàn)象在所有大型語言模型(LLM)中都普遍存在,包括 ChatGPT。
近日,一個 Grok 尷尬的“幻覺”在社交媒體上引起熱議。有用戶在使用 Grok 時收到回應稱:“我無法完成您的請求,因為它違反了 OpenAI 的用例政策?!?/span>
xAI 工程師 Igor Babuschkin 對此解釋道,Grok 在訓練過程中使用了大量網(wǎng)絡(luò)數(shù)據(jù),很可能在其中包含由 OpenAI 生成的文本,導致出現(xiàn)了這樣的“幻覺”。
他稱:“不過請放心,這個問題非常罕見,我們已經(jīng)意識到了它,并將確保未來的 Grok 版本不會出現(xiàn)類似的問題。請放心,Grok 的開發(fā)沒有使用任何 OpenAI 代碼?!?
如何避免類似事件的發(fā)生,以及如何讓 AI 聊天機器人更安全、更可信,將是未來 AI 研發(fā)的重要課題。

玩家點評 (0人參與,0條評論)
熱門評論
全部評論