人工智能「幻覺」是指像OpenAI的ChatGPT或Google的Bard這樣的模型完全捏造信息,表現得好像它們在講述事實。OpenAI宣布,他們正在採取新的方法來對抗人工智能的「幻覺」。
去年,OpenAI 發布了由 GPT-3 和 GPT-4 提供支持的聊天機器人 ChatGPT,加速了生成AI的發展,並在兩個月內突破了1億月活用戶的記錄,據報道,創下了最快增長應用程序的紀錄。迄今為止,微軟已經向 OpenAI 投資了超過130億美元,這家初創公司的價值已經達到了約290億美元。
人工智能「幻覺」是指像 OpenAI 的 ChatGPT 或 Google 的 Bard 這樣的模型完全捏造信息,表現得好像它們在講述事實。例如,在Google自己2月份的Bard宣傳視頻中,這個聊天機器人對詹姆斯·韋伯太空望遠鏡提出了不實的主張。最近,ChatGPT在紐約的聯邦法院文件中引用了「虛假」案例,參與其中的紐約律師可能面臨制裁。
OpenAI潛在的對抗這種捏造的新策略是,訓練人工智能模型在得出答案時為每個個別的正確推理步驟給予自我獎勵,而不僅僅為正確的最終結論給予獎勵。研究人員稱之為「過程監督」,相對於「結果監督」,這可能會導致更好的可解釋性人工智能,因為這種策略鼓勵模型遵循更接近人類「思維」鏈的方法。
OpenAI的研究人員在報告中寫道:“即使是最先進的模型在不確定的時刻也容易產生虛假信息,它們表現出一種在判斷時杜撰事實的傾向。這些幻覺在需要多步推理的領域尤其成問題,因為一個邏輯錯誤足以破壞整個解決方案。”
OpenAI已經發布了一個包含80萬個人工標籤的相關數據集,用於訓練研究論文中提到的模型,OpenAI的數學研究人員Karl Cobbe表示。
電子隱私信息中心(Electronic Privacy Information Center)的高級法律顧問,以及該中心的人工智能和人權項目負責人Ben Winters對此表示懷疑,他告訴CNBC他希望檢查完整的數據集和相關示例。
Winters說:“我認為這本身並不能顯著減輕人們對於誤導和不正確結果的擔憂……當它實際應用時,這真的很重要。”他補充說:“確定OpenAI是否計劃將他們在這項研究中發現的內容實施到ChatGPT和其他產品中,這是非常重要的,如果他們不這樣做,這就帶來了一些相當嚴重的問題,關於他們是否願意向公眾發布什麼。”