當前的ChatGPT常會產生不准確的回應,一些技術專家擔心人們可能過於信任該軟件,微軟推出了名為 Copilot ,類似 ChatGPT 的功能,最終將用於其 Word 和 Excel 等商業應用程序。
由於人工智慧近年來的快速進展,像是ChatGPT這樣的新工具已經能夠根據人們的查詢和提示創造引人入勝的寫作,令消費者驚嘆不已。
雖然這些由AI驅動的工具已經越來越擅長產生具有創意和有時幽默的回應,但它們經常包含不準確的資訊。
例如,當微軟Microsoft在二月份推出其使用由微軟支持的OpenAI創建的GPT-4技術所建造的Bing聊天工具時,人們注意到在有關財務收益報告的演示中,這個工具提供了錯誤的答案。
像谷歌等其他AI語言工具一樣,Bing聊天功能有時會呈現虛假的事實,而使用者可能會認為這是真實的事實,這種現象被研究人員稱為「幻覺」。
這些事實問題並沒有減緩這兩大科技巨頭之間的AI競爭。
週二,谷歌宣布將AI驅動的聊天技術引入Gmail和Google Docs,使其能夠幫助撰寫電子郵件或文件。週四,微軟表示,其熱門商業應用程序,如Word和Excel,將很快與名為Copilot的類似ChatGPT的技術捆綁在一起。
但這次,微軟將這項技術宣傳為「有用的錯誤」。
在關於新的Copilot功能的網上介紹中,微軟高管提到了軟件產生不準確回應的傾向,但把這視為可以有所用處的事情。只要人們意識到Copilot的回應可能有不準確的地方,他們可以編輯這些不準確之處,更快地發送電子郵件或完成簡報。
例如,如果一個人想要創建一封祝一個家庭成員生日快樂的電子郵件,即使Copilot顯示了錯誤的生日日期,它仍然可以很有幫助。
在微軟看來,這個工具生成的文字節省了一個人的時間,因此很有用。人們只需要多加小心,確保文字不包含任何錯誤。
研究人員可能不會同意這點。
事實上,像Noah Giansiracusa和Gary Marcus這樣的技術人員已經表達了他們的擔憂,認為人們可能會過於信任現代AI,將像ChatGPT這樣的工具提供的有關健康、金融和其他高風險主題的建議放在心上。
“ChatGPT的毒性防護措施很容易被那些想要利用它進行邪惡用途的人所繞過,就像我們本周早些時候所看到的那樣,所有新的搜索引擎都繼續出現幻覺,”兩人在最近的一篇《時代》意見文章中寫道。“但一旦我們度過了開幕日的緊張情緒,真正重要的是任何大型企業是否能夠建立我們真正信任的人工智能。”
Copilot在實踐中的可靠性尚不清楚。
微軟首席科學家和技術研究員Jaime Teevan表示,當Copilot“出現錯誤或存在偏見或被誤用”時,微軟已經“採取了緩解措施”。此外,她解釋說,微軟將首先與20個企業客戶測試該軟件,以便發現它在現實世界中的運作方式。
“我們會犯錯,但一旦犯了錯,我們會迅速處理它們,” Teevan 說。
像 ChatGPT 這樣的生成式 AI 技術的熱情使得 Microsoft 不能忽視商業上的機會。挑戰在於該公司如何整合這種技術,以便不會在軟件中引起公眾的不信任或導致重大的公關災難。
“我學習人工智慧已有幾十年,我對這種強大的新工具感到巨大的責任感,” Teevan 說。 “我們有責任將其交到人們手中,並以正確的方式這麼做。”
延伸閱讀 :
【美股新聞】OpenAI宣佈推出ChatGPT的新版本~GPT-4 (2023.3.15)
【美股新聞】ChatGPT 被用於自動編寫電子郵件:Microsoft、Salesforce 和 TikTok 的創作者都在追趕這一趨勢 (2023.03.09)
【重大事件】AI聊天機器人ChatGPT更上一層樓!GPT-4發布,可辨識圖片,還能考上史丹佛?