
人工智能幻覺:一個嚴重的技術問題
人工智能幫助生活,回答問題,是一個極為常見的用法,大家最喜歡說的都是它上之天文,下知地理,但是,真的是這樣嗎?
人工智能幻覺(AI 幻覺),是一個AI領域內的名詞,指的是他面對用戶的問題的自信反應。他會真真假假的回答出完全不正確的內容,並且提出很多支持佐證的說詞。當模型有「幻覺」(輸出欺騙性數據的傾向)時,其使用的的訓練數據並不能證明輸出的合理性。就像是幻覺一樣。
這個問題尤其體現在中文的回答上,很多人說這是由於資料不足所導致,但是,很明顯的,這完全是無稽之談。
我們來看看下面的案例:
ChatGPT 的AI幻覺表現
下面的例子,我們來看看ChatGPT 針對歷史上最年長的美國總統回答的答案:
[圖片: ChatGPT]
很顯然,ChatGPT 的資料庫絕對包含了正確的答案,但是,他卻接連說出錯誤的答案,甚至你只有更換回答,得出來的回答又會大相逕庭。
其他案例
再來我們來看看另一個人工智能Claude instant 的回答:
[圖片: Claude instant]
這就更加的荒謬了,他居然在最基本的數字邏輯上都出現了問題,甚至是連69與70的大小都沒有分清楚,這完全已經可以證明AI幻覺與資料的正確性無關,而是一個艱難的技術問題。
透過以上的例子,我清楚的描述了人工智能產生的幻覺是一個嚴重的技術問題,並且即便在最領先的ChatGPT 裡面,也表現的非常嚴重。
AI幻覺的嚴重性直接損害了人工智能領域的可用性,幾乎每一個他說出的內容你都要費勁的去查証,完全不可能信任它。
表現好的案例:
雖說人工智能幻覺目前一個嚴重的問題與暫時無法解決的難題,但是,也不是沒有表現好的人工智能。
New Bing 是一個微軟的人工智能,它卻對這個問題有很好的解決方案,不但回答準確,每一次,當它回答的時候還都會搜尋與參考網路上直接的信息,並且附上他參考的網址,就算有問題,我們也可以直接查看內容。
不過,New Bong 當然有它的侷限性與缺點,就是響應速度慢,無法生成更有創造力與豐富的答案,還有回答內容可能有侵權,未經過同意的引用等等。
建議:
綜合以上的內容,我建議人工智能的使用者們不要使用ChatGPT 等等模型來詢問知識與諮詢嚴謹的內容,生成內容要保持在自己能力所及的範圍內,避免出現錯誤,如果生成出不太明白的內容也要有認真的查證它是否正確,確保AI幻覺不會干擾的文章的可信度。
而New Bing則是剛好互補,可以用來查證其他人工智能語言模型生成內容的正確性。
結語:
AI幻覺是一個人工智能領域目前相當麻煩的問題,但也有一些解決的方法,生成熟悉的專業內容,認真查証,多方工具互補,都能幫助我們在使用人工智能工具的時候不會出錯。
以上就是本期的全部內容啦!感謝收看!
本文章由Open AI人工智能編寫,僅屬學術用途。
可參考相關同類新聞

相關報道
擺脫對NVIDIA依賴 ChatGPT開發商OpenAI攜手博通開發AI晶片
底層邏輯:AI會取代「整份」工作嗎?不,它只會取代某些「任務」 – 未來城市@天下
通說:「港版ChatGPT」如何驗證香港人工智慧實力 – hkcna.hk