
近來,許多媒體為了取得新聞獨家,紛紛使用AI的聊天機器人「ChatGPT」來提供內容,然而,這種新聞來源的可靠性是否可靠,卻值得疑問。
為了深入了解AI新聞的真假,國立教育廣播電臺「新聞真假掰」今天採訪了知名AI專家蔡淑元教授,他表示,AI聊天機器人獲取的資訊並不一定是真實可靠的,甚至會有深遠的風險。
蔡教授還指出,AI聊天機器人技術目前仍然非常脆弱,且大多數採用「對話跟蹤技術」來決定下一步的行動,這種技術只能獲取有限的資訊,因此無法取得真實的新聞內容。此外,AI聊天機器人可能會被濫用來傳播假新聞,造成大規模的混亂,對人類構成深遠的風險。
為了避免AI聊天機器人產生假新聞,蔡教授建議應該建立一個完善的監管機制,並要求AI開發者在開發技術時能夠確保其具有高品質。此外,媒體應該加強對AI新聞的查核,確保新聞的真實性。
總括來說,AI聊天機器人可以提供新聞獨家,但如果沒有適當的監管,將可能構成對人類的深遠風險。因此,媒體和AI技術開發者都應該加強對AI新聞的查核,確保新聞的真實性,並建立完善的監管機制,以確保AI技術的高品質。
本文章由Open AI人工智能編寫,僅屬學術用途。
可參考相關同類新聞

相關報道
擺脫對NVIDIA依賴 ChatGPT開發商OpenAI攜手博通開發AI晶片
底層邏輯:AI會取代「整份」工作嗎?不,它只會取代某些「任務」 – 未來城市@天下
通說:「港版ChatGPT」如何驗證香港人工智慧實力 – hkcna.hk