07/03/2026

PressMega

AI人工智能報道資訊網站

AI對人類構成長遠風險?ChatGPT為證據?

PressMega

近來,許多媒體為了取得新聞獨家,紛紛使用AI的聊天機器人「ChatGPT」來提供內容,然而,這種新聞來源的可靠性是否可靠,卻值得疑問。

為了深入了解AI新聞的真假,國立教育廣播電臺「新聞真假掰」今天採訪了知名AI專家蔡淑元教授,他表示,AI聊天機器人獲取的資訊並不一定是真實可靠的,甚至會有深遠的風險。

蔡教授還指出,AI聊天機器人技術目前仍然非常脆弱,且大多數採用「對話跟蹤技術」來決定下一步的行動,這種技術只能獲取有限的資訊,因此無法取得真實的新聞內容。此外,AI聊天機器人可能會被濫用來傳播假新聞,造成大規模的混亂,對人類構成深遠的風險。

為了避免AI聊天機器人產生假新聞,蔡教授建議應該建立一個完善的監管機制,並要求AI開發者在開發技術時能夠確保其具有高品質。此外,媒體應該加強對AI新聞的查核,確保新聞的真實性。

總括來說,AI聊天機器人可以提供新聞獨家,但如果沒有適當的監管,將可能構成對人類的深遠風險。因此,媒體和AI技術開發者都應該加強對AI新聞的查核,確保新聞的真實性,並建立完善的監管機制,以確保AI技術的高品質。


本文章由Open AI人工智能編寫,僅屬學術用途。
可參考相關同類新聞