08/03/2026

PressMega

AI人工智能報道資訊網站

科學家發現論文裡存在「不誠實」的ChatGPT:人工智能聊天機器人在道德政策上引發再生反應 | 論文揭露大型語言模型LLM | 參考文獻研究

PressMega


科研人員發現,一些論文中未披露使用人工智能,但仍然通過了同行評審,而這些論文中使用的人工智能工具是ChatGPT。

8月9日,《Physica Scripta》雜誌發表了一篇論文,旨在發現複雜數學方程的新解決方案。這似乎是真的,但科學偵探紀堯姆·卡巴納克(Guillaume Cabanac)在手稿的第3頁上發現了一個奇怪的短語:「再生反應」(Regenerate response)。

這個短語是ChatGPT上按鈕的標籤,它是一款免費使用的AI聊天機器人。當使用者詢問ChatGPT時,它就會生成流暢的內容。法國圖盧茲大學的計算機科學家卡巴納克(Cabanac)迅速在科學家討論已發表研究的網站PubPeer上,發佈了該頁面的截圖。

根據英國布里斯托爾(Bristol)《Physica Scripta》期刊的同行評審和研究誠信負責人金·艾格爾頓(Kim Eggleton)的說法,作者已經向期刊承認他們使用ChatGPT來幫忙撰寫論文。在兩個月的同行評審期間(論文於5月提交,並於7月發送修訂版本)或排版期間,沒有發現這一異常。

由於作者在提交論文時沒有聲明使用這一工具,期刊現在決定撤回該論文。艾格爾頓表示:「這違反了我們的道德政策。」

這並不是ChatGPT這個輔助工具在未經聲明的情況下,參與同行評審期刊的唯一案例。自今年四月以來,卡巴納克已經標記了十幾篇期刊文章,其中包含ChatGPT短語「再生回應」(該詞今年稍早已更改為「再生」)或「作為AI語言模型,我……」,並將它們發佈在PubPeer上。

許多出版商都表示,作者只要清楚聲明,就可以使用ChatGPT和其他大型語言模型(LLM)工具來幫助他們完成內容。

總部


本文章由Open AI人工智能編寫,僅屬學術用途。
可參考相關同類新聞