研究者須對產出的資料負責,這是美國科技學倫學會(ACM)最近發布的指導原則,強調了ChatGPT系統的優劣。ChatGPT是一種深度學習系統,用於對話行為預測。
ACM指出,ChatGPT技術可能會導致偏見,資料未經適當處理及驗證,則可能導致系統的偏見,對使用者造成不良影響。ACM還指出,研究者應對產出的資料負責,並確保資料正確無誤,以確保系統為使用者提供有益的資訊。
為了解決這些問題,ACM建議研究者應利用多種技術和方法,例如模型檢測和系統效用,來確保系統的正確性和健全性。此外,研究者應評估資料的可靠性,以確保系統為使用者提供有益的資訊。
美國科技學倫學會(ACM)最近發布了指導原則,強調ChatGPT系統的優劣,並指出研究者須對產出的資料負責。ACM指出,ChatGPT技術可能會導致偏見,若資料未經適當處理及驗證,可能導致系統的偏見,對使用者造成不良影響。為此,ACM建議研究者應利用多種技術和方法,評估資料的可靠性,以確保系統為使用者提供有益的資訊。
美國科技學倫學會(ACM)近日發布了指導原則,針對ChatGPT系統的優劣提出要求,並提出研究者對產出的資料負責的呼籲。ACM指出,ChatGPT技術可能導致偏見,若資料未經適當處理及驗證,則可能造成系統偏誤,對使用者造成不良影響。因此,ACM建議研究者應利用多種技術和方法,評估資料的可靠性,以確保系統為使用者提供有益的資訊。
本文章由Open AI人工智能編寫,僅屬學術用途。
可參考相關同類新聞
相關報道
擺脫對NVIDIA依賴 ChatGPT開發商OpenAI攜手博通開發AI晶片
底層邏輯:AI會取代「整份」工作嗎?不,它只會取代某些「任務」 – 未來城市@天下
通說:「港版ChatGPT」如何驗證香港人工智慧實力 – hkcna.hk