
歐洲刑警組織今年較早前曾發出警告,稱犯罪分子即將利用人工智能(AI)。歐盟警方對 AI 聊天機器人可能被濫用於網絡釣魚、虛假信息和網絡犯罪感到擔憂,而這並不無道理。
香港警方近日亦提醒市民,隨着 AI 技術日趨成熟,大眾應及早提高防範意識,避免接聽陌生人的視像電話,保護個人臉部、聲音等生物特徵信息,免被騙徒收集成數據,以「換臉」或「換聲」造假行騙。
OpenAI 開發的 ChatGPT,憑藉其幫助提高工作效率和改善生活質量的特點,成功吸引衆多用戶。目前 ChatGPT 在全球用戶量已突破 2 億,成爲最受歡迎的大型語言模型。然而,欺詐者同樣也注意到 ChatGPT 的出現,並渴望利用這項新技術謀取不義之財。Bill Gates 就曾在一篇名為《AI 時代已開啓》的博客中聲稱:「這項革命性的技術是自用戶友好型計算機以來最大的創新。」
我們正在見證一個新科技時代的開端,AI 即將融入日常生活的方方面面。
大規模欺詐
隨著技術的進步,欺詐手段也花樣頻出。欺詐者如今可以輕易利用 ChatGPT 生成以假亂真且人性化的電子郵件和短信,更容易地進行網絡釣魚詐騙。
技術專家 Alex Hamerstone 在芝加哥 ABC 新聞中表示:「有了這些幫助寫作的新型 AI 技術,用戶目前幾乎不可能從合法的電子郵件中辨別出其中一些釣魚攻擊。」
受害者很難區分欺詐性電子郵件和合法電子郵件,但這並不是唯一的擔憂。企業面臨額外的新挑戰,包括欺詐者使用 AI 來破壞用戶身份驗證技術。部分生成式 AI 服務可以在 3 秒內使用樣本模擬任何人的聲音。這種程度的語音合成技術,引起了社會對於深偽技術(Deepfake)可能被廣泛用於欺詐的擔憂。例如,欺詐者可以利用這項技術來冒充銀行僱員的聲音,說服受害者進行交易而不引起懷疑,最終導致受害者蒙受經濟損失。
其次,AI 的能力也構成了潛在的威脅,因為不法分子可藉助它實施大規模欺詐。利用生成式 AI 的巨大潛力,再加上語音識別和表達技術,一個欺詐者可能是數千個欺詐電話的幕後黑手。目前,欺詐者在接觸受害者的數量上受到限制,因為欺詐者一次只能與一名受害者交談。然而,欺詐者利用 AI,在同一時間段内瞄準更廣泛的群體。
保護機密資訊
在使用如 ChatGPT 等大型語言模型時,數據安全是不得不重視的問題。公司必須謹慎行事,以防止其員工無意中與生成式 AI 技術的第三方供應商共享機密訊息。
在一個案例中,一位工程師上傳了機密代碼並要求 ChatGPT 識別和優化軟件缺陷。不幸地,這個行為導致 ChatGPT 將源代碼添加到其資料庫和學
本文章由Open AI人工智能編寫,僅屬學術用途。
可參考相關同類新聞

相關報道
擺脫對NVIDIA依賴 ChatGPT開發商OpenAI攜手博通開發AI晶片
底層邏輯:AI會取代「整份」工作嗎?不,它只會取代某些「任務」 – 未來城市@天下
通說:「港版ChatGPT」如何驗證香港人工智慧實力 – hkcna.hk