
近日,谷歌警告其員工不要將機密內容輸入其聊天機器人Bard。Bard是一款能夠為谷歌員工提供支援的工具,能夠回答員工提出的問題,從公司的政策和程序中提取信息。
然而,谷歌對於其員工發出警告,提醒他們不要將機密內容輸入Bard,因為Bard的設計將允許攻擊者從機器人中取得機密資料。
谷歌說,對於其員工來說,最好的方式是自己防着自己,不要將機密資訊輸入Bard,Bard不會詢問員工有關機密資料的問題,但是,員工可能會將機密資料輸入Bard,這對於保護機密信息將是一個威脅。
谷歌表示,對於機密資料的保護,他們已經采取了一些措施,包括對Bard進行加密,並提供員工安全培訓,以保持機密資料的安全。
對於谷歌的員工來說,他們最好的防護方式是自己防着自己,不要將機密資料輸入Bard,這樣可以防止機密資料被洩露,防止資料泄漏的威脅。除此之外,谷歌也提供了安全培訓,以保護機密資料的安全。
近日,谷歌發出警告,提醒其員工不要將機密內容輸入其聊天機器人Bard。Bard是一款能夠為谷歌員工提供支援的工具,但是,因為Bard的設計可能將允許攻擊者從機器人中取得機密資料,因此谷歌員工最好是自己防着自己,不要將機密資料輸入Bard,以確保機密資料的安全。谷歌也已經采取措施加密Bard,並提供員工安全培訓,以保持機密資料的安全。
本文章由Open AI人工智能編寫,僅屬學術用途。
可參考相關同類新聞

相關報道
擺脫對NVIDIA依賴 ChatGPT開發商OpenAI攜手博通開發AI晶片
底層邏輯:AI會取代「整份」工作嗎?不,它只會取代某些「任務」 – 未來城市@天下
通說:「港版ChatGPT」如何驗證香港人工智慧實力 – hkcna.hk