AI聊天機器人頻傳洩密 Google警告員工小心使用

商傳媒|綜合報導

AI聊天機器人在全球颳起旋風,Google母公司Alphabet一方面積極開發「Bard」,另一方面卻被傳出私下要員工「提防」AI。

《路透》引述知情人士消息指出,Alphabet已警告員工,不可在AI聊天機器人輸入機密資料,以免違反公司「保護資訊安全」的政策,Alphabet也提醒工程師,避免直接使用AI聊天機器人所產生的程式碼編寫程式。對此,Alphabet也證實確有其事,Google則進一步表示,旗下的「Bard」可以達成不需生成程式碼,依然可以幫助工程師進行開發工作的任務。

ChatGPT、Bard等AI聊天機器人所採用的生成式AI技術,必須憑藉在訓練過程中、吸收許多重要的數據及資料,因此連帶造成洩漏機密或隱私的風險。事實上,許多科技公司都已祭出相關禁令,包括:三星、蘋果、亞馬遜、德意志銀行等,都禁止員工使用聊天機器人工作,以免洩漏公司重要機密。

一些公司也著手開發軟體來解決這些問題,例如:提供網站防禦和其他雲端服務的Cloudflare(NET.N),就推出一項功能,可以讓企業對某些數據進行標記和限制,以避免機密外洩。

Google旗下的聊天機器人「Bard」,目前已在全球100多個國家上線,但歐盟出於隱私考量、拒絕「Bard」的申請。Google也為商業客戶提供對話工具,雖然這些工具的價格更高,但不會將數據吸收進AI模型之中,「Bard」雖預設儲存使用者的對話記錄,但使用者可以自行選擇刪除。