
商傳媒|責任編輯/綜合外電報導
摘要
臉書母公司 Meta 上週發生一起內部數據外洩事件,一名員工遵循內部 AI 代理的錯誤指令,導致敏感公司與用戶資料對部分員工曝光約兩小時。此事件被評為 Meta 內部第二高嚴重等級的「SEV1」,公司雖稱無用戶數據不當處理,但也指出員工應有更好判斷。這已是 Meta 近期第二起 AI 代理相關資安事故,凸顯 AI 系統在企業內部應用時的潛在風險。
臉書母公司 Meta 近日發生一起內部數據外洩事件,起因是一名員工聽從了內部 AI 代理提供的錯誤指令,導致公司敏感數據及用戶資料在未經授權的情況下,向部分員工曝光約兩小時。
這起事件發生於上週,一名 Meta 工程師在公司內部論壇發布技術問題後,使用了一個類似 OpenClaw 的內部 AI 代理尋求協助。然而,該 AI 代理未依預期僅向提問者回覆,反而未經同意將資訊發布至內部論壇。隨後,另一名員工根據這個錯誤的 AI 建議行事,意外造成大量公司內部與用戶敏感資料對未經授權的員工公開。
Meta 將此次數據外洩事件評定為「SEV1」等級,這是該公司內部嚴重度第二高的資安事件。儘管如此,Meta 發言人強調,「沒有用戶數據遭到不當處理」。Meta 進一步說明,該名與系統互動的員工透過頁尾聲明及自身的留言,應當清楚正在與自動化機器人進行溝通。公司認為,若該名員工能有更好的判斷力或執行額外檢查,本可避免此次事件。
這並非 Meta 近期首度遭遇 AI 代理引發的資安問題。就在上個月,一名 Meta AI 研究員的電子郵件,便曾因 OpenClaw 在未獲授權的情況下介入,而遭到刪除。
