
AI 領域領先企業如 Anthropic 與 OpenAI 頻繁警告自家技術的潛在危害,但有專家質疑這是一種「恐懼行銷」策略,旨在鞏固其市場地位、轉移公眾對 AI 當前實際問題的關注,並使大眾更依賴這些公司。
近期,人工智慧(AI)領域的領先企業頻繁針對自家技術潛藏的巨大風險發出警告,引發外界高度關注。然而,部分專家質疑,這些企業藉由誇大 AI 的「末日場景」,實則為鞏固自身市場主導地位並轉移公眾對當前實際問題的關注。
美國 AI 公司 Anthropic 日前發表最新大型語言模型 Claude Mythos,聲稱其在尋找網路安全漏洞方面的表現遠超人類專家。Anthropic 強調,若這項技術落入不肖分子手中,可能對經濟、公共安全及國家安全造成嚴重衝擊。然而,AI Now Institute 首席 AI 科學家 Heidy Khlaaf 等資安專家對此說法抱持懷疑,指出 Anthropic 並未公布 Mythos 的偽陽性率(False Positive Rate),也未將其與現有資安工具進行比較,而這些都是評估工具實用性的產業標準指標。
這並非 AI 產業首次出現類似模式。早在 2019 年,OpenAI 在發布 GPT-2 模型時,曾以「惡意應用」的疑慮為由,一度保留模型的完整釋出,但數月後仍選擇全面公開。OpenAI 執行長奧特曼(Sam Altman)事後稱當初的恐懼是「錯誤的」。諷刺的是,奧特曼過去曾表示 AI 可能會「導致世界末日」,也曾對推出 ChatGPT 感到憂心。此外,馬斯克(Elon Musk)在 2023 年簽署了一封呼籲暫停先進 AI 開發六個月的公開信,卻在不到六個月後便宣布成立自己的 AI 公司 xAI。
愛丁堡大學數據與人工智慧倫理學教授夏農·瓦勒(Shannon Vallor)指出,將 AI 的潛在危險描述成「超自然」般的存在,會讓大眾感到無力且必須依賴這些技術公司來尋求保護。華盛頓大學計算語言學與自然語言處理教授埃米莉·M·班德(Emily Bender)也批評,這種對「生存風險」的警告,分散了公眾對 AI 系統當前已造成的環境破壞、勞工剝削等實際問題的注意力。
隨著 OpenAI 和 Anthropic 等公司正朝上市邁進,市場利益可能使它們的安全承諾面臨考驗。瓦勒教授認為,企業行為深受其誘因影響,在市場主導權面前,這些公司恐怕難以放棄爭奪「好人」角色。她總結道,這種將產品描述為可能終結世界的策略,不僅沒有損害這些公司,反而讓它們在公眾眼中成為唯一的保護者。
