Anthropic
a month ago

#Anthropic
#OpenAI
#AI倫理
#國防合作
#Dario Amodei
商傳媒|林昭衡/綜合外電報導
摘要

Anthropic 執行長 Dario Amodei 抨擊 OpenAI 與美國國防部的合作協議,指責 OpenAI 在訊息傳遞上「公然說謊」。Anthropic 先前已與軍方簽署合約,但堅持不得將其 AI 技術用於國內大規模監控或自主武器。OpenAI 後來也與國防部達成協議,引發爭議。這起事件突顯了 AI 發展中的潛在風險與商業倫理問題。

人工智慧(AI)領域的競爭持續升溫,Anthropic 執行長 Dario Amodei 近日公開抨擊 OpenAI 與美國國防部(DoD)達成的合作協議,指責 OpenAI 執行長 Sam Altman 在訊息傳遞上「公然說謊」。

據了解,Anthropic 先前已與軍方簽署價值 2 億美元的合約,但堅持要求國防部保證,不得將其 AI 技術用於國內大規模監控或自主武器。然而,OpenAI 後來也與國防部達成協議,Amodei 指責 Altman 藉此將自己塑造成「和平締造者和交易撮合者」,聲稱 OpenAI 新的國防合約將包含與 Anthropic 相同,針對大規模監控和自主武器的限制。

OpenAI 在部落格文章中聲稱,其合約允許將 AI 系統用於「所有合法目的」,並表示國防部明確表明,認為國內大規模監控為非法,且無意將 AI 用於此目的。但有評論指出,法律隨時間可能改變,目前視為非法的行為,未來可能變得可被允許。

這起事件引發公眾對 OpenAI 的負面情緒,數據顯示,在 OpenAI 與國防部達成協議後,ChatGPT 的解除安裝量激增 295%。Amodei 在一份備忘錄中指出,OpenAI 試圖進行的「公關操作並未奏效」,大眾普遍認為 OpenAI 與國防部的合作「可疑」,並將 Anthropic 視為「英雄」。

包括 Google 和 Nvidia 等公司在內的信息技術產業委員會(ITI)已致函五角大廈,表達對國防部考慮因採購爭端而指定供應鏈風險的擔憂,敦促美國國防部透過對話解決爭端,或考慮其他供應商,而非對企業實施此類指定。

此事件突顯了 AI 發展中的潛在風險與商業倫理問題,值得台灣產業界深思。在追求技術創新的同時,如何確保 AI 技術的應用符合道德規範,避免被濫用,將是台灣發展 AI 產業時必須嚴肅面對的課題。