
全球正經歷人工智慧(AI)浪潮,Google推出開源模型推動技術普及,Anthropic的Claude Code和GATC Health的AI新藥開發更展現醫療應用潛力;然而,Anthropic程式碼洩露、中國駭客利用AI發動網路攻擊,以及AI代理程式記憶力不足等問題,都凸顯出AI在治理、資安與效率上的嚴峻挑戰,促使各界正視其發展與監管之間的平衡。
隨著人工智慧(AI)技術持續發展,全球正見證其在各領域的廣泛應用,但也面臨治理、資安與倫理的嚴峻挑戰。從Google推出最新的開源模型,到AI在醫療上的突破性應用,這項新興科技的潛力無限;然而,資安漏洞與法律灰色地帶亦隨之浮現,引發各界對如何有效監管AI的深度思考。
科技巨頭Google於昨日發布其最新的開源AI模型Gemma 4。這款模型採用Apache 2.0開源許可,可供用戶在本地設備上運行,適用於數十億部 Android 設備及部分筆記型電腦繪圖處理器(GPU)。《Mashable》報導指出,Gemma 4由Google DeepMind團隊以開發Gemini 3的相同技術和研究基礎打造,被Google譽為其「最為強大」的開源AI模型。Gemma 4具備多步驟規劃及深度邏輯推理能力,並在數學與指令遵循基準測試中展現顯著提升,其安全性與隱私保護特性,也讓開發者能將AI整合至應用程式中,無需負擔重複訂閱費用。
AI的應用已深入醫療領域,為患者照護帶來變革。根據Anthropic公司資訊,醫護人員正利用其Claude Code與Claude Cowork開發臨床應用工具,即使沒有深厚程式設計背景的醫生,如葛拉漢·沃克醫師(Dr. Graham Walker)和米哈爾·內多齊科醫師(Dr. Michał Nedoszytko),也能打造實用程式。另一項重大進展來自加州GATC Health公司,其Operon AI平台已成功設計出化合物GATC-1021,能在實驗鼠身上顯著降低鴉片類藥物成癮的渴望,且未見行為或生理副作用。加州大學爾灣分校(University of California, Irvine)克莉絲蒂·福勒博士(Christie Fowler)領導的研究團隊在《美國國家科學院院刊》發表研究成果,指出GATC-1021有望成為鴉片類藥物成癮治療的非鴉片類替代方案,並能促進腦部神經連結再生。拉胡爾·古普塔醫師(Rahul Gupta)強調,這種精準的治療方式只有透過AI才能實現。
然而,AI發展的另一面是複雜且持續增長的風險。資安公司Anthropic上週二便發生程式碼意外洩露事件,其Claude Code應用程式的底層指令不慎外洩。Anthropic隨即提出版權下架請求,並解釋這是「人為錯誤造成的發布打包問題,並非資安漏洞」,且未涉及客戶資訊或數據。然而,《InvestmentNews》引述專家看法指出,此事件為金融諮詢機構和顧問敲響警鐘,提醒他們在使用AI時對客戶資料負有責任。投資顧問艾瑞克·富蘭克林(Eric Franklin)強調,與AI供應商簽約不能僅止於簽名與付費,務必理解數據敏感性,並在傳送至AI系統前對個人識別資訊(PII)進行淨化處理。IBM去年十二月的一項研究顯示,高達39%的金融服務公司承認曾將機密資訊傳送給AI工具,而AI涉及所有資料外洩事件中的20%。
AI代理程式(AI agents)的應用也暴露出其「記憶力」問題。由於AI程式碼代理程式在無狀態推論(stateless inference)下運行,且記憶體僅限於會話範圍,導致開發者需在每次會話邊界重新建立架構與依賴關係,影響開發效率。一項2025年的研究發現,使用AI工具的開發者完成任務所需時間反而增加19%。為解決此問題,Augment Code開發了Context Engine,透過語義索引和代碼關係映射來維持跨會話的程式碼理解。此外,由OpenAI於2025年8月發布並捐贈給Linux基金會旗下Agentic AI基金會的AGENTS.md標準,已獲逾6萬個開源專案採用,有助於向AI代理程式提供專案情境資訊,研究顯示能減少約28.64%的處理時間。亞馬遜網路服務(Amazon Web Services, AWS)也提供Amazon SageMaker AI的無伺服器模型客製化服務,利用可驗證獎勵強化學習(RLVR)技術,協助AI代理程式更有效率地執行工具呼叫,減少幻覺並精準回應。
除了技術層面的挑戰,AI也帶來國家級資安威脅。據《The New York Times》報導,Anthropic曾於去年底報告,有中國國家支持的駭客利用其AI技術,試圖滲透全球約30家企業和政府機構的電腦系統。Anthropic表示,這是首次有紀錄的網路攻擊案例,AI技術在極少人為干預下便能收集敏感資訊,駭客僅需負責約10%至20%的攻擊工作。這顯示AI可能成為網路武器,大幅提升攻擊效率。
在法律層面,生成式AI在證據開示(discovery)過程中的應用,已在美國法院引發關於保護令的爭議。《Sidley Austin》分析,美國科羅拉多州地方法院在 Morgan v. V2X, Inc. 案中,要求用於處理機密資訊的AI工具必須具備契約保障,包括禁止將輸入內容用於模型訓練、限制進一步揭露及資料刪除功能。而堪薩斯州地方法院在 Jeffries v. Harcros Chemicals, Inc. 案中則採取更廣泛的限制,禁止所有公開或公共可用的AI工具用於證據開示,強調一旦資料被納入公共AI模型,實際上無法撤回或刪除的風險。
