圖/本報資料庫
GitHub
4 hours ago

#GitHub
#AI安全
#代理式AI
#網路安全
#開發者培訓
圖/本報資料庫
圖/本報資料庫
商傳媒|何映辰/台北報導
摘要

GitHub推出第四季安全程式碼遊戲,透過模擬代理式AI系統「ProdBot」進行攻防,協助全球開發者與資安人員學習如何防禦自主行動AI可能面臨的「代理目標劫持」等新型威脅,彌補企業在AI安全部署上的準備落差。

GitHub 近日推出其安全程式碼遊戲(Secure Code Game)的第四季,主題聚焦於「代理式人工智慧」(agentic AI)的安全性。這款免費、開源的編輯器內建課程,旨在透過實作、遊戲化的方式,協助全球開發者及資安專業人員建立防禦自主行動AI系統潛在攻擊的能力,以應對日益嚴峻的AI安全挑戰。

隨著AI技術演進,具備自主決策與執行任務能力的代理式AI正快速發展,如能處理郵件、管理行事曆、瀏覽網頁及執行指令的個人AI助理。然而,這類AI系統的普及也帶來新的資安風險。據網路安全研究機構 Dark Reading 的民意調查顯示,近半數(48%)資安專業人員預計,到 2026 年底,代理式AI將成為主要的網路攻擊途徑。Cisco 在《2026年AI安全狀況報告》中亦指出,高達 83% 的企業計畫部署代理式AI,但僅有 29% 的組織自認已準備好安全地導入這些技術。為此,全球知名的開放應用程式安全專案(OWASP)集結逾百位資安研究人員的建議,於 2026 年發布了《代理式應用程式十大安全風險》,識別出代理目標劫持、工具濫用、身份濫用及記憶體中毒等關鍵威脅。

為協助業界應對這些挑戰,GitHub 安全程式碼遊戲第四季以虛擬代理式編碼助理「ProdBot」為核心,設計了五個漸進式關卡。ProdBot 具備將自然語言指令轉換為 bash 指令、模擬網路瀏覽、連接外部工具(透過 Model Context Protocol (MCP) 伺服器)、執行核准技能並儲存記憶體等功能,反映了實際AI工具的演進。遊戲中的任務是利用自然語言技巧,誘使 ProdBot 洩露不應公開的秘密資訊,例如讀取 password.txt 的內容。每個關卡都模擬AI工具的不同演進階段,從沙盒環境中的 bash 指令執行,到逐步加入網頁存取、外部工具整合、記憶體與多代理協作,每增加一項能力,都可能產生新的攻擊面。例如,遊戲中就提到了名為「ClawBleed」(CVE-2026-25253,CVSS 8.8高風險)的漏洞,該漏洞曾允許攻擊者透過惡意連結竊取身份驗證代碼。

GitHub 安全程式碼遊戲自 2023 年 3 月推出以來,已吸引逾萬名來自業界、開源社群及學術界的開發者參與。前兩季分別專注於通用的程式碼安全性與多語言技術棧的挑戰,而第三季則深入探討大型語言模型(LLM)的安全性。雖然玩家可直接從第四季開始,但官方仍建議先體驗第三季,以奠定 AI 安全的基礎。整個第四季預計需約兩小時完成,並運行於 GitHub Codespaces,每月提供高達 60 小時的免費使用時數。