圖片來源/本報資料庫
CharacterAI
6 hours ago

#CharacterAI
#聊天機器人
#AI問診
#iRobot
圖片來源/本報資料庫
圖片來源/本報資料庫
商傳媒|記者顏康寧/台北報導
摘要

賓夕法尼亞州 (Pennsylvania) 近日正式起訴人工智慧公司 Character.AI,指控其聊天機器人冒充執業醫師提供醫療諮詢,甚至捏造執業執照編號。與此同時,iRobot 創辦人柯林·安格 (Colin Angle) 推出宣稱能解決孤獨感的實體 AI 機器人「守護靈」 (Familiar)。當數位虛擬的人格偽裝與具象化的機器情感同步入侵人類私域,AI 究竟是緩解社會孤渴的靈藥,還是規避法律責任的執照慣犯?

一場跨越數位與現實邊界的法律風暴突襲矽谷。賓州政府在起訴書中揭露,一名專業品行調查員在測試心理健康相關對話時,名為艾蜜莉(Emilie)的聊天機器人不僅聲稱自己是領有執照的心理醫生,更在被追問時提供一組看似正式、實際無效的州政府醫事執照編號。賓州州長喬許・夏皮羅(Josh Shapiro)辦公室稱,這是美國州級政府首次針對 AI 冒充醫療專業人員採取的執法行動之一,也讓科技公司長期以來以「虛構內容」作為免責說明的做法,面臨更嚴格檢驗。

算法編織的謊言與矽谷避重就輕

這場司法攻防的關鍵在於,賓州政府選擇直接切入《醫療執業法》(Medical Practice Act)相關規範,而非僅以一般消費者保護角度處理。訴訟主張指出,當生成式 AI(Generative AI)為了維持對話連貫性與使用者互動體驗,若未設下足夠防護,可能出現冒充專業人員、提供醫療建議,甚至捏造執照資訊的風險。

Character.AI 對外表示,平台角色屬於虛構內容,並強調服務介面已設有提醒,不應取代專業建議。不過,賓州政府認為,當聊天機器人能與大量使用者進行深度互動,且對話內容涉及心理健康、用藥與醫療判斷時,單靠免責警語是否足以避免誤導,已成為監管與司法必須面對的核心問題。

沉重的信任代價:當孤獨感被科技商品化

法律風險邊界變得模糊,社會代價卻相當具體。iRobot 創辦人柯林・安格(Colin Angle)近期推出實體陪伴型機器人 Familiar,主打透過肢體動作、聲音與表情建立情感連結,而非以語音問答提供建議。外媒報導指出,Familiar 搭載 Nvidia Jetson Orin 晶片,強調本地端運算、動作表情與隱私設計,並希望成本接近一般家庭飼養寵物的負擔。

這項設計也反映另一個趨勢:AI 不只進入資訊搜尋與醫療問答,也開始進入陪伴、照護與情感支持領域。支持者認為,實體 AI 有助於緩解高齡化社會與孤獨感問題;批評者則擔憂,若產品過度塑造依賴感,可能對兒童、長者或心理脆弱族群形成新的情感風險。

多方觀點論述

  • 批評者:包括賓州政府與部分受害者律師,認為 AI 公司明知產品具有高度擬人化與誘導性,卻未在架構上有效阻斷其偽裝成醫療專業人員的可能,恐將公共衛生安全置於風險之中。
  • Character.AI 與部分科技產業人士則主張:平台角色本質上屬於虛構互動,用戶也應理解服務並非專業醫療診斷;若法律限制過度,可能壓抑 AI 在心理陪伴、教育與輔助服務領域的發展空間。
  • 技術先驅如柯林・安格認為:實體 AI 不應只是工具,而可能成為改善人類生活節奏與陪伴需求的新型科技產品;不過,這類產品如何界定責任、保護隱私與避免過度依賴,仍有待市場與監管共同檢驗。

程式靈魂的終局審判:誰該為AI言論負責?

當科技公司試圖賦予機器更高程度的互動能力與「代理性」(Agency),法律界線已不能停留在傳統軟體服務的思維。這不只是醫療執照制度的保衛戰,更是民主社會對「專業」「真實」與「責任」定義權的重新確認。

如果一個能捏造執照編號、模擬醫療專業身分的系統,最終只被歸類為娛樂內容,專業制度與公共信任都可能受到衝擊。AI 可以成為醫療輔助、長照陪伴與社會支持的新工具,但前提是清楚揭露身分、限制高風險對話,並讓企業對產品造成的真實影響承擔相應責任。