亞馬遜
4 hours ago

#亞馬遜
#OpenAI
#Anthropic
#人工智慧
#企業策略
商傳媒|責任編輯/綜合外電報導
摘要

亞馬遜為因應與競爭對手 OpenAI 和 Anthropic 的複雜合作關係,已發布內部指引給銷售與行銷團隊。這份指引旨在澄清其 AI 策略,強調與所有模型供應商的穩固關係,並詳述 OpenAI 驅動的 SRE 服務的溝通方式,以避免誤解為直接存取。內部文件也回應了對投資 OpenAI 五百億美元可能形成循環安排的疑慮,並保證 AWS Trainium 晶片供應無虞,以及亞馬遜對自家 AI 產品的持續投入。

儘管人工智慧(AI)領域競爭激烈,OpenAI 與 Anthropic 被外媒視為矽谷兩大主要「宿敵」,然而電商巨擘亞馬遜(Amazon)卻同時與兩者建立合作關係,引發內部對於其銷售與行銷團隊可能面臨的潛在疑慮。為此,亞馬遜已發布內部指引,以釐清公司立場並確保策略一致性。

根據一份外媒報導,亞馬遜近期已向其銷售與行銷團隊發布內部指南,旨在解決與這兩家 AI 公司合作所產生的相關問題。這份指引要求所有行銷活動必須「嚴格遵守規範」,並指示員工向 Amazon Web Services(AWS)客戶保證,亞馬遜將持續與 Anthropic 以及包括 Meta、Mistral、Cohere 在內的其他 AI 模型供應商保持「穩固的合作關係」。該文件也強調,亞馬遜將持續與所有模型供應商密切合作,並預期隨著客戶對多元模型需求增加,這些夥伴關係將隨時間推移更加強化。

亞馬遜是 Anthropic 的主要投資者,雙方維持雲端合作夥伴關係;同時,亞馬遜也承諾對 OpenAI 進行高達五百億美元的投資,並擴大與其合作。這種複雜的競合關係造成了潛在的張力,亞馬遜正透過與其商業團隊的結構性溝通來加以應對。

釐清 OpenAI 合作模式與內部溝通重點

這份內部文件也詳細說明了員工應如何描述與 OpenAI 的合作。亞馬遜已推出一項名為 Stateful Runtime Environment(SRE)的 AI 系統架構,由 OpenAI 模型驅動並透過 Amazon Bedrock 提供服務,讓客戶能存取不同的 AI 模型。

對於 SRE,AWS 員工可表示其「由 OpenAI 模型驅動」、「由 OpenAI 模型支援」或「整合了 OpenAI 模型」。然而,員工被明確指示,不得聲稱 SRE「提供 OpenAI 模型的存取權限」或允許客戶「呼叫 OpenAI 模型」,也禁止將其描述為通往 GPT 模型的「直通管道」,或暗示 OpenAI 的前沿模型可在 AWS 上廣泛使用。同時,也不得暗示 OpenAI「提供」SRE,而應將兩家公司的合作描述為「共同協作提供」此服務。

這項區別反映了 SRE 的底層架構。雖然 OpenAI 模型是 SRE 的基礎,但客戶無法透過現有的 Bedrock API 直接存取這些模型,而是將模型整合在特定的基礎設施層中。這種定位方式,使亞馬遜與微軟(Microsoft)將 OpenAI 模型託管在其 Azure 平台上的做法有所區隔,也顯示 AWS 是將模型整合至自身服務中,而非僅僅轉售。

回應投資疑慮與晶片供應前景

內部備忘錄同時處理了外界對亞馬遜投資 OpenAI 五百億美元可能構成「循環安排」的疑慮。此類疑慮常出現於科技公司投資 AI 新創後,部分投資資金再透過雲端消費流回投資者案例。在此合作案中,OpenAI 已同意在八年內將其 AWS 使用量擴大至一千億美元,並將使用二吉瓦(gigawatts)的 AWS Trainium 晶片。

AWS 員工被告知,應回應此類疑慮,說明公司之間相互投資與業務往來在資本密集型產業中十分常見。文件指出,亞馬遜對 OpenAI 的投資與 OpenAI 使用 AWS 基礎設施,是基於各自的獨立考量。此外,該指引也準備讓團隊應對此協議是否會影響亞馬遜自身 AI 產品(包括 Nova 模型和 Quick 代理式人工智慧服務)的問題。儘管協議中提及亞馬遜將獨家提供 OpenAI 的 Frontier 服務(該服務包含與 Quick 類似的企業級功能),但亞馬遜強調將持續專注於 Nova 和 Quick,因為客戶常會在同一個工作中使用多個 AI 模型。

針對晶片供應問題,鑑於 OpenAI 龐大的基礎設施需求,AWS 預期客戶會關切其 Trainium 晶片的供應量是否會受限。該指引明確表示,即使需求成長,許多客戶仍將能為其 AI 工作負載存取 Trainium 晶片。