目錄
美國國防部正評估是否將人工智慧公司 Anthropic 列入「供應鏈風險黑名單」,在國防體系中封殺其旗艦模型 Claude。導火線來自雙方對軍事用途的分歧,Anthropic 堅持設下論理護欄, 強調產品不得用於監控與武器使用;五角大廈則認為,軍事用 AI 必須能服務於所有用途。
軍事合作急轉彎:Anthropic 面臨「供應鏈風險」審查
Axios 報導,總部位於五角大廈 (Pentagon) 的美國國防部正考慮與 Anthropic 切割業務往來,擬將其列入「供應鏈風險黑名單」。這通常是一種針對外國敵對勢力的懲罰措施,恐將禁止所有與美軍合作的企業使用 Anthropic 的 AI 系統。
目前,Anthropic 旗下模型 Claude 已嵌入多個軍方機密系統。若遭強制移除,相關承包商將面臨龐大的技術與合規成本,據悉潛在受影響的國防合約規模約 2 億美元。
馬杜洛行動成導火線:AI 軍事運用界線浮上檯面
爭議焦點之一,是 Claude 被用於今年 1 月針對委內瑞拉總統馬杜洛 (Nicolás Maduro) 的軍事任務,該行動透過 Anthropic 與數據分析公司 Palantir 的合作順利達成。
據報,Anthropic 高層事後詢問相關用途,並暗示對於其模型被運用於涉及實彈交火的行動帶有疑慮。此舉引發五角大廈不滿,認為企業不應在已簽署合作框架下對具體的軍事運用提出質疑。雙方隨後就 AI 可用範圍展開多輪談判,包含監控、情報蒐集與武器研發等領域。
五角大廈發言人 Sean Parnell 證實了這項消息,並將其定義為國家安全問題:「合作夥伴必須願意協助我們的戰士在任何戰鬥中獲勝。追根究底,這關乎我們的部隊以及美國人民的安全。」
當倫理護欄遇上國安需求,國防部態度強硬
Anthropic 執行長 Dario Amodei 一直主張,應為 AI 設立明確倫理界線。該公司的使用政策中明文禁止模型用於武器設計、國內監控及完全自主武器系統,除非在特定合約保障下另行評估。
(從極權工具到失控隱憂:Anthropic 執行長詳解強大 AI 帶給人類的五大風險)
然而,五角大廈認為,軍事 AI 工具必須能用於「所有合法用途」,並指出真實戰場情境往往存在灰色地帶,過度僵化的限制將削弱作戰彈性。據悉,國防部也對其他合作的 AI 供應商提出相同標準,包括 OpenAI、Google 與 xAI (Grok)。
(SpaceX 參與五角大廈無人機技術競標,馬斯克佈局 AI 軍武的挑戰)
科技巨頭角力升溫:馬斯克批評 Claude 存在「種族歧視」
在國防部審查之際,Anthropic 亦面臨來自競爭對手的公開批評。特斯拉與 xAI 創辦人馬斯克近期指控 Claude 存在意識形態偏見,並質疑其輸出內容對特定種族不友善。由於 xAI 與 Anthropic 在大型語言模型與國防合作市場上直接競爭,此舉也被外界解讀是產業角力的一環。
目前,行政官員坦言,在特定政府與機密應用場景中,其他模型仍略遜於 Claude,這讓是否該迅速轉換供應商陷入兩難。若五角大廈最終將 Anthropic 列為供應鏈風險,將成為美國首度因 AI 使用範疇問題,對本土科技企業祭出制裁措施,對國防科技合作模式具有象徵意義。