五角大樓最後通牒:Anthropic 72小時生死劫
原文作者:Ada,深潮 TechFlow
2 月 24 日,星期二。華盛頓,五角大樓。
Anthropic 執行長 Dario Amodei 坐在國防部長 Pete Hegseth 對面。據 NPR 與 CNN 等多家媒體援引知情人士指出,會面氣氛「禮貌」,但內容毫無妥協餘地。
Hegseth 向其下達最後通牒:必須於週五下午 5 時 01 分前,全面解除 Claude 在軍事用途上的限制,允許五角大樓將其用於「所有合法用途」——包括自主武器瞄準與美國境內大規模監控。
否則,立即終止價值 2 億美元的國防合約;啟動《國防生產法》強制徵用;並將 Anthropic 列為「供應鏈風險實體」——此舉等同於將其納入與俄羅斯、中國並列的敵對實體黑名單。
同日,Anthropic 發布第三版《負責任擴展政策》(RSP 3.0),悄然刪除自公司成立以來最核心的安全承諾:「若無法確保安全措施到位,即暫停更強大模型之訓練」。
同日,Elon Musk 於 X 平台發文指控:「Anthropic 大規模竊取訓練資料,此事屬實。」X 社群註解隨即補充:Anthropic 因使用盜版書籍訓練 Claude,已支付 15 億美元和解金。
72 小時內,這家自稱擁有「靈魂」的人工智慧公司,同時扮演三重角色:安全殉道者、智慧財產權竊賊、五角大樓的叛徒。
哪一個才是真實面貌?
也許——全部都是。
五角大樓的「非服從即出局」邏輯
故事的第一層極其清晰:
Anthropic 是首家取得美國國防部「機密級存取權限」的 AI 公司,去年夏季簽署上限 2 億美元的國防合約。OpenAI、Google、xAI 隨後亦獲同等規模合約。
據 Al Jazeera 報導,Claude 曾參與今年 1 月一次美軍行動,該行動被指涉及委內瑞拉總統馬杜羅之綁架行動。
然而,Anthropic 劃出兩條不可逾越紅線:不支援全自主武器瞄準、不支援針對美國公民的大規模監控。理由明確:當前 AI 可靠性不足以操控致命武器;且美國尚無任何法律規範 AI 於大規模監控之應用。
五角大樓拒絕接受。
白宮 AI 顧問 David Sacks 去年 10 月於 X 公開批評 Anthropic「以恐懼為武器,操弄監管議程」。
競爭對手早已讓步:OpenAI、Google、xAI 全數同意軍方將其 AI 投入「所有合法場景」;Musk 的 Grok 更於本週獲准接入機密系統。
Anthropic,是唯一仍站立者。
截至發稿,Anthropic 最新聲明堅稱「無意妥協」。但週五下午 5 時 01 分的最後期限,已迫在眉睫。
一名匿名前司法部與國防部聯絡官員向 CNN 表示困惑:「你怎能一面將某家公司標定為『供應鏈風險』,一面又強迫它為你的軍隊服務?」
這是好問題——但不在五角大樓的考量範疇內。他們只關心:若 Anthropic 不屈服,將啟動強制手段,或使其淪為華盛頓棄兒。
「蒸餾攻擊」指控:一場自我反噬的敘事危機
2 月 23 日,Anthropic 發表措辭強烈的官方部落格,指控三家中國 AI 公司對 Claude 實施「工業級蒸餾攻擊」。
被告為 DeepSeek、Moonshot AI 與 MiniMax。
Anthropic 指控其透過 2.4 萬個偽造帳號,對 Claude 發起逾 1,600 萬次互動請求,精準提取其在智能體推理、工具調用與程式編寫等核心能力。
Anthropic 將此定性為「國家安全威脅」,聲稱蒸餾後模型「極可能喪失安全防護機制」,易遭威權政府用於網路攻擊、虛假資訊散播與大規模監控。
敘事完美,時機更精準:
恰逢川普政府剛放寬對中芯國際等中國半導體企業之晶片出口管制;也正值 Anthropic 需要為自身主張「加強晶片出口管制」尋求政治彈藥之際。
然而,Musk 一槍擊穿:「Anthropic 大規模竊取訓練資料,並已支付數十億美元和解金。此事千真萬確。」

AI 基礎設施公司 IO.Net 聯合創辦人 Tory Green 直言:「你們用全網公開資料訓練模型,別人再用你們開放 API 學習你們,就叫『蒸餾攻擊』?」
事實上,蒸餾技術為業界常態:OpenAI 用其壓縮 GPT-4、Google 用其優化 Gemini,就連 Anthropic 自身亦長期運用此法。唯一差異僅在——這次被蒸餾的是它自己。
新加坡南洋理工大學 AI 教授 Erik Cambria 向 CNBC 表示:「合法使用與惡意利用之間的界線,本就模糊。」
更具諷刺意味的是:Anthropic 剛因使用盜版書籍訓練 Claude,支付 15 億美元和解金。它一邊以全網資料建構模型,一邊指控他人透過其公開 API 學習自身——這不是雙標,而是三標。
Anthropic 本欲化身受害者,結果反成被告。
RSP 3.0:安全承諾的系統性拆除
就在與五角大樓對峙、與矽谷互撕的同日,Anthropic 發布第三版《負責任擴展政策》(RSP 3.0)。
首席科學家 Jared Kaplan 接受媒體訪問時坦言:「我們認為,單方面停止模型訓練對任何人皆無助益。在 AI 加速演進的現實下,若競爭對手全力推進,而我方固守承諾,毫無意義。」
換言之:「對方不講武德,我們也不裝了。」
RSP 1.0 與 2.0 的核心支柱,正是那條硬性承諾——「一旦模型能力超出安全措施覆蓋範圍,即刻暫停訓練」。此承諾曾使 Anthropic 在全球 AI 安全圈建立獨一無二的公信力。
而 RSP 3.0,刪除了這條承諾。
取而代之的,是一套更「彈性」的雙軌框架:一條軌道聚焦 Anthropic 自身可執行的安全措施;另一條則提出需全產業協作的安全建議。每 3 至 6 個月發布一份風險評估報告,並邀請外部專家審閱。
聽起來更負責?
非營利組織 METR 的獨立審查員 Chris Painter 在審閱政策初稿後表示:「這說明 Anthropic 已進入『分診模式』——因風險評估與緩解速度,根本追不上模型能力增長。這恰恰證明:人類社會尚未為 AI 潛在災難性風險做好準備。」
據《TIME》報導,Anthropic 內部耗時近一年研議此次改寫,執行長 Amodei 與董事會全票通過。官方解釋是:原政策旨在推動產業共識,但產業始終未跟進;川普政府對 AI 採放任態度,甚至試圖廢除各州現行法規;聯邦層級 AI 立法遙遙無期。儘管 2023 年全球治理框架尚存希望,三年過去,那扇門已然關閉。
一位長期追蹤 AI 治理的匿名研究員直言:「RSP 是 Anthropic 最值錢的品牌資產。刪除『暫停訓練』承諾,就像一家有機食品公司悄悄撕下包裝上的『有機』二字,然後告訴消費者:『我們現在檢測更透明了。』」
3,800 億美元估值下的身份撕裂
2 月初,Anthropic 以 3,800 億美元估值完成 300 億美元融資,亞馬遜為錨定投資者。自成立以來,年化營收達 140 億美元;過去三年,年營收均成長逾 10 倍。
與此同時:五角大樓威脅將其列入黑名單;Musk 公開指控其資料竊盜;核心安全承諾遭系統性刪除;AI 安全負責人 Mrinank Sharma 辭職後於 X 發文:「世界正處於危險之中。」
矛盾?
或許——矛盾正是 Anthropic 的基因。
這家公司由前 OpenAI 高管創立,正因憂慮 OpenAI 在安全議題上推進過快;結果他們創立新公司,卻以更快的速度開發更強模型,並反覆向世界警示這些模型的危險性。
其商業模式可一句概括:「我們比任何人都更害怕 AI,所以請付錢,讓我們來建造 AI。」
此敘事於 2023–2024 年運作完美:AI 安全是華盛頓熱詞,Anthropic 是最受歡迎的遊說力量。
到了 2026 年,風向徹底轉變。
「覺醒型 AI(woke AI)」已成政治攻擊標籤;州級 AI 監管法案遭白宮阻撓;Anthropic 支持的加州 SB 53 雖然立法成功,但聯邦層級仍一片荒蕪。
Anthropic 的「安全牌」,正從「差異化優勢」滑向「政治負資產」。
它正進行一場高難度平衡術:既要足夠「安全」以維繫品牌,又要足夠「彈性」以免遭市場與政府拋棄。問題在於——兩端的容忍空間,正在同步收窄。
「安全敘事」的市場價值,還剩多少?
將三件事並置觀察,真相豁然開朗:
- 指控中國公司「蒸餾」Claude,實為強化晶片出口管制遊說的關鍵論據;
- 為在軍備競賽中不落後,主動刪除模型安全暫停承諾;
- 拒絕五角大樓自主武器要求,則為守住最後一道道德外衣。
每一步皆有邏輯,但每一步彼此間又相互衝突。
你不能一邊聲稱中國公司蒸餾模型將危害國家安全,一邊又刪除防止自身模型失控的核心承諾。倘若模型真如此危險,理應更加謹慎——而非更加激進。
除非你是 Anthropic。
在 AI 產業,身份從不由宣言定義,而由資產負債表定義。Anthropic 的「安全敘事」,本質上是一種品牌溢價。
在 AI 軍備競賽初期,此溢價極具價值:投資人願意為「負責任的 AI」支付更高估值;政府願為「可信任的 AI」開綠燈;客戶願為「更安全的 AI」付費。
但 2026 年,這項溢價正快速蒸發。
Anthropic 面臨的,已非「是否妥協」的選擇題,而是「先向誰妥協」的排序題:向五角大樓讓步,品牌崩壞;向競爭對手讓步,安全承諾歸零;向投資人讓步,則兩頭皆失。
週五下午 5 時 01 分,Anthropic 將交出答案。
但無論答案為何,有一件事已然確定:那個曾憑藉「我們與 OpenAI 不同」立足的 Anthropic,正日益變得——與所有人相同。
身份危機的終點,往往是身份的消失。
