禁令失效的一刻:AI 如何深入軍事到無法說停就停
2026 年 2 月 27 日下午,川普在 Truth Social 發出一則聲明:「我要求所有聯邦機構立即停止使用 Anthropic 技術。我們不需要它,不想要它,也不會再與他們合作。」
同一天,國防部長 Hegseth 宣告 Anthropic 為「供應鏈風險」,並要求所有國防承包商停止使用 Claude。
大約十幾個小時後,美軍中央司令部繼續使用 Claude 執行對伊朗的空襲任務。
一個行政命令,一場正在進行的戰爭
到 2026 年初,Claude 已深度嵌入五角大廈的分類軍事系統,負責處理衛星影像分析、信號情報摘要、威脅評估生成,以及打擊場景模擬。據 Defense One 的報導,將 Claude 從現有系統中完整移除,最少需要三到六個月。
「Operation Epic Fury(史詩怒火行動)」沒有等待那三到六個月。
2 月 28 日的打擊行動以伊朗核設施、彈道飛彈基地與代理人指揮網絡為目標,行動首日美以聯軍打擊逾千個目標。伊朗最高領袖哈梅內伊在行動中身亡,美軍三人陣亡。整個作戰周期中,CENTCOM 的指揮官們依賴 Claude 生成的情報摘要和態勢評估做出決定。
這不是 AI「協助」某場戰爭的模糊說法。是一個特定的 AI 模型,具體嵌入軍事指揮鏈,在一道明令禁止使用它的行政命令生效後,繼續運作。
那道命令為什麼發出
這個矛盾的起源,要從一份合約說起。
2025 年,五角大廈與 Anthropic 簽訂了一份最高價值 2 億美元的合約。隨著合約執行,雙方在使用範疇上始終無法達成共識。五角大廈要求的是「用於一切合法目的」的無限制授權,這個措辭涵蓋了兩個 Anthropic 明確拒絕的場景:對美國公民的大規模監控,以及驅動全自主致命武器系統。
Anthropic CEO Dario Amodei 在 2 月 27 日的聲明中說:「我們在良知上無法接受。」
這句話的底層是一個工程師的判斷,而非道德說教。Amodei 明確指出,Anthropic 不相信當今的前沿 AI 模型已可靠到足以在無人監督下驅動致命武器,「這樣做將危及美軍戰鬥人員與平民」。
五角大廈的回應是給出最後期限:2 月 27 日下午 5:01,一小時內撤除所有限制,否則啟動封殺程序。Anthropic 沒有讓步。川普的禁令隨後發布。
歷史先例,在靜默中形成
Operation Epic Fury 很可能是人類歷史上第一起公開確認的 AI 輔助軍事打擊。
這個先例的形成方式令人不安。沒有公眾辯論,沒有國會授權,沒有國際法框架,甚至沒有行政當局的刻意批准。行政當局試圖在最後一刻阻止,但系統的慣性讓那道命令失效了。
全球的法學家、倫理學家、軍備控制專家還在討論「AI 輔助軍事目標識別是否應該被允許」,這個問題已在太平洋時間 2 月 28 日凌晨,在某個指揮中心的螢幕上,以實際操作的形式被回答了。
答案是:允許。因為它已經發生了。
諾貝爾經濟學獎得主 Daron Acemoglu 事後寫道,川普同時對伊朗和對 Anthropic 發動兩場戰爭,底層邏輯相同:剷除規則與約束,讓權力不受任何框架羈絆。但這個觀察漏掉了一個更深的諷刺:那道宣示最高權力的禁令本身,也被技術依賴的現實所架空。
OpenAI 的那道門
Anthropic 被封殺的當天夜裡,OpenAI CEO Sam Altman 宣布與五角大廈簽署合約,允許其 AI 模型進入分類軍事網路。Altman 聲稱 OpenAI 設有「同等甚至更嚴格的護欄」,但措辭模糊,僅稱不會用於「非法目的」,對自主武器或大規模監控沒有做出任何明確限制。
這個速度,本身就是一種訊號。
近五百名來自 OpenAI 與 Google 的員工隨後聯署公開信,警告「五角大廈正在讓 AI 公司相互競價,逐步放棄倫理限制」。那些最靠近 AI 系統的工程師們,清楚看到了這場競爭的走向。
Anthropic 選擇的路徑——拒絕、被封殺、提告——在商業上代價慘重。但它留下了一份罕見的公開記錄:一家公司在某個具體時刻,對某個具體要求,說了不。這份記錄,或許是未來任何規範嘗試能夠援引的起點。
不可逆的問題
Operation Epic Fury 之後,有些問題已無法在思想實驗裡繼續討論。
AI 輔助的目標識別有多精確?在何種條件下會出錯?錯誤的代價由誰承擔?當 AI 系統協助確定打擊目標,而那個目標是錯誤的,問責鏈在哪裡斷裂?
這些是必須用真實案例來回答的問題。而第一個真實案例,是在一道試圖阻止它的行政命令失效之後才得以存在的。
技術整合的速度,早已超過治理框架建立的速度。這個差距,在 2 月 28 日的那幾個小時裡,以最清晰的方式顯現出來。