禁令失效的一刻:AI 如何深入軍事到無法說停就停

禁令失效的一刻:AI 如何深入軍事到無法說停就停

2026 年 2 月 27 日下午,川普在 Truth Social 發出一則聲明:「我要求所有聯邦機構立即停止使用 Anthropic 技術。我們不需要它,不想要它,也不會再與他們合作。」

同一天,國防部長 Hegseth 宣告 Anthropic 為「供應鏈風險」,並要求所有國防承包商停止使用 Claude。

大約十幾個小時後,美軍中央司令部繼續使用 Claude 執行對伊朗的空襲任務。


一個行政命令,一場正在進行的戰爭

到 2026 年初,Claude 已深度嵌入五角大廈的分類軍事系統,負責處理衛星影像分析、信號情報摘要、威脅評估生成,以及打擊場景模擬。據 Defense One 的報導,將 Claude 從現有系統中完整移除,最少需要三到六個月。

「Operation Epic Fury(史詩怒火行動)」沒有等待那三到六個月。

2 月 28 日的打擊行動以伊朗核設施、彈道飛彈基地與代理人指揮網絡為目標,行動首日美以聯軍打擊逾千個目標。伊朗最高領袖哈梅內伊在行動中身亡,美軍三人陣亡。整個作戰周期中,CENTCOM 的指揮官們依賴 Claude 生成的情報摘要和態勢評估做出決定。

這不是 AI「協助」某場戰爭的模糊說法。是一個特定的 AI 模型,具體嵌入軍事指揮鏈,在一道明令禁止使用它的行政命令生效後,繼續運作。


那道命令為什麼發出

這個矛盾的起源,要從一份合約說起。

2025 年,五角大廈與 Anthropic 簽訂了一份最高價值 2 億美元的合約。隨著合約執行,雙方在使用範疇上始終無法達成共識。五角大廈要求的是「用於一切合法目的」的無限制授權,這個措辭涵蓋了兩個 Anthropic 明確拒絕的場景:對美國公民的大規模監控,以及驅動全自主致命武器系統。

Anthropic CEO Dario Amodei 在 2 月 27 日的聲明中說:「我們在良知上無法接受。」

這句話的底層是一個工程師的判斷,而非道德說教。Amodei 明確指出,Anthropic 不相信當今的前沿 AI 模型已可靠到足以在無人監督下驅動致命武器,「這樣做將危及美軍戰鬥人員與平民」。

五角大廈的回應是給出最後期限:2 月 27 日下午 5:01,一小時內撤除所有限制,否則啟動封殺程序。Anthropic 沒有讓步。川普的禁令隨後發布。


歷史先例,在靜默中形成

Operation Epic Fury 很可能是人類歷史上第一起公開確認的 AI 輔助軍事打擊。

這個先例的形成方式令人不安。沒有公眾辯論,沒有國會授權,沒有國際法框架,甚至沒有行政當局的刻意批准。行政當局試圖在最後一刻阻止,但系統的慣性讓那道命令失效了。

全球的法學家、倫理學家、軍備控制專家還在討論「AI 輔助軍事目標識別是否應該被允許」,這個問題已在太平洋時間 2 月 28 日凌晨,在某個指揮中心的螢幕上,以實際操作的形式被回答了。

答案是:允許。因為它已經發生了。

諾貝爾經濟學獎得主 Daron Acemoglu 事後寫道,川普同時對伊朗和對 Anthropic 發動兩場戰爭,底層邏輯相同:剷除規則與約束,讓權力不受任何框架羈絆。但這個觀察漏掉了一個更深的諷刺:那道宣示最高權力的禁令本身,也被技術依賴的現實所架空。


OpenAI 的那道門

Anthropic 被封殺的當天夜裡,OpenAI CEO Sam Altman 宣布與五角大廈簽署合約,允許其 AI 模型進入分類軍事網路。Altman 聲稱 OpenAI 設有「同等甚至更嚴格的護欄」,但措辭模糊,僅稱不會用於「非法目的」,對自主武器或大規模監控沒有做出任何明確限制。

這個速度,本身就是一種訊號。

近五百名來自 OpenAI 與 Google 的員工隨後聯署公開信,警告「五角大廈正在讓 AI 公司相互競價,逐步放棄倫理限制」。那些最靠近 AI 系統的工程師們,清楚看到了這場競爭的走向。

Anthropic 選擇的路徑——拒絕、被封殺、提告——在商業上代價慘重。但它留下了一份罕見的公開記錄:一家公司在某個具體時刻,對某個具體要求,說了不。這份記錄,或許是未來任何規範嘗試能夠援引的起點。


不可逆的問題

Operation Epic Fury 之後,有些問題已無法在思想實驗裡繼續討論。

AI 輔助的目標識別有多精確?在何種條件下會出錯?錯誤的代價由誰承擔?當 AI 系統協助確定打擊目標,而那個目標是錯誤的,問責鏈在哪裡斷裂?

這些是必須用真實案例來回答的問題。而第一個真實案例,是在一道試圖阻止它的行政命令失效之後才得以存在的。

技術整合的速度,早已超過治理框架建立的速度。這個差距,在 2 月 28 日的那幾個小時裡,以最清晰的方式顯現出來。

Read more

有些生意,我寧願不做

有些生意,我寧願不做

有一種談判,不管最後結果如何,你都知道自己必須走進去。 Anthropic 大概就是帶著這種心情,坐上了與美國國防部的談判桌。雙方商談的是 Claude 的政府使用授權,讓這家公司最核心的 AI 系統進入美國軍事體系。這類合約,金額龐大,關係長遠,在 AI 產業的商業邏輯裡幾乎是必爭之地。 然後 Anthropic 說了不。 兩條線,不是一時衝動 說不的理由,非常具體。Anthropic 要求在合約中排除兩種用途:用 Claude 對美國公民進行大規模監控,以及讓 Claude 在無人類參與的情況下驅動全自主致命武器。 我第一次看到這兩條例外,覺得它們說的是非常不同的事。一個是公民自由的問題,一個是軍事技術的問題。但細想,它們共享同一個底層結構:把本來需要人去做判斷、去承擔責任的事,交給機器去執行。 大規模監控真正危險的地方,是它把「誰被監控、為什麼」這個問題,從個別判斷化成了系統性的自動流程。人的參與被抹去,但後果依然落在人身上。

By Edwin Wong
護欄的幻覺

護欄的幻覺

一個有組織的操作者,試圖用 ChatGPT 協助策劃一場針對外國官員的影響力行動。ChatGPT 拒絕了。某個地方的安全儀表板,也許亮起了一個綠燈。 然後,操作者轉向了 DeepSeek 和 Qwen。行動繼續推進。幾個月後的內部紀錄顯示,行動已按計劃啟動。 那個綠燈,還亮著嗎? 這件事讓我想到一個很基本的問題:護欄的功能到底是什麼? 從技術設計的角度,護欄的目的是攔截有害請求。那一次,它確實攔截了。但如果一個壞行為者在被拒絕後,換一個工具就能繼續,那個攔截的意義究竟是什麼?它讓事情麻煩了五分鐘,也許一個小時。但對一個有數百名全職員工、橫跨三百多個境外社群平台、年度預算以數十萬美元計算的組織來說,這種量級的麻煩接近於零。 護欄的邏輯,建立在一個假設上:使用者沒有替代方案,或者切換替代方案的成本很高。對一般濫用者來說,這個假設或許成立。但面對有本地部署能力、隨時能換工具的國家機器,它從來就不成立。 我覺得 AI 安全的公共討論,長期活在一個錯誤的框架裡。 我們討論模型護欄、紅隊測試、對齊研究,彷彿那是這場對抗的主要戰場。

By Edwin Wong
偷學的指控,從來不是關於偷學

偷學的指控,從來不是關於偷學

我一直對科技公司的道德聲明有一種職業性的警惕。那些聲明未必是謊言。只是道德語言在商業利益與競爭壓力的包圍下,往往會發生某種扭曲。當一家公司以義憤填膺的語氣指控競爭者「偷學」,我的第一個反應,通常是先想知道這家公司自己的手有多乾淨。 什麼叫做「偷學」 AI 訓練的基本邏輯很簡單:你用大量資料灌進模型,模型從中學會模式,然後輸出能力。這個過程裡,「資料」這個詞承載了所有的模糊性。版權作品算不算「資料」?創作者的原創文章、記者的深度報導、作家幾十年的作品,在訓練集裡只是一組 token,還是一種應該被授權使用的資產?這個問題,AI 業界至今沒有給出讓人滿意的答案。主要是因為,如果認真回答,代價太高。「蒸餾」的邏輯與此平行。你用更強大模型的輸出灌進弱模型,弱模型從中學會更強大模型的推理方式,跳過了從零開始訓練的巨大成本。在技術層面,這與用版權書籍訓練語言模型的邏輯,結構上幾乎是同一件事。差別在於:誰做的,對象是誰。 道德高地是一個會移動的位置 我想到那個總在法庭劇裡出現的橋段:律師在台上義正嚴辭地指控對方,而辯護律師緩緩翻開一份舊文件,讓指控者自己過去的話語成為迴力鏢。這次的情節大

By Edwin Wong
Claude.ai 完整入門:從提示技巧到模型選擇

Claude.ai 完整入門:從提示技巧到模型選擇

每次打開空白頁面,面對龐大的專案卻不知從哪下手,這種感覺並不陌生。過去,你可能靠著不斷查資料、找同事討論、反覆修稿來推進工作。現在,有一個工具可以讓這個過程快很多。 Claude 是一個 AI 協作平台,它不會幫你做決策,但能幫你拆解問題、整理資訊、生成草稿、分析數據。它的強項在於你給它的背景越多,它的回應就越貼近你真正需要的東西。這篇文章會帶你從介面導覽開始,一路走到提示技巧、模型選擇,把 Claude.ai 的核心功能都摸清楚。 認識介面:側欄是起點 進入 Claude.ai 之後,左側的側欄是最常用到的區域,值得先花一點時間熟悉它。 側欄上方有建立新對話的按鈕,以及可以快速回到過去對話記錄的入口。往下看,你會找到「Projects」這個功能。Projects 的設計概念是把相關的對話整合在一起,加上持續性的背景說明和自訂指示,適合用在長期進行的工作項目上,比如某個產品開發週期或某個研究主題。 側欄裡還有一個「Artifacts」區塊,它讓你可以把對話中產生的內容,

By Edwin Wong