有些生意,我寧願不做
有一種談判,不管最後結果如何,你都知道自己必須走進去。
Anthropic 大概就是帶著這種心情,坐上了與美國國防部的談判桌。雙方商談的是 Claude 的政府使用授權,讓這家公司最核心的 AI 系統進入美國軍事體系。這類合約,金額龐大,關係長遠,在 AI 產業的商業邏輯裡幾乎是必爭之地。
然後 Anthropic 說了不。
兩條線,不是一時衝動
說不的理由,非常具體。Anthropic 要求在合約中排除兩種用途:用 Claude 對美國公民進行大規模監控,以及讓 Claude 在無人類參與的情況下驅動全自主致命武器。
我第一次看到這兩條例外,覺得它們說的是非常不同的事。一個是公民自由的問題,一個是軍事技術的問題。但細想,它們共享同一個底層結構:把本來需要人去做判斷、去承擔責任的事,交給機器去執行。
大規模監控真正危險的地方,是它把「誰被監控、為什麼」這個問題,從個別判斷化成了系統性的自動流程。人的參與被抹去,但後果依然落在人身上。自主武器也是如此,把「是否開槍」這個不應被輕率對待的決定,從一個人的手上移走,交給一個訓練集和一組權重。
這兩件事,都是關於責任的去人化。Anthropic 認為這是紅線。我認同這個判斷。
代價是真實的
但我也清楚,這個判斷帶來的代價是真實的。
美國國防部長隨即宣布,將 Anthropic 列為「供應鏈風險」。這個標籤原本是用來對付外國廠商的,現在落在了一家美國本土的 AI 公司身上,原因不過是它在使用條款上不肯讓步。
失去政府合約,並非小事。這影響的不只是直接的收入,還有 Anthropic 在政府採購生態中的位置、未來的合作機會,以及它在整個政策對話中的話語份量。一家被官方標記為「供應鏈風險」的公司,在很多場合會被拒於門外,不需要任何進一步的解釋。
有人說,Anthropic 這樣做是在賭博。我不這麼看。但我也沒辦法說,這個選擇沒有代價。
理想主義,還是長期策略?
這個問題,我想了很久。
某種程度上,這兩個框架說的是同一件事,只是時間軸不同。守住倫理底線,短期內確實是損失。但長期來看,一家願意對自己最大金主說不的公司,積累的是一種很難被仿冒的信任:公眾的信任,開發者社群的信任,乃至其他政府合作方的信任。
但我不想把它純粹包裝成商業智慧。
Anthropic 劃下這兩條線,在我看來,首先是因為他們真的相信這些事不應該被做,然後才是因為不做這些事長遠對公司更好。這個順序,很重要。一旦把倫理決定的理由全部換算成商業回報,你就在某種程度上把那個決定掏空了。你會發現,當商業回報的計算改變,那條線也可以移動。
所以我更願意這樣說:Anthropic 這次的選擇,是用具體的代價,為自己公開聲明過的立場付了帳。那兩條線不是臨時畫的,是白紙黑字寫進使用政策裡的,而現在,他們在真實的壓力下,沒有劃掉它們。
這件事值得被記下來。
接下來
Anthropic 說,將透過法律途徑挑戰「供應鏈風險」的指定。這場仗還沒結束,而且無論結果如何,它的意義都已經確立。
靜默妥協是一種選擇,私下周旋是另一種。Anthropic 選擇了公開說清楚:自己做了什麼決定、為什麼、這個決定的法律邊界在哪裡。
在 AI 能力快速擴張、政府與企業之間的邊界不斷被測試的時代,這樣的公開紀錄,本身就是一件有價值的事。
我不知道 Anthropic 最終會贏得這場法律戰。但我知道,他們在談判桌上做的那個選擇,是對的。