不牽手的合照:德里 AI 峰會把競爭寫在鏡頭裡

不牽手的合照:德里 AI 峰會把競爭寫在鏡頭裡
Ludovic Marin/AFP/Getty Images

新德里的舞台向來擅長把宏大理想濃縮成一張照片。2 月 19 日,印度總理納倫德拉・莫迪在「India AI Impact Summit 2026」最忙碌的一天,安排了十四位政商領袖一字排開,手牽手高舉,像是把「合作」兩字直接掛在畫面上。鏡頭也確實捕捉到多數人配合:從站位居中的莫迪,到一旁的企業領袖,合照像一條被拉直的政治宣言。唯獨 OpenAI 執行長山姆・奧特曼與 Anthropic 執行長達里奧・阿莫迪,站在彼此旁邊卻沒有接起那一段手。兩人抬起手臂,卻在最該「連上」的瞬間,讓空氣留在兩掌之間。在社群時代,這種空隙比握手更有解讀空間。它很快被剪成短片、截成定格,成為峰會外溢的「第二議程」。合照原本要替印度的 AI 野心背書,卻意外讓全球 AI 產業的緊張關係獲得一個直觀符號:競爭從白皮書走出來,變成肢體語言。

兩家公司的裂縫:從同一間辦公室到兩個陣營

奧特曼與阿莫迪之間的尷尬,並非即興。阿莫迪曾在 OpenAI 工作,之後與幾位前同事在 2021 年創立 Anthropic,帶著對「安全」與「治理」更強烈的主張,離開原本的航道。到了 2026 年,這段往事早已不只是創業故事的序章,而是兩家公司文化與策略的分水嶺:一邊更貼近產品化與平台化速度,另一邊更用力地把「邊界」寫進品牌。近期的火藥味也曾以更直接的方式浮出水面。2 月初,Anthropic 的超級盃廣告影射 ChatGPT 可能導入廣告,引來 OpenAI 高層在社群平台反擊,奧特曼甚至以用戶規模暗諷對手「問題形狀不同」,並批評對方把產品做成昂貴的菁英消費。那一輪交鋒,把原本屬於企業策略的辯論,推到大眾眼前:到底是用戶規模優先,還是把商業模式的誘惑鎖在門外。因此,德里的那個空隙很難被解釋成純粹的「沒聽懂指令」。奧特曼事後確實對媒體表示自己在台上「有點困惑」,不確定該做什麼,甚至提到莫迪把他的手抬起來時,他仍搞不清楚流程。這番話提供了一種「偶發」的讀法,卻也無法抹去畫面本身的象徵性:在全球最昂貴的算力競賽裡,大家都懂得如何把手放在該放的位置。

印度的野心:把算力、資本與敘事綁成同一條線

對印度而言,這場峰會的主題並不隱晦:把自己推進下一輪 AI 版圖的中心。投資承諾被不斷端上檯面。路透報導指出,峰會期間累計出現超過 2,000 億美元的 AI 投資承諾,其中包括信實工業(Reliance Industries)提出的 1,100 億美元計畫,以及塔塔集團與 OpenAI 的合作。這些數字像大型建設的里程碑,先在口頭上立起來,再逼迫供應鏈、電力與土地在現實中追上。信實工業董事長穆克什・安巴尼把承諾說成一條長線:以年為單位,推動千兆瓦級資料中心、邊緣網路與整合到 Jio 生態系的 AI 服務。另一家媒體則引述他們已在古吉拉特的賈姆納加爾(Jamnagar)動工,並預期 2026 年下半年會有超過 120MW 容量上線。若說合照象徵「握手」,那麼資料中心則是更務實的結盟方式:以電力、冷卻、土地與晶片,把未來鎖定在本土。OpenAI 在德里選擇用合作回應市場:與塔塔集團的資料中心業務結盟,首期規模被描述為 100MW,並保留擴至 1GW 的想像;相關報導形容其採用液冷與高密度設計,並與主要雲端區域整合,目標是支撐更重的 AI 工作負載。這不只是「進入印度」,更像是在印度建立一條可以長期吞吐算力的管線。

治理的語言:從「AI 法規」到「兒童安全」

峰會的另一條主線,是治理。莫迪在開幕談話中強調兒童安全議題,法國總統馬克宏也在同一舞台上把焦點帶向「數位濫用」與未成年保護,並為歐盟的 AI 規範辯護。外媒報導提到,馬克宏引用聊天機器人生成涉及兒童的性化圖像案例,作為管制必要性的證詞,並提出對兒少社群媒體使用的更嚴格構想。這些話語把 AI 從產業政策拉回社會底層:技術不只塑造效率,也會改寫傷害的成本。同一時間,反對聲音也在場外回響。美國方面的批評,常以「法規拖慢創新」為論述核心,與歐盟「先立界線再擴張」的思路互相拉扯。德里峰會因此成為一個交會點:一邊在招商,一邊在辯論誰有權定義安全、透明與責任。

光鮮的舞台背後:缺席、混亂與尷尬的細節

峰會本身並非全然順風。比起奧特曼與阿莫迪的空隙,更傷形象的,是一連串與「秩序」有關的瑣碎事故。比爾・蓋茲臨時取消主題演講,引發外界對他因與艾普斯坦相關爭議而退場的猜測;基金會則表示他退出是為了讓焦點回到峰會議題。輝達執行長黃仁勳也未出席,路透先前報導輝達以「不可預見因素」說明行程變動。當重量級名字接連缺席,任何一場想被定義為「全球中心」的峰會,都會被迫面對冷靜的比較:誰來了,誰沒來,誰在用行程投票。更棘手的是現場執行。路透報導提到交通混亂、展區突然不對外開放,引發參展企業不滿;還有一所大學被指拿中國製商用機器狗充當自家成果,遭要求撤出攤位,輿論譁然。這些插曲看似枝節,卻會削弱峰會最仰賴的東西:可信度。當招商口號需要靠「我們做得到」來支撐,任何一個被揭穿的道具,都會讓觀眾更敏感地審視其餘承諾。

合照之外:AI 產業的「冷戰禮儀」

回到那張照片。莫迪需要的是一個可以被轉載的瞬間,一個把印度定位為 AI 交會點的圖像證據。奧特曼與阿莫迪提供的,卻是另一種證據:在資本、算力、模型能力與治理論述彼此競速的年代,產業領袖即使被安排站在一起,也未必願意讓自己看起來「站在一起」。這種拒絕很安靜,卻精準。它不需要發表聲明,不需要投書,更不需要在會後釋出長篇訪談。鏡頭會替它完成敘事:兩家公司的競爭不只存在於產品路線圖,也存在於公開場合的禮儀選擇。德里的峰會想用握手講團結,最後被記住的,反而是那段沒有接上的手。

Read more

有些生意,我寧願不做

有些生意,我寧願不做

有一種談判,不管最後結果如何,你都知道自己必須走進去。 Anthropic 大概就是帶著這種心情,坐上了與美國國防部的談判桌。雙方商談的是 Claude 的政府使用授權,讓這家公司最核心的 AI 系統進入美國軍事體系。這類合約,金額龐大,關係長遠,在 AI 產業的商業邏輯裡幾乎是必爭之地。 然後 Anthropic 說了不。 兩條線,不是一時衝動 說不的理由,非常具體。Anthropic 要求在合約中排除兩種用途:用 Claude 對美國公民進行大規模監控,以及讓 Claude 在無人類參與的情況下驅動全自主致命武器。 我第一次看到這兩條例外,覺得它們說的是非常不同的事。一個是公民自由的問題,一個是軍事技術的問題。但細想,它們共享同一個底層結構:把本來需要人去做判斷、去承擔責任的事,交給機器去執行。 大規模監控真正危險的地方,是它把「誰被監控、為什麼」這個問題,從個別判斷化成了系統性的自動流程。人的參與被抹去,但後果依然落在人身上。

By Edwin Wong
護欄的幻覺

護欄的幻覺

一個有組織的操作者,試圖用 ChatGPT 協助策劃一場針對外國官員的影響力行動。ChatGPT 拒絕了。某個地方的安全儀表板,也許亮起了一個綠燈。 然後,操作者轉向了 DeepSeek 和 Qwen。行動繼續推進。幾個月後的內部紀錄顯示,行動已按計劃啟動。 那個綠燈,還亮著嗎? 這件事讓我想到一個很基本的問題:護欄的功能到底是什麼? 從技術設計的角度,護欄的目的是攔截有害請求。那一次,它確實攔截了。但如果一個壞行為者在被拒絕後,換一個工具就能繼續,那個攔截的意義究竟是什麼?它讓事情麻煩了五分鐘,也許一個小時。但對一個有數百名全職員工、橫跨三百多個境外社群平台、年度預算以數十萬美元計算的組織來說,這種量級的麻煩接近於零。 護欄的邏輯,建立在一個假設上:使用者沒有替代方案,或者切換替代方案的成本很高。對一般濫用者來說,這個假設或許成立。但面對有本地部署能力、隨時能換工具的國家機器,它從來就不成立。 我覺得 AI 安全的公共討論,長期活在一個錯誤的框架裡。 我們討論模型護欄、紅隊測試、對齊研究,彷彿那是這場對抗的主要戰場。

By Edwin Wong
偷學的指控,從來不是關於偷學

偷學的指控,從來不是關於偷學

我一直對科技公司的道德聲明有一種職業性的警惕。那些聲明未必是謊言。只是道德語言在商業利益與競爭壓力的包圍下,往往會發生某種扭曲。當一家公司以義憤填膺的語氣指控競爭者「偷學」,我的第一個反應,通常是先想知道這家公司自己的手有多乾淨。 什麼叫做「偷學」 AI 訓練的基本邏輯很簡單:你用大量資料灌進模型,模型從中學會模式,然後輸出能力。這個過程裡,「資料」這個詞承載了所有的模糊性。版權作品算不算「資料」?創作者的原創文章、記者的深度報導、作家幾十年的作品,在訓練集裡只是一組 token,還是一種應該被授權使用的資產?這個問題,AI 業界至今沒有給出讓人滿意的答案。主要是因為,如果認真回答,代價太高。「蒸餾」的邏輯與此平行。你用更強大模型的輸出灌進弱模型,弱模型從中學會更強大模型的推理方式,跳過了從零開始訓練的巨大成本。在技術層面,這與用版權書籍訓練語言模型的邏輯,結構上幾乎是同一件事。差別在於:誰做的,對象是誰。 道德高地是一個會移動的位置 我想到那個總在法庭劇裡出現的橋段:律師在台上義正嚴辭地指控對方,而辯護律師緩緩翻開一份舊文件,讓指控者自己過去的話語成為迴力鏢。這次的情節大

By Edwin Wong
演算法的終章:與 Dario Amodei 探討指數增長的盡頭

演算法的終章:與 Dario Amodei 探討指數增長的盡頭

在矽谷喧囂的流量泡沫外,Anthropic 執行長 Dario Amodei 正冷靜地注視著那條改變人類文明軌跡的指數曲線。在他看來,公眾尚未意識到我們正處於這段指數增長的尾聲。這並非預示著進步的停滯,而是一場更深層次、更具破壞性的轉型即將到來:我們正從「智慧的積累」轉向「能力的實踐」。 大算力團塊:被驗證的預言與技術轉型 三年前,當 Amodei 談論擴展定律(Scaling Laws)時,這仍像是一場大膽的科學假設。如今,這已成為業界的共識。Amodei 回顧了他在 2017 年提出的「大算力團塊」(The Big Blob of Compute)假設,認為模型的能力主要取決於算力總量、數據質量、目標函數以及數值穩定性,而非精巧的算法結構。從預訓練到強化學習的轉向過去三年的核心更新在於,預訓練(Pre-training)的指數增長雖然持續,但強化學習(RL)的擴展定律已然成型。Amodei

By Edwin Wong