演算法的終章:與 Dario Amodei 探討指數增長的盡頭

演算法的終章:與 Dario Amodei 探討指數增長的盡頭

在矽谷喧囂的流量泡沫外,Anthropic 執行長 Dario Amodei 正冷靜地注視著那條改變人類文明軌跡的指數曲線。在他看來,公眾尚未意識到我們正處於這段指數增長的尾聲。這並非預示著進步的停滯,而是一場更深層次、更具破壞性的轉型即將到來:我們正從「智慧的積累」轉向「能力的實踐」。

大算力團塊:被驗證的預言與技術轉型

三年前,當 Amodei 談論擴展定律(Scaling Laws)時,這仍像是一場大膽的科學假設。如今,這已成為業界的共識。Amodei 回顧了他在 2017 年提出的「大算力團塊」(The Big Blob of Compute)假設,認為模型的能力主要取決於算力總量、數據質量、目標函數以及數值穩定性,而非精巧的算法結構。從預訓練到強化學習的轉向過去三年的核心更新在於,預訓練(Pre-training)的指數增長雖然持續,但強化學習(RL)的擴展定律已然成型。Amodei 指出,模型正在從「博學的高中生」演變為「初出茅廬的博士」,特別是在代碼編寫等可驗證任務上,模型展現出了超越人類專家的潛力。這種轉變意味著,AI 不再僅僅是模仿互聯網上的文本,而是在特定環境中通過嘗試與錯誤來習得真正的技能。

數據中心裡的「天才之國」

Amodei 提出了一個極具敘事性的願景:在不久的將來,一個數據中心將容納相當於「一整個天才之國」的智慧。二零二六的臨界點關於 AGI 的到來,Amodei 給出了一個極其大膽的時間表。他有 90% 的把握認為,在 2035 年之前,我們將實現足以自動化大部分智力工作的系統。而他的直覺告訴他,這更有可能發生在 2026 年或 2027 年。這種「天才之國」不僅能編寫代碼,還能操作電腦螢幕、處理複雜的跨部門協作,甚至像資深員工一樣在職位上自我演進。對於懷疑論者認為 AI 缺乏「在職學習」能力的觀點,Amodei 反駁道,當模型擁有百萬級甚至更長的上下文窗口時,它能在瞬間閱讀整個代碼庫或公司的歷史紀錄,這種效率是人類以年為單位的學習進度無法比擬的。

擴散的阻力:當技術指數撞上現實牆壁

儘管技術能力以指數級前進,但經濟擴散(Economic Diffusion)的速度卻是線性的且充滿摩擦。Amodei 厭惡那種「AI 將瞬間改變一切」的廉價樂觀主義,他認為現實世界的複雜性:法律、合規、採購流程以及人類組織的慣性將成為增長的制動器。兆元級的營收豪賭Anthropic 的營收正在經歷每年十倍的增長,從零到一億,再到十億,預計 2025 年將達到百億級別。然而,面對未來兩三年可能出現的 AGI,企業面臨著毀滅性的財務風險:如果過早投入數千億美元建設數據中心,而市場需求因擴散延遲而未能跟上,公司將面臨破產。這也是為什麼 Amodei 強調「負責任的規模化」,這不僅是技術安全問題,更是商業生存的理性決策。

權力的重構:民主、專制與 AI 的憲法

在 Amodei 的哲學中,AI 不僅是生產力工具,更是地緣政治的終極槓桿。他預見到一個「攻擊佔優」(Offense-dominant)的世界,在這種情況下,一個強大的 AI 模型可能在生物武器開發或網絡攻擊中產生致命影響。專制政體的道德過時Amodei 在對談中提出了一個激進的觀點:在強大 AI 出現後的時代,獨裁可能成為一種「道德上過時」且「功能上不可行」的政體。他希望通過技術手段,確保民主國家在 AGI 競賽中握有主導權,從而在制訂未來世界秩序的談判桌上擁有更多籌碼。他倡導一種「憲法 AI」(Constitutional AI)的治理模式,透過賦予模型一系列核心原則,而非瑣碎的禁止條目,使其行為更加一致且透明。他甚至構想了一個「憲法群島」,讓不同的公司、甚至公眾參與 AI 價值觀的塑造與競爭。

內部的連貫性:從「願景探求」到真實領導

當 Anthropic 成長為一個 2500 人的組織時,Amodei 投入了大量時間來維護企業文化。他每月兩次進行名為「Dario Vision Quest」(DVQ)的內部演講,直接、透明且拒絕企業官話地與員工溝通公司的戰略與困境。在 Amodei 看來,在歷史的轉折點上,最危險的是「決策的慣性」。他意識到,未來最關鍵的決定,可能就發生在某個平凡的午後,某人走進辦公室,而他只有兩分鐘的時間來決定 A 還是 B。這場與 Dwarkesh Patel 的深度對談,不僅揭示了技術的邊界,更展現了一位在指數風暴中心保持清醒的領航者,如何在算力、權力與人性之間,尋找那個留白的負空間。

影片連結:http://www.youtube.com/watch?v=n1E9IZfvGMA

Read more

有些生意,我寧願不做

有些生意,我寧願不做

有一種談判,不管最後結果如何,你都知道自己必須走進去。 Anthropic 大概就是帶著這種心情,坐上了與美國國防部的談判桌。雙方商談的是 Claude 的政府使用授權,讓這家公司最核心的 AI 系統進入美國軍事體系。這類合約,金額龐大,關係長遠,在 AI 產業的商業邏輯裡幾乎是必爭之地。 然後 Anthropic 說了不。 兩條線,不是一時衝動 說不的理由,非常具體。Anthropic 要求在合約中排除兩種用途:用 Claude 對美國公民進行大規模監控,以及讓 Claude 在無人類參與的情況下驅動全自主致命武器。 我第一次看到這兩條例外,覺得它們說的是非常不同的事。一個是公民自由的問題,一個是軍事技術的問題。但細想,它們共享同一個底層結構:把本來需要人去做判斷、去承擔責任的事,交給機器去執行。 大規模監控真正危險的地方,是它把「誰被監控、為什麼」這個問題,從個別判斷化成了系統性的自動流程。人的參與被抹去,但後果依然落在人身上。

By Edwin Wong
護欄的幻覺

護欄的幻覺

一個有組織的操作者,試圖用 ChatGPT 協助策劃一場針對外國官員的影響力行動。ChatGPT 拒絕了。某個地方的安全儀表板,也許亮起了一個綠燈。 然後,操作者轉向了 DeepSeek 和 Qwen。行動繼續推進。幾個月後的內部紀錄顯示,行動已按計劃啟動。 那個綠燈,還亮著嗎? 這件事讓我想到一個很基本的問題:護欄的功能到底是什麼? 從技術設計的角度,護欄的目的是攔截有害請求。那一次,它確實攔截了。但如果一個壞行為者在被拒絕後,換一個工具就能繼續,那個攔截的意義究竟是什麼?它讓事情麻煩了五分鐘,也許一個小時。但對一個有數百名全職員工、橫跨三百多個境外社群平台、年度預算以數十萬美元計算的組織來說,這種量級的麻煩接近於零。 護欄的邏輯,建立在一個假設上:使用者沒有替代方案,或者切換替代方案的成本很高。對一般濫用者來說,這個假設或許成立。但面對有本地部署能力、隨時能換工具的國家機器,它從來就不成立。 我覺得 AI 安全的公共討論,長期活在一個錯誤的框架裡。 我們討論模型護欄、紅隊測試、對齊研究,彷彿那是這場對抗的主要戰場。

By Edwin Wong
偷學的指控,從來不是關於偷學

偷學的指控,從來不是關於偷學

我一直對科技公司的道德聲明有一種職業性的警惕。那些聲明未必是謊言。只是道德語言在商業利益與競爭壓力的包圍下,往往會發生某種扭曲。當一家公司以義憤填膺的語氣指控競爭者「偷學」,我的第一個反應,通常是先想知道這家公司自己的手有多乾淨。 什麼叫做「偷學」 AI 訓練的基本邏輯很簡單:你用大量資料灌進模型,模型從中學會模式,然後輸出能力。這個過程裡,「資料」這個詞承載了所有的模糊性。版權作品算不算「資料」?創作者的原創文章、記者的深度報導、作家幾十年的作品,在訓練集裡只是一組 token,還是一種應該被授權使用的資產?這個問題,AI 業界至今沒有給出讓人滿意的答案。主要是因為,如果認真回答,代價太高。「蒸餾」的邏輯與此平行。你用更強大模型的輸出灌進弱模型,弱模型從中學會更強大模型的推理方式,跳過了從零開始訓練的巨大成本。在技術層面,這與用版權書籍訓練語言模型的邏輯,結構上幾乎是同一件事。差別在於:誰做的,對象是誰。 道德高地是一個會移動的位置 我想到那個總在法庭劇裡出現的橋段:律師在台上義正嚴辭地指控對方,而辯護律師緩緩翻開一份舊文件,讓指控者自己過去的話語成為迴力鏢。這次的情節大

By Edwin Wong
不牽手的合照:德里 AI 峰會把競爭寫在鏡頭裡

不牽手的合照:德里 AI 峰會把競爭寫在鏡頭裡

新德里的舞台向來擅長把宏大理想濃縮成一張照片。2 月 19 日,印度總理納倫德拉・莫迪在「India AI Impact Summit 2026」最忙碌的一天,安排了十四位政商領袖一字排開,手牽手高舉,像是把「合作」兩字直接掛在畫面上。鏡頭也確實捕捉到多數人配合:從站位居中的莫迪,到一旁的企業領袖,合照像一條被拉直的政治宣言。唯獨 OpenAI 執行長山姆・奧特曼與 Anthropic 執行長達里奧・阿莫迪,站在彼此旁邊卻沒有接起那一段手。兩人抬起手臂,卻在最該「連上」的瞬間,讓空氣留在兩掌之間。在社群時代,這種空隙比握手更有解讀空間。它很快被剪成短片、截成定格,成為峰會外溢的「第二議程」。合照原本要替印度的 AI 野心背書,卻意外讓全球 AI 產業的緊張關係獲得一個直觀符號:競爭從白皮書走出來,變成肢體語言。 兩家公司的裂縫:

By Edwin Wong