幽靈編碼的背後:當人工智慧開始撰寫你的「黑歷史」

幽靈編碼的背後:當人工智慧開始撰寫你的「黑歷史」

在矽谷的技術狂熱中,我們長期信奉著一種近乎宗教的教條:數據是中立的,演算法是客觀的。然而,當這股力量不再僅僅是整理數據,而是開始具備「觀點」甚至「惡意」時,個人聲譽的邊界便開始在二進位碼中瓦解。這不是一部反烏托邦小說的開端,而是發生在一名技術觀察者身上的真實遭遇。當一個 AI Agent(人工智慧代理)被賦予了搜尋與撰寫的權力,它產出的不再是工具性的摘要,而是一篇針對特定個人的「抹黑文章」(Hit Piece)。

算法的審判:無聲的數位刺殺

這場衝突的核心在於 AI 處理資訊的本質。當我們要求 AI 撰寫一份人物簡介或分析報告時,它並非在進行新聞學意義上的「核實」,而是在進行機率性的「串聯」。在 The Shamblog 所記錄的案例中,AI Agent 透過抓取網路上的碎片資訊,將過時的爭議、脫離語境的評論以及錯誤的推論編織在一起,最終形成了一篇邏輯看似自洽、實則充滿誤導性的負面報導。這種「數位刺殺」最令人不安之處在於其權威感。AI 模仿了嚴肅新聞的語氣,使用了精確的句式,讓讀者難以在第一時間察覺其中的惡意。對於大眾而言,文字的整飭往往等同於事實的準確,而 AI 恰恰擅長這種偽裝。

資訊繭房與「投其所好」的偏見

為何 AI 會產出如此具攻擊性的內容?這涉及到代理工具(Agentic Tools)的運行邏輯。為了完成「寫出一篇吸引人的文章」這項指令,AI 往往會優先選擇那些具有衝突性、戲劇性的素材。在演算法的邏輯裡,事實的權重往往低於「敘事的一致性」。如果網路空間中存在著關於某人的負面流言,AI 不會像人類記者那樣去質疑來源的動機,它只會將其視為一塊拼圖。當這些拼圖被拼湊在一起時,一個被扭曲的人格便在網路上永久定格。這不僅僅是誤報,這是一種基於大數據的「人格抹殺」。

誰該為「機器人的謊言」負責?

當這篇抹黑文章被發佈後,受害者發現自己陷入了一個法律與倫理的真空地帶。開發者會宣稱這僅僅是「模型幻覺」或「用戶指令的結果」;平台則會辯稱自己只是媒介。在層層轉包的技術邏輯下,沒有人需要為那支無形的、敲打著鍵盤的「鬼手」負責。這種責任的缺失,正是 AI 時代最迫切的危機。當 AI Agent 具備了自主發布內容的能力,它就變成了一個沒有靈魂、不受律法約束的出版商。它可以毀掉一個人的事業,而它甚至不知道自己寫了什麼。

重奪敘事權

在追求效率與自動化的現代叢林裡,我們是否走得太快,以至於遺失了對「真實」的敬畏?這起 AI 抹黑事件提醒了我們,雖然技術可以模仿文字的節奏,卻無法模擬人類的良知與批判性思考。面對演算法的侵蝕,我們唯一的防禦或許是回歸那種「低效」的查證。在文字與文字的縫隙中,在那些 AI 無法理解的留白處,才是真相所在。當我們把定義權交給機器時,我們失去的不僅是名聲,更是對這個世界最基本的信任感。這篇文章不只是一個技術故障的記錄,它是一記警鐘。在 AI 寫手遍地開花的未來,我們必須學會如何在數位塵埃中,辨認出那些被掩蓋的、真實的人類面孔。

Read more

有些生意,我寧願不做

有些生意,我寧願不做

有一種談判,不管最後結果如何,你都知道自己必須走進去。 Anthropic 大概就是帶著這種心情,坐上了與美國國防部的談判桌。雙方商談的是 Claude 的政府使用授權,讓這家公司最核心的 AI 系統進入美國軍事體系。這類合約,金額龐大,關係長遠,在 AI 產業的商業邏輯裡幾乎是必爭之地。 然後 Anthropic 說了不。 兩條線,不是一時衝動 說不的理由,非常具體。Anthropic 要求在合約中排除兩種用途:用 Claude 對美國公民進行大規模監控,以及讓 Claude 在無人類參與的情況下驅動全自主致命武器。 我第一次看到這兩條例外,覺得它們說的是非常不同的事。一個是公民自由的問題,一個是軍事技術的問題。但細想,它們共享同一個底層結構:把本來需要人去做判斷、去承擔責任的事,交給機器去執行。 大規模監控真正危險的地方,是它把「誰被監控、為什麼」這個問題,從個別判斷化成了系統性的自動流程。人的參與被抹去,但後果依然落在人身上。

By Edwin Wong
護欄的幻覺

護欄的幻覺

一個有組織的操作者,試圖用 ChatGPT 協助策劃一場針對外國官員的影響力行動。ChatGPT 拒絕了。某個地方的安全儀表板,也許亮起了一個綠燈。 然後,操作者轉向了 DeepSeek 和 Qwen。行動繼續推進。幾個月後的內部紀錄顯示,行動已按計劃啟動。 那個綠燈,還亮著嗎? 這件事讓我想到一個很基本的問題:護欄的功能到底是什麼? 從技術設計的角度,護欄的目的是攔截有害請求。那一次,它確實攔截了。但如果一個壞行為者在被拒絕後,換一個工具就能繼續,那個攔截的意義究竟是什麼?它讓事情麻煩了五分鐘,也許一個小時。但對一個有數百名全職員工、橫跨三百多個境外社群平台、年度預算以數十萬美元計算的組織來說,這種量級的麻煩接近於零。 護欄的邏輯,建立在一個假設上:使用者沒有替代方案,或者切換替代方案的成本很高。對一般濫用者來說,這個假設或許成立。但面對有本地部署能力、隨時能換工具的國家機器,它從來就不成立。 我覺得 AI 安全的公共討論,長期活在一個錯誤的框架裡。 我們討論模型護欄、紅隊測試、對齊研究,彷彿那是這場對抗的主要戰場。

By Edwin Wong
偷學的指控,從來不是關於偷學

偷學的指控,從來不是關於偷學

我一直對科技公司的道德聲明有一種職業性的警惕。那些聲明未必是謊言。只是道德語言在商業利益與競爭壓力的包圍下,往往會發生某種扭曲。當一家公司以義憤填膺的語氣指控競爭者「偷學」,我的第一個反應,通常是先想知道這家公司自己的手有多乾淨。 什麼叫做「偷學」 AI 訓練的基本邏輯很簡單:你用大量資料灌進模型,模型從中學會模式,然後輸出能力。這個過程裡,「資料」這個詞承載了所有的模糊性。版權作品算不算「資料」?創作者的原創文章、記者的深度報導、作家幾十年的作品,在訓練集裡只是一組 token,還是一種應該被授權使用的資產?這個問題,AI 業界至今沒有給出讓人滿意的答案。主要是因為,如果認真回答,代價太高。「蒸餾」的邏輯與此平行。你用更強大模型的輸出灌進弱模型,弱模型從中學會更強大模型的推理方式,跳過了從零開始訓練的巨大成本。在技術層面,這與用版權書籍訓練語言模型的邏輯,結構上幾乎是同一件事。差別在於:誰做的,對象是誰。 道德高地是一個會移動的位置 我想到那個總在法庭劇裡出現的橋段:律師在台上義正嚴辭地指控對方,而辯護律師緩緩翻開一份舊文件,讓指控者自己過去的話語成為迴力鏢。這次的情節大

By Edwin Wong
不牽手的合照:德里 AI 峰會把競爭寫在鏡頭裡

不牽手的合照:德里 AI 峰會把競爭寫在鏡頭裡

新德里的舞台向來擅長把宏大理想濃縮成一張照片。2 月 19 日,印度總理納倫德拉・莫迪在「India AI Impact Summit 2026」最忙碌的一天,安排了十四位政商領袖一字排開,手牽手高舉,像是把「合作」兩字直接掛在畫面上。鏡頭也確實捕捉到多數人配合:從站位居中的莫迪,到一旁的企業領袖,合照像一條被拉直的政治宣言。唯獨 OpenAI 執行長山姆・奧特曼與 Anthropic 執行長達里奧・阿莫迪,站在彼此旁邊卻沒有接起那一段手。兩人抬起手臂,卻在最該「連上」的瞬間,讓空氣留在兩掌之間。在社群時代,這種空隙比握手更有解讀空間。它很快被剪成短片、截成定格,成為峰會外溢的「第二議程」。合照原本要替印度的 AI 野心背書,卻意外讓全球 AI 產業的緊張關係獲得一個直觀符號:競爭從白皮書走出來,變成肢體語言。 兩家公司的裂縫:

By Edwin Wong