Claude.ai 完整入門:從提示技巧到模型選擇

Claude.ai 完整入門:從提示技巧到模型選擇
Claude.ai 完整入門:從提示技巧到模型選擇

每次打開空白頁面,面對龐大的專案卻不知從哪下手,這種感覺並不陌生。過去,你可能靠著不斷查資料、找同事討論、反覆修稿來推進工作。現在,有一個工具可以讓這個過程快很多。

Claude 是一個 AI 協作平台,它不會幫你做決策,但能幫你拆解問題、整理資訊、生成草稿、分析數據。它的強項在於你給它的背景越多,它的回應就越貼近你真正需要的東西。這篇文章會帶你從介面導覽開始,一路走到提示技巧、模型選擇,把 Claude.ai 的核心功能都摸清楚。


認識介面:側欄是起點

進入 Claude.ai 之後,左側的側欄是最常用到的區域,值得先花一點時間熟悉它。

側欄上方有建立新對話的按鈕,以及可以快速回到過去對話記錄的入口。往下看,你會找到「Projects」這個功能。Projects 的設計概念是把相關的對話整合在一起,加上持續性的背景說明和自訂指示,適合用在長期進行的工作項目上,比如某個產品開發週期或某個研究主題。

側欄裡還有一個「Artifacts」區塊,它讓你可以把對話中產生的內容,像是小型應用、工具介面或整理好的文件,轉成可以分享的形式。如果你在對話中產出了一個實用的東西,Artifacts 就是讓它脫離單次對話、變成可複用資產的方式。


寫出好提示的三個要素

和 Claude 溝通的品質,直接決定它的回應品質。最有效的提示方式,其實就像跟一個剛加入你團隊的同事說話:自然、簡潔、有明確目標。

一個好提示通常包含三個層次:

設定背景(Setting the Stage):告訴 Claude 這個任務的情境是什麼。你的角色是誰?這份文件是給誰看的?有沒有什麼前提條件它應該知道?比如「這是給一家新興獨立串流平台的投資人簡報」,這一句話就把受眾、目的和產業背景都交代清楚了。

定義任務(Defining the Task):你想要 Claude 做什麼?寫一份分析報告、整理一份清單、還是生成一段程式碼?動詞越具體,方向越清楚。

指定規則(Specifying Rules):你希望回應的風格或格式是什麼?需要引用來源嗎?要用專業報告的結構還是輕鬆的條列式?如果你有範例可以附上,就更好了。

把這三個層次都帶進提示裡,Claude 能做的事就不只是「猜你要什麼」,而是真正按照你的需求來回應。


把你的背景資料帶進對話

提示寫好之後,下一步是把相關的資料帶進對話。你可以直接在聊天視窗上傳文件,Claude 會把這些文件的內容納入它的理解範圍。

這個做法特別有用的場景包括:把公司內部的規格文件上傳,讓 Claude 根據真實的產品需求回應;把過去的研究報告丟進去,讓它幫你整理出重點;或者把長篇的會議記錄貼進對話,讓它擷取出待辦清單。

支援的格式包括 PDF、CSV、Docs 以及多種常見的文件類型。把這些資料帶進對話,等於是省掉了大量的背景說明時間,Claude 能更快進入狀況。


善用工具,讓 Claude 獲取即時資訊

Claude 本身的知識有訓練截止日期,所以如果你需要它接觸到現在的資訊,就要透過工具來擴充它的能力。

在對話輸入框旁邊,有一個搜尋與工具的選單。在這裡,你可以開啟幾個選項:

  • 網路搜尋:讓 Claude 即時查詢當前市場數據、新聞或最新文件,不再侷限於訓練資料。
  • Google Drive 連接:把你雲端硬碟裡的文件接進來,Claude 可以直接讀取,不需要你手動下載再上傳。

這些工具不是一直開著的,Claude 會根據任務判斷要不要使用,你也可以手動切換。對於需要最新資訊的任務,打開網路搜尋是個好習慣。


選對模型,任務更有效率

Claude.ai 提供多個模型,不同的模型在能力和速度之間有不同的取捨,選對了可以省不少時間和等待成本。

切換模型的方式很簡單:在對話輸入框下方,你會看到目前使用的模型名稱,點擊它就可以選擇其他版本。切換後會開啟新的對話。

目前主要有兩個常用選擇:

Claude Opus:規模最大的模型,具備混合推理能力,適合最複雜的任務,比如多步驟的財務分析、需要深度邏輯推演的研究,或是複雜程式碼的架構設計。速度相對慢,但在精度上有優勢。

Claude Sonnet:日常使用的首選,也是預設模型。它在能力和速度之間取得了不錯的平衡,對大多數任務來說已經足夠強大,回應速度也快得多。

簡單來說,先從 Sonnet 開始,如果發現任務需要更深的推理或分析,再換成 Opus。


延伸思考模式與 Research 功能

延伸思考模式(Extended Thinking):開啟這個模式後,Claude 會在給出答案之前花更多時間推演,特別適合邏輯嚴密的分析或需要多步驟推理的問題。但它會增加回應時間,一般對話或簡單問題並不需要開它。

Research 功能:這是一個更自動化的深度研究工具。你提出一個複雜的問題,Claude 會自動拆解問題、搜尋數百個來源、整合成一份有引用的完整報告,整個過程大約需要 5 到 45 分鐘。適合你需要做大量資料蒐集但不想自己一個來源一個來源讀的場合。


把對話變成習慣

單次的提問能解決眼前的問題,但 Claude 真正的價值在於持續的互動。多次對話之後,它會更熟悉你的表達方式、偏好的格式和工作的背景,未來的回應也會越來越貼合你的需求。

把 Claude 當成一個需要磨合的工作夥伴,而不是一個用完即棄的搜尋引擎。每次你把更具體的背景、更清楚的需求帶進去,它就能做得更好。提示技巧、工具選擇、模型切換,這些都是你可以調整的槓桿,找到適合你工作節奏的使用方式,比一次把所有功能都弄懂更重要。

Read more

禁令失效的一刻:AI 如何深入軍事到無法說停就停

禁令失效的一刻:AI 如何深入軍事到無法說停就停

2026 年 2 月 27 日下午,川普在 Truth Social 發出一則聲明:「我要求所有聯邦機構立即停止使用 Anthropic 技術。我們不需要它,不想要它,也不會再與他們合作。」 同一天,國防部長 Hegseth 宣告 Anthropic 為「供應鏈風險」,並要求所有國防承包商停止使用 Claude。 大約十幾個小時後,美軍中央司令部繼續使用 Claude 執行對伊朗的空襲任務。 一個行政命令,一場正在進行的戰爭 到 2026 年初,Claude 已深度嵌入五角大廈的分類軍事系統,負責處理衛星影像分析、信號情報摘要、威脅評估生成,以及打擊場景模擬。據 Defense One 的報導,將 Claude 從現有系統中完整移除,最少需要三到六個月。 「Operation Epic

By Edwin Wong
有些生意,我寧願不做

有些生意,我寧願不做

有一種談判,不管最後結果如何,你都知道自己必須走進去。 Anthropic 大概就是帶著這種心情,坐上了與美國國防部的談判桌。雙方商談的是 Claude 的政府使用授權,讓這家公司最核心的 AI 系統進入美國軍事體系。這類合約,金額龐大,關係長遠,在 AI 產業的商業邏輯裡幾乎是必爭之地。 然後 Anthropic 說了不。 兩條線,不是一時衝動 說不的理由,非常具體。Anthropic 要求在合約中排除兩種用途:用 Claude 對美國公民進行大規模監控,以及讓 Claude 在無人類參與的情況下驅動全自主致命武器。 我第一次看到這兩條例外,覺得它們說的是非常不同的事。一個是公民自由的問題,一個是軍事技術的問題。但細想,它們共享同一個底層結構:把本來需要人去做判斷、去承擔責任的事,交給機器去執行。 大規模監控真正危險的地方,是它把「誰被監控、為什麼」這個問題,從個別判斷化成了系統性的自動流程。人的參與被抹去,但後果依然落在人身上。

By Edwin Wong
護欄的幻覺

護欄的幻覺

一個有組織的操作者,試圖用 ChatGPT 協助策劃一場針對外國官員的影響力行動。ChatGPT 拒絕了。某個地方的安全儀表板,也許亮起了一個綠燈。 然後,操作者轉向了 DeepSeek 和 Qwen。行動繼續推進。幾個月後的內部紀錄顯示,行動已按計劃啟動。 那個綠燈,還亮著嗎? 這件事讓我想到一個很基本的問題:護欄的功能到底是什麼? 從技術設計的角度,護欄的目的是攔截有害請求。那一次,它確實攔截了。但如果一個壞行為者在被拒絕後,換一個工具就能繼續,那個攔截的意義究竟是什麼?它讓事情麻煩了五分鐘,也許一個小時。但對一個有數百名全職員工、橫跨三百多個境外社群平台、年度預算以數十萬美元計算的組織來說,這種量級的麻煩接近於零。 護欄的邏輯,建立在一個假設上:使用者沒有替代方案,或者切換替代方案的成本很高。對一般濫用者來說,這個假設或許成立。但面對有本地部署能力、隨時能換工具的國家機器,它從來就不成立。 我覺得 AI 安全的公共討論,長期活在一個錯誤的框架裡。 我們討論模型護欄、紅隊測試、對齊研究,彷彿那是這場對抗的主要戰場。

By Edwin Wong
偷學的指控,從來不是關於偷學

偷學的指控,從來不是關於偷學

我一直對科技公司的道德聲明有一種職業性的警惕。那些聲明未必是謊言。只是道德語言在商業利益與競爭壓力的包圍下,往往會發生某種扭曲。當一家公司以義憤填膺的語氣指控競爭者「偷學」,我的第一個反應,通常是先想知道這家公司自己的手有多乾淨。 什麼叫做「偷學」 AI 訓練的基本邏輯很簡單:你用大量資料灌進模型,模型從中學會模式,然後輸出能力。這個過程裡,「資料」這個詞承載了所有的模糊性。版權作品算不算「資料」?創作者的原創文章、記者的深度報導、作家幾十年的作品,在訓練集裡只是一組 token,還是一種應該被授權使用的資產?這個問題,AI 業界至今沒有給出讓人滿意的答案。主要是因為,如果認真回答,代價太高。「蒸餾」的邏輯與此平行。你用更強大模型的輸出灌進弱模型,弱模型從中學會更強大模型的推理方式,跳過了從零開始訓練的巨大成本。在技術層面,這與用版權書籍訓練語言模型的邏輯,結構上幾乎是同一件事。差別在於:誰做的,對象是誰。 道德高地是一個會移動的位置 我想到那個總在法庭劇裡出現的橋段:律師在台上義正嚴辭地指控對方,而辯護律師緩緩翻開一份舊文件,讓指控者自己過去的話語成為迴力鏢。這次的情節大

By Edwin Wong