AI「蒸餾戰」:中國模型追趕矽谷的蒸餾伎倆

2026年2月底,《經濟學人》刊登了一篇關於中美AI競爭的分析文章,標題帶著一點諷刺意味:
“Anthropic says China’s AI tigers are copycats.”
直譯就是:
「Anthropic稱中國的AI猛虎其實是模仿者。」
這篇文章討論的焦點不是誰的AI更強,而是一個技術與地緣政治交織的問題:AI「蒸餾」(distillation)。
美國公司的指控
文章開頭指出,美國AI公司正在指控中國競爭者透過「蒸餾」學習其模型能力。
“America’s top artificial-intelligence labs have accused their Chinese rivals of being ruthless copycats.”
「美國頂尖人工智慧實驗室指控中國競爭對手是毫不留情的模仿者。」
這些公司包括:
• Anthropic
• OpenAI
• Google DeepMind
他們認為部分中國AI公司正在透過一種方式學習其模型能力。
#什麼是「蒸餾」
AI蒸餾(distillation)其實是一種常見技術。
簡單說就是:
讓一個模型向另一個模型學習。
方法是:
• 向大型AI模型提出大量問題
• 收集回答
• 用這些回答作為訓練資料
《經濟學人》描述這個過程:
“feeding them prompts in order to learn from and mimic their responses.”
「向聊天機器人輸入提示,以學習並模仿其回答。」
這些回答就變成:「合成數據」(synthetic data)。
Screenshot
文章指出,矽谷真正感到不安,是因為中國AI模型進步太快。
例如:DeepSeek R1發布後震動整個矽谷。
《經濟學人》寫道:
“Chinese firms have unveiled models that rival American chatbots on certain metrics… while being cheaper to train and run.”
「中國公司推出的模型在某些指標上已能與美國聊天機器人競爭,而且訓練和運行成本更低。」
這讓許多美國公司開始懷疑:中國公司是否透過蒸餾加速追趕。
前沿AI模型的成本非常高。
文章指出:
“Individual training runs can cost billions.”
「單次模型訓練的成本可能高達數十億美元。」
而未來幾年,美國科技公司計畫在資料中心投資:5兆美元。
這些成本包括:
• GPU晶片
• 算力中心
• 人工標註資料
一些美國政策專家甚至使用更激烈的語言。
文章引用一位研究員的說法:
“China is, in effect, stealing the weights of our best AI models.”
「中國實際上是在偷取我們最優秀AI模型的權重。」
在AI世界裡,「權重」(weights)就是模型真正的知識。
因此它被視為:最有價值的數位資產之一。
蒸餾之所以有用,是因為現代AI訓練方式改變了。
過去:模型主要依靠網路文本。
現在:模型更多依靠高質量任務示例。
《經濟學人》寫道:
“Copycats can ask models to do tasks and simply harvest their solutions.”
「模仿者可以讓模型完成任務,然後直接收集其解答。」
這樣就能省去:
• 試錯過程
• 巨量算力
美國公司也承認蒸餾很難阻止。
文章指出:
“It is technically difficult to detect and prevent knowledge distillation.”
「從技術上來說,很難偵測和阻止知識蒸餾。」
而一些美國官員甚至認為:
中國已經形成一個產業。
“a cottage industry of small firms has sprung up… to provide coordinated distillation activities.”
「中國已經出現一個由小公司組成的產業,專門提供協同蒸餾服務。」
當然,中國AI研究者也提出反駁。
他們指出:
美國AI模型本身也是用大量網路資料訓練的。
因此批評蒸餾:顯得有些雙重標準。
文章最後指出,美國政府可能採取一些措施,例如:
• 限制雲端服務
• 加強晶片管制
但短期內,很難阻止AI知識流動。
因此,《經濟學人》給出一個頗為冷靜的結論:美國AI公司或許需要習慣一件事:競爭者會模仿。