為什麼台灣做不出 GPT-4 或 DeepSeek?


最近看到中國的 DeepSeek 做出了類似 GPT-4 的 AI 語言模型,不禁讓人想問:「為什麼台灣業界和學術界做不出來?」

近年來,人工智慧(AI)快速發展,中國的 DeepSeek 甚至開始挑戰 OpenAI,但台灣業界與學術界卻遲遲無法打造出類似的大型語言模型(LLM)。這篇文章將探討台灣在 AI 研發上的瓶頸,包括算力不足、數據匱乏、投資有限、人才外流及市場需求小等問題。

其實,台灣不是沒有研發技術,業界與學術界目前難以打造出類似 DeepSeek 或 OpenAI 的大型語言模型(LLM),主要受資金算力數據人才產業政策等多重因素影響。

訓練 AI 需要大量算力

台積電雖然是全球最大的晶片製造商,但台灣並沒有大型 AI 超算中心可供訓練 LLM。DeepSeek 可以使用阿里雲,OpenAI 可以用微軟 Azure,但台灣業界缺乏這種基礎設施。

缺少大量語料

中國可以用自己的網路數據(知乎、微博、百度百科),美國有開源資料,而台灣的數據量根本不夠,且政府、企業、學術界之間的數據共享機制不完善。

AI 研發成本超高

訓練一款與 GPT-4 級別接近的模型需要數億美元級別的算力和數據資源,但台灣的企業和政府不願投入數億美元訓練 LLM。即使是 DeepSeek,也依賴中國資本的巨額投資,台灣目前沒有類似的 AI 初創公司生態。

人才外流嚴重

台灣確實有 AI 相關的學術研究,但大部分人才最終都被美國科技巨頭、台灣半導體產業吸走,頂尖 AI 研究者往往選擇前往 OpenAI、Google、Meta、Amazon 等公司工作,而不是留在國內做大模型。

產業需求小

台灣本地市場主要是中小企業,預算主要投入在 半導體、製造業、電動車,對 AI 產業的支持相對較少。對 大型 AI 模型的需求不如中國、美國那麼高,台灣的 AI 主要用在晶片、影像辨識,沒有大市場來支撐像 GPT-4 這樣的大型模型。

結論:台灣做不出 LLM,短期內也不太可能

台灣難以打造像 DeepSeek 或 GPT-4 級別的大型語言模型,總結原因:

  • 訓練 LLM 需要巨額算力與基礎設施,台灣欠缺相關投資與 AI 超算中心。
  • 缺乏大規模語料數據,無法與中國、美國的 AI 訓練數據量競爭。
  • AI 產業投資不足,沒有足夠的資金支持長期研發。
  • AI 人才外流,優秀工程師與研究者大多選擇加入國際企業。
  • 市場規模小,企業 AI 需求較低,變現困難。
  • 政策支持不足,政府資源主要聚焦於半導體,而非 AI 軟體研發。

如果台灣未來想要在 大型語言模型(LLM)領域有所突破,可能需要:

  • 政府投入更多 AI 產業補助
  • 建立 AI 超算中心
  • 鼓勵企業投資 AI 研發
  • 加強台灣 AI 人才留任
  • 擴展 AI 國際合作,提升市場規模

要改變這個現狀,台灣可能需要 政府大力投資企業願意砸錢學界願意合作,才能有機會做出自己的 AI 大模型。但以目前的條件來看,短期內台灣很難挑戰 OpenAI 或 DeepSeek,甚至難以打造 GPT-3 級別的模型。