回到頂部

🧩 什麼是 Token?理解 AI 的「思考單位」

AI 聊天有字數限制?為什麼 AI 會忘記前面的對話?讀完這篇,你就會理解 Token、上下文窗口,和為什麼 AI 服務要收費。

你有沒有遇過這種情況?

  • 跟 AI 聊了很久,它突然「忘記」前面說過的事
  • AI 回答到一半突然停了,要你按「繼續」
  • 使用 AI API 時看到「Token 用量」的收費

這些都跟 Token 有關。


Token 是什麼?

Token 是 AI 處理語言的最小單位。 你可以把它想像成 AI 的「文字積木」。

但 Token ≠ 字。一個中文字不一定等於一個 Token。

Token 怎麼計算?

語言規則範例
英文約 1 個字 = 0.75 Token”Hello world” ≈ 2 Tokens
中文約 1 個字 = 1.5-2 Token「你好世界」 ≈ 6-8 Tokens
程式碼依符號而定print("hello") ≈ 5 Tokens

💡 為什麼中文比英文貴? AI 的訓練資料以英文為主,英文的「字典」更有效率。中文的字元組合更多,需要更多 Token 來表達同樣的意思。這也是為什麼有些人建議用英文寫 Prompt 可以節省 Token(但 2026 年的模型中文已經很好了,不需要刻意這樣做)。


上下文窗口是什麼?

上下文窗口(Context Window) 就是 AI 一次能「記住」的 Token 數量上限。

想像 AI 的腦袋是一張桌子。桌子有固定大小。你們的整段對話(你的問題 + AI 的回答)都必須放在這張桌子上。桌子放滿了,最早的東西就會被推掉。

各模型的上下文窗口

模型上下文窗口換算約幾個中文字
GPT-4o128K Token≈ 64,000 字
Claude 3.5 Sonnet200K Token≈ 100,000 字
Gemini 2.5 Pro1M Token≈ 500,000 字
DeepSeek V3128K Token≈ 64,000 字

💡 所以⋯

  • 128K ≈ 一本中篇小說的長度
  • 200K ≈ 兩本書
  • 1M ≈ 一整套哈利波特

這跟我有什麼關係?

1. AI 為什麼會「忘記」?

聊太久 → 對話超過上下文窗口 → AI 丟棄最早的對話 → 它「忘記」你一開始說了什麼。

解決方法: 開新對話,把重要的背景資訊重新說一次。

2. 為什麼 AI 回答到一半會停?

AI 的「輸出上限」通常是 4K-8K Token。超過就會自動停止。

解決方法: 按「繼續」或打「請繼續」。

3. 為什麼 API 用量要收費?

每個 Token 都需要 AI 的計算資源(GPU)。Token 用越多 = 計算越多 = 收費越高。

模型輸入 Token 費用輸出 Token 費用
GPT-4o$2.5 / 百萬 Token$10 / 百萬 Token
Claude Sonnet$3 / 百萬 Token$15 / 百萬 Token
DeepSeek V3$0.27 / 百萬 Token$1.10 / 百萬 Token

💡 日常對話一次大約用 500-2000 Token,換算下來不到 0.1 元台幣。所以一般用戶不需要擔心費用——這主要影響開發者和企業用戶。


如何節省 Token?

如果你在用 API 或想讓免費額度用更久:

  1. 問題要精準 — 少寫廢話,直接說重點
  2. 指定長度 — 「用 100 字回答」比讓 AI 自由發揮省 Token
  3. 開新對話 — 不要在同一個對話裡處理不相關的問題
  4. 用摘要 — 長文先讓 AI 做摘要,再拿摘要繼續討論

常見問題

我是一般使用者,需要在意 Token 嗎?
基本上不用。如果你用的是 ChatGPT、Claude 的網頁版或 App,Token 的計算是自動的。你只需要知道「聊太久可能需要開新對話」就好。
Token 數等於字數嗎?
不等於。英文大約 1 字 = 0.75 Token,中文大約 1 字 = 1.5-2 Token。所以同樣的 128K 上下文窗口,能放的中文字比英文字少。
上下文窗口越大越好嗎?
理論上是,但窗口越大,每次對話的計算量(和費用)也越高。而且 AI 在超長文中可能會「注意力分散」,反而忽略細節。所以不是越大越好,而是「剛好夠用」最好。

📚 延伸閱讀