你有沒有遇過這種情況?
- 跟 AI 聊了很久,它突然「忘記」前面說過的事
- AI 回答到一半突然停了,要你按「繼續」
- 使用 AI API 時看到「Token 用量」的收費
這些都跟 Token 有關。
Token 是什麼?
Token 是 AI 處理語言的最小單位。 你可以把它想像成 AI 的「文字積木」。
但 Token ≠ 字。一個中文字不一定等於一個 Token。
Token 怎麼計算?
| 語言 | 規則 | 範例 |
|---|---|---|
| 英文 | 約 1 個字 = 0.75 Token | ”Hello world” ≈ 2 Tokens |
| 中文 | 約 1 個字 = 1.5-2 Token | 「你好世界」 ≈ 6-8 Tokens |
| 程式碼 | 依符號而定 | print("hello") ≈ 5 Tokens |
💡 為什麼中文比英文貴? AI 的訓練資料以英文為主,英文的「字典」更有效率。中文的字元組合更多,需要更多 Token 來表達同樣的意思。這也是為什麼有些人建議用英文寫 Prompt 可以節省 Token(但 2026 年的模型中文已經很好了,不需要刻意這樣做)。
上下文窗口是什麼?
上下文窗口(Context Window) 就是 AI 一次能「記住」的 Token 數量上限。
想像 AI 的腦袋是一張桌子。桌子有固定大小。你們的整段對話(你的問題 + AI 的回答)都必須放在這張桌子上。桌子放滿了,最早的東西就會被推掉。
各模型的上下文窗口
| 模型 | 上下文窗口 | 換算約幾個中文字 |
|---|---|---|
| GPT-4o | 128K Token | ≈ 64,000 字 |
| Claude 3.5 Sonnet | 200K Token | ≈ 100,000 字 |
| Gemini 2.5 Pro | 1M Token | ≈ 500,000 字 |
| DeepSeek V3 | 128K Token | ≈ 64,000 字 |
💡 所以⋯
- 128K ≈ 一本中篇小說的長度
- 200K ≈ 兩本書
- 1M ≈ 一整套哈利波特
這跟我有什麼關係?
1. AI 為什麼會「忘記」?
聊太久 → 對話超過上下文窗口 → AI 丟棄最早的對話 → 它「忘記」你一開始說了什麼。
解決方法: 開新對話,把重要的背景資訊重新說一次。
2. 為什麼 AI 回答到一半會停?
AI 的「輸出上限」通常是 4K-8K Token。超過就會自動停止。
解決方法: 按「繼續」或打「請繼續」。
3. 為什麼 API 用量要收費?
每個 Token 都需要 AI 的計算資源(GPU)。Token 用越多 = 計算越多 = 收費越高。
| 模型 | 輸入 Token 費用 | 輸出 Token 費用 |
|---|---|---|
| GPT-4o | $2.5 / 百萬 Token | $10 / 百萬 Token |
| Claude Sonnet | $3 / 百萬 Token | $15 / 百萬 Token |
| DeepSeek V3 | $0.27 / 百萬 Token | $1.10 / 百萬 Token |
💡 日常對話一次大約用 500-2000 Token,換算下來不到 0.1 元台幣。所以一般用戶不需要擔心費用——這主要影響開發者和企業用戶。
如何節省 Token?
如果你在用 API 或想讓免費額度用更久:
- 問題要精準 — 少寫廢話,直接說重點
- 指定長度 — 「用 100 字回答」比讓 AI 自由發揮省 Token
- 開新對話 — 不要在同一個對話裡處理不相關的問題
- 用摘要 — 長文先讓 AI 做摘要,再拿摘要繼續討論
常見問題
我是一般使用者,需要在意 Token 嗎?
基本上不用。如果你用的是 ChatGPT、Claude 的網頁版或 App,Token 的計算是自動的。你只需要知道「聊太久可能需要開新對話」就好。
Token 數等於字數嗎?
不等於。英文大約 1 字 = 0.75 Token,中文大約 1 字 = 1.5-2 Token。所以同樣的 128K 上下文窗口,能放的中文字比英文字少。
上下文窗口越大越好嗎?
理論上是,但窗口越大,每次對話的計算量(和費用)也越高。而且 AI 在超長文中可能會「注意力分散」,反而忽略細節。所以不是越大越好,而是「剛好夠用」最好。