你問 AI:「推薦幾篇關於 AI 教育的學術論文」 AI 回答:「Smith, J. (2024). The Impact of AI on Higher Education Pedagogy. Journal of Educational Technology, 45(3), 112-128.」
格式完美、看起來超專業——但你去查,這篇論文根本不存在。
這就是「AI 幻覺」。
AI 幻覺的定義
AI 幻覺(AI Hallucination) 是指 AI 模型生成看起來合理、格式正確、語氣自信,但實際上是錯誤、虛構或誤導的內容。
它不是 AI「故意騙你」——AI 沒有「故意」的概念。它只是在做它最擅長的事:預測下一個最可能的字。
為什麼會這樣?
AI 的本質是「文字接龍」
想像一個超級厲害的文字接龍選手。你說「今天天氣」,他會說「很好」,因為這個組合最常出現。但他不是看了窗外才說「很好」——他只是根據「統計上最可能的下一個字」在接龍。
AI 也一樣。當你問它一個問題,它不是去「查資料庫的正確答案」,而是:
- 看你的問題
- 根據訓練時讀過的大量文字
- 預測「最可能的回答應該長什麼樣子」
所以它能產出格式完美的論文引用——因為它讀過成千上萬的論文引用格式。但「格式正確」不代表「內容真實」。
幻覺的 5 種類型
1. 捏造事實 🏗️
AI 創造完全不存在的事實。
範例: 「愛因斯坦在 1920 年發表了《量子意識論》」← 這篇論文不存在
2. 張冠李戴 🔄
把不同事件、人物、數據混在一起。
範例: 把 A 公司的營收數據套在 B 公司上
3. 過度推論 📈
從有限的資訊做出過度自信的結論。
範例: 「根據趨勢分析,AI 市場在 2027 年必定達到 5000 億美元」
4. 偽造來源 📚
編造看起來很專業的參考來源、網址或論文。
範例: 給你一個完美格式的 DOI 碼和期刊引用,但連結打開是 404
5. 過時資訊 📅
用訓練資料截止日之前的舊資訊回答現在的問題。
範例: 2026 年問它某公司 CEO 是誰,它回答的是 2024 年的 CEO
哪些情況最容易幻覺?
| 容易幻覺 | 不容易幻覺 |
|---|---|
| 冷門知識、小眾領域 | 常識性知識 |
| 具體日期、數字 | 概念性解釋 |
| 即時新聞、最新事件 | 基礎科學原理 |
| 特定人物的具體言論 | 通用技能教學 |
| 學術論文引用 | 程式碼(可以直接測試) |
怎麼防範?
詳細的防範技巧請看 AI 事實查核指南。這裡列出 3 個最重要的原則:
原則 1:越重要的事越要查核
AI 說的料理食譜錯了?頂多不好吃。AI 說的醫療建議錯了?可能出大事。
原則 2:看到數字就懷疑
AI 給你的具體數字(百分比、金額、日期)有很高的幻覺機率。用搜尋引擎驗證。
原則 3:用搜尋型 AI 交叉驗證
Perplexity 等搜尋增強型 AI 的幻覺率明顯較低,因為它們基於即時搜尋結果回答,而且附上來源連結。
好消息:AI 在進步
AI 幻覺問題正在快速改善:
- RAG 技術: 讓 AI 先檢索資料再回答,大幅降低幻覺
- 搜尋增強: ChatGPT 搜尋模式、Perplexity 即時搜尋
- 自我檢查: 新模型會先「想一想」再回答,減少衝動性錯誤
- 信心指標: 未來可能標示「這個回答我有 90% 把握」
但在完全解決之前,你的判斷力就是最好的防線。這也呼應了 AI 時代最重要的三項能力:邏輯、審美、後設認知。