回到頂部

🔒 AI 隱私與資安實戰

用 AI 不踩雷——個資保護、企業資安、安全使用 AI 的完整指南。

你丟進 AI 的資料,去了哪裡?

每次你在 ChatGPT 輸入文字、上傳檔案,這些資料會傳送到 OpenAI 的伺服器進行處理。問題是:這些資料會被用來訓練 AI 嗎?會被保存多久?會被誰看到?

💡 核心原則 把 AI 當成一個「非常聰明但不一定可信的實習生」。你會把公司的最高機密告訴一個新來的實習生嗎?大概不會。對 AI 也該如此。


各家 AI 的隱私政策(2026 最新)

面向ChatGPTClaudeGeminiPerplexity
預設用對話訓練模型⚠️ 可關閉❌ 不會⚠️ 可關閉❌ 不會
如何關閉設定 → Data Controls預設即關活動 → 關閉預設即關
企業版隱私✅ Enterprise✅ Team/Enterprise✅ WorkspaceN/A
資料保存期30 天90 天依設定不保存
GDPR 合規

如何關閉 ChatGPT 的訓練功能

Settings → Data Controls → 「Improve the model for everyone」→ 關閉

關閉後,你的對話不會被用來訓練模型。但 OpenAI 仍可能暫時保存對話紀錄用於安全監控(30 天)。


🚫 絕對不能告訴 AI 的資訊

類型範例為什麼危險
👤 個人身分身分證號、護照號可能被用於身份盜竊
💳 金融資訊信用卡號、銀行帳密直接的財務風險
🏢 公司機密未公開財報、商業策略可能洩漏給競對
📋 客戶數據客戶名單、聯絡方式違反個資法
🔑 密碼憑證任何帳號密碼安全漏洞
⚖️ 法律文件合約細節、訴訟內容律師-客戶特權失效

企業 AI 安全使用守則

1. 制定 AI 使用政策

每家公司都應該有明確的 AI 使用規範:

  • 可以用 AI 做什麼(例:起草 Email、整理會議紀錄)
  • 不能用 AI 做什麼(例:上傳客戶個資、財務數據)
  • 哪些工具經過公司核准
  • 生成內容的審核流程

2. 使用企業版

工具企業方案安全保障
ChatGPT Enterprise不用對話訓練、SOC 2 認證管理員控制台
Claude Team不訓練、資料隔離團隊管理
Google Workspace + GeminiGoogle 級資安整合 DLP

3. 考慮本地部署

如果你的資料絕對不能離開公司,考慮用 Ollama 在本地跑 AI 模型。資料完全不經過任何雲端服務。


個人 AI 安全清單

✅ 養成好習慣

  • ✅ 關閉 ChatGPT 的模型訓練功能
  • ✅ 不輸入任何個人可識別資訊(PII)
  • ✅ 機密文件先去識別化再給 AI
  • ✅ 定期清除 AI 對話紀錄
  • ✅ 使用強密碼 + 雙因認證

❌ 避免的行為

  • ❌ 把客戶 Excel 直接上傳雲端 AI
  • ❌ 在共用電腦上登入 AI 服務不登出
  • ❌ 把帳號密碼貼給 AI「幫我測試」
  • ❌ 用 AI 生成機密文件後不檢查
  • ❌ 以為「刪除對話」就完全安全了

AI 與台灣個資法

台灣的《個人資料保護法》對 AI 使用有直接影響:

  • 蒐集限制 — 不能未經同意把個人資料丟進 AI 處理
  • 跨境傳輸 — 雲端 AI 將資料傳到國外伺服器,需符合跨境規範
  • 去識別化 — 如果資料已經去識別化(無法辨識個人),則不受個資法限制

💡 實務建議 如果你需要用 AI 處理含個資的資料(例如客戶名單),先做「去識別化」——用代號取代真名、隱藏電話號碼、移除地址等,再交給 AI 處理。

想了解更多 AI 倫理議題?看看 AI 倫理與法規。 想了解全球 AI 安全趨勢?看看 AI 安全議題


常見問題

ChatGPT 會記住我說的話嗎?

ChatGPT 有「記憶」功能(可關閉),會記住你在對話中提到的偏好和資訊。但這跟「用對話訓練模型」是兩回事。你可以在設定中管理或清除所有記憶。

公司能用免費版 AI 嗎?

技術上可以,但不建議。免費版的隱私保障較低(對話可能被用於訓練)。如果處理任何涉及客戶或公司機密的資訊,強烈建議使用企業版或本地部署(Ollama)。

AI 會不會被駭客攻擊?

有可能。已經發生過 ChatGPT 洩漏其他用戶對話紀錄的事件。這就是為什麼不要在 AI 中輸入敏感資訊。即使平台本身安全,你的帳號也可能被盜——所以一定要開雙因認證。

📚 延伸閱讀