本文件為英文原版的機器翻譯。若翻譯版本與英文原版之間存在任何歧義,概以英文原版為準。 閱讀英文原版
ChatGPT 儲存了多少關於您的數據?技術審計報告
2026-04-02 · Caiioo Team
如果您在工作中使用 ChatGPT,您的雇主可能會有疑問。如果您「就是」雇主,您絕對應該有所疑慮。
這是一份針對 OpenAI 收集內容、保留時間以及這對受監管行業團隊意味著什麼的技術審計。我們還將探討「自備金鑰」(BYOK) 架構如何徹底改變這一局面。
ChatGPT 儲存了什麼:完整全貌
OpenAI 官方的 說明中心文件 指出,對話會「儲存在您的帳戶中,直到您手動刪除為止」。當您刪除對話時,它會「立即從您的帳戶中移除,並安排在 30 天內從 OpenAI 系統中永久刪除」——除非該資料已被去識別化,或者 OpenAI 因安全或法律義務必須保留該資料。
但對話內容僅是故事的一部分。OpenAI 的隱私權政策 描述了廣泛的自動數據收集:
- 日誌數據 —— IP 地址、瀏覽器類型與設定、請求日期與時間,以及您如何與服務互動
- 使用數據 —— 您查看或參與的內容類型、使用的功能、採取的行動以及提交的意見回饋
- 裝置資訊 —— 裝置名稱、作業系統、裝置識別碼與瀏覽器類型
- 帳戶資訊 —— 姓名、聯絡詳情、付款資訊與交易紀錄
這些元數據為每位使用者建立了詳細的行為檔案。即使您從未在提示詞中分享敏感資訊,單憑您的使用模式就能揭示關於您工作的重大資訊。
改變一切的法院命令
2025 年 5 月,在 紐約時報訴 OpenAI 版權訴訟中,紐約南區聯邦地區法院 (S.D.N.Y.) 的治安法官 Ona T. Wang 發布了一項 聯邦法院命令 (案號 1:23-cv-11195),要求 OpenAI 「無限期保留並隔離所有原本會被刪除的輸出日誌數據」。OpenAI 的 重新考慮動議於 2025 年 5 月 16 日被駁回。
這在實務上的意義是:即使您刪除了對話,OpenAI 仍可能受法律強制要求保留這些內容。其隱私權政策中描述的 30 天刪除窗口已被法院指令取代。2026 年 1 月,地區法官 Sidney Stein 維持了該命令,要求 OpenAI 提供 2000 萬條去識別化的使用者日誌樣本(包含提示詞與輸出)作為證據開示。
您的對話可能會訓練未來的模型
預設情況下,個人方案的對話會被用於模型訓練。OpenAI 自己的 說明中心文件 指出:「當您使用我們為個人提供的服務(如 ChatGPT、Codex 和 Sora)時,我們可能會使用您的內容來訓練我們的模型。」您可以透過 隱私入口網站 或透過 設定 > 數據控制 選擇退出 —— 但正如 OpenAI 所註記的,「一旦您選擇退出,新的 對話將不會被用於訓練我們的模型。」任何已經提交的數據仍會保留在訓練流程中。
選擇退出也不會改變您的數據儲存時長。它僅改變數據是否被用於改進模型。
企業版 vs. 個人版:雙軌制系統
OpenAI 運作著明確的雙軌隱私模型:
| 個人 (Free/Plus/Pro) | 企業/教育版 | |
|---|---|---|
| 數據保留 | 不定期 (法院命令) | 管理員控制 |
| 訓練用途 | 預設開啟 (可退出) | 預設不訓練 |
| 法院命令豁免? | 否 | 是 |
| 管理員控制 | 無 | 完整的保留政策 |
| 刪除時程 | 30 天 (在允許的情況下) | 30 天,管理員可配置 |
對於個人使用者,無法保證您的數據確實被刪除。對於企業客戶,工作區管理員控制保留政策,且數據預設不用於訓練。
中小型團隊面臨的問題是:企業方案的起步門檻很高。一家 10 人的顧問公司無法獲得企業級的隱私控制權。
GDPR 合規性:一個懸而未決的問題
ChatGPT 的無限期保留做法引發了關於 GDPR 合規性的嚴重質疑,特別是圍繞數據最小化和儲存限制原則。2023 年 3 月,義大利數據保護局 (Garante per la Protezione dei Dati Personali) 發布了一項緊急命令 暫時禁用 ChatGPT,理由是違反了 GDPR 第 5、6、8、13 和 25 條 —— 包括缺乏收集數據的法律依據、未向使用者提供隱私通知以及缺乏年齡驗證。該禁令在 OpenAI 實施更改後於 2023 年 4 月解除,但更廣泛的監管前景仍不明朗。
對於在受監管行業(法律、醫療、金融服務)處理客戶數據的團隊來說,使用 ChatGPT 意味著接受 OpenAI 作為 數據處理者。這會觸發 GDPR 第 28 條的義務:您需要一份數據處理協議 (DPA),您需要記錄處理活動,並且您需要確保處理者符合您的安全要求。
隱藏成本:合規開銷
當您的團隊使用 ChatGPT 時,OpenAI 成為您合規鏈中的數據處理者。這意味著:
- 需要數據處理協議 (DPA) —— 定義 OpenAI 如何代表您處理個人數據,指定安全措施、子處理限制和違規通知義務。
- GDPR 第 28 條義務啟動 —— 處理者必須僅根據您的指示處理數據,確保機密性,實施安全措施,通知數據外洩並允許審計。
- 您的安全審查必須包含 OpenAI —— 每一份供應商風險評估、每一項 SOC 2 審計問題、每一份客戶安全問卷現在都有了一個額外的依賴項。
對於一家 20 人的律師事務所或醫療診所來說,這種合規開銷可能比訂閱費用本身更昂貴。
BYOK 架構改變了什麼
自備金鑰 (BYOK) 是一種架構模式,在這種模式下,AI 工具永遠不會接觸您的數據。相反:
- 您提供自己的 API 金鑰,該金鑰來自 AI 供應商 (OpenAI, Anthropic, Google 等)
- 查詢直接路由,從您的裝置傳送到供應商 —— 該工具從不作為中間人
- 工具不儲存任何內容 —— 沒有對話、沒有元數據、沒有行為檔案
- 無需與工具供應商簽署 DPA —— 因為它不是數據處理者
數據流的差異是根本性的:
| ChatGPT (雲端託管) | BYOK 架構 | |
|---|---|---|
| 數據路徑 | 您 > OpenAI 伺服器 > 模型 > OpenAI > 您 | 您 > 直接傳送至供應商 API > 您 |
| 中間人 | OpenAI 處理所有查詢 | 無 —— 直接 API 呼叫 |
| 數據可見性 | 平台記錄並查看所有查詢 | 供應商僅看到 API 呼叫 |
| 儲存 | 在 OpenAI 伺服器上,不定期 | 僅限本地裝置 |
| 工具供應商作為處理者? | 是 | 否 |
使用 BYOK,您的合規關係僅與您選擇的 AI 供應商建立,條款由您直接協商。工具本身在您的合規鏈中是不可見的。
這對您的團隊意味著什麼
一項針對 2,600 名隱私和安全專業人員的 2026 年調查 發現,64% 的人擔心透過生成式 AI 工具無意中分享敏感數據 —— 然而大約一半的人承認還是輸入了個人或非公開數據。擔憂與行為之間的差距正是風險所在。
如果您負責組織內的 AI 治理,以下是需要詢問的問題:
- 您的 AI 工具是數據處理者嗎? 如果是,您需要 DPA、合規文件和持續的供應商風險評估。
- 對話數據儲存在哪裡? 雲端託管意味著供應商的伺服器。具有本地優先儲存功能的 BYOK 則意味著您的裝置。
- 您能保證刪除嗎? 鑑於 ChatGPT 的法院命令保留要求,目前個人方案的答案是否定的。
- 您的團隊是否有統一的工具? 20 個人的個人訂閱意味著 20 個獨立的合規關係。
- 總成本是多少? 不僅包括訂閱費,還包括合規開銷、DPA 談判和供應商風險評估時間。
總結
ChatGPT 是一個強大的工具。它同時也是一個數據處理器,會無限期保留您的對話,預設將其用於訓練,並在法院命令下運作,這可能會覆蓋其自身的刪除政策。
對於個人而言,這些權衡可能是可以接受的。但對於處理客戶機密資訊、患者數據、財務記錄或競爭情報的團隊來說,這代表了真實的風險。
BYOK 架構將工具供應商完全從合規等式中剔除。您的數據絕不會接觸中間人。不需要 DPA。與工具供應商之間沒有 GDPR 第 28 條義務。第三方伺服器上不會無限期保留您團隊的對話。
選擇並非在於「要不要使用 AI」,而是在於「使用有治理的 AI」還是「沒有治理的 AI」。
Caiioo 使用 BYOK 架構與本機優先儲存。您的對話絕不會接觸我們的伺服器。進一步了解我們的隱私架構 或 免費開始使用。