本文档由英文原版机器翻译而成。如果翻译版本与英文原版之间存在任何冲突,请以英文原版为准。 阅读英文原版
ChatGPT 存储了多少关于您的数据?技术审计
2026-04-02 · Caiioo Team
如果您在工作中使用 ChatGPT,您的雇主可能会有疑问。如果您就是雇主,您肯定应该有疑问。
这是一份关于 OpenAI 收集什么、保留多久以及这对受监管行业中的团队意味着什么的技术审计。我们还将研究“自带密钥”(BYOK)架构如何彻底改变这一现状。
ChatGPT 存储了什么:全景图
OpenAI 自己的 帮助中心文档 指出,聊天记录会“保存到您的账户中,直到您手动删除它们”。当您删除聊天记录时,它会“立即从您的账户中移除,并计划在 30 天内从 OpenAI 系统中永久删除” —— 除非它已经被去标识化,或者 OpenAI 出于安全或法律义务必须保留它。
但对话只是故事的一部分。OpenAI 的隐私政策 描述了广泛的自动数据收集:
- 日志数据 —— IP 地址、浏览器类型和设置、请求日期和时间,以及您如何与服务互动
- 使用数据 —— 您查看或参与的内容类型、使用的功能、采取的操作以及提交的反馈
- 设备信息 —— 设备名称、操作系统、设备标识符和浏览器类型
- 账户信息 —— 姓名、联系方式、支付信息和交易历史
这些元数据为每个用户创建了详细的行为画像。即使您从未在提示词中分享敏感信息,仅您的使用模式就能揭示有关您工作的重大信息。
改变一切的法院命令
2025 年 5 月,在 纽约时报诉 OpenAI 版权诉讼中,纽约南区联邦地区法院 (S.D.N.Y.) 的治安法官 Ona T. Wang 发布了一项 联邦法院命令 (案件编号 1:23-cv-11195),要求 OpenAI “无限期保留并隔离所有原本会被删除的输出日志数据”。OpenAI 的 重新考虑动议于 2025 年 5 月 16 日被驳回。
这在实践中的意味着:即使您删除了聊天记录,OpenAI 也可能被法律要求保留它们。其隐私政策中描述的 30 天删除窗口已被法院指令覆盖。2026 年 1 月,地区法官 Sidney Stein 维持了该命令,要求 OpenAI 提供 2000 万份去标识化的用户日志样本(包括提示词和输出)作为证据展示。
您的对话可能会训练未来的模型
默认情况下,个人方案中的对话会被用于模型训练。OpenAI 自己的 帮助中心文档 指出:“当您使用我们面向个人的服务(如 ChatGPT、Codex 和 Sora)时,我们可能会使用您的内容来训练我们的模型。”您可以通过 隐私门户 或通过 设置 > 数据控制 选择退出 —— 但正如 OpenAI 所指出的,“一旦您选择退出,新的 对话将不会被用于训练我们的模型。”任何已经提交的数据仍保留在训练流水线中。
选择退出也不会改变您的数据存储时长。它只会改变数据是否被用于改进模型。
企业版 vs 个人版:双层体系
OpenAI 运行着一个明确的双层隐私模型:
| 个人 (Free/Plus/Pro) | 企业版/教育版 | |
|---|---|---|
| 数据保留 | 无期限 (法院命令) | 管理员控制 |
| 训练用途 | 默认开启 (可选择退出) | 默认不训练 |
| 法院命令豁免? | 否 | 是 |
| 管理员控制 | 无 | 完整的保留政策 |
| 删除时间线 | 30 天 (允许时) | 30 天,管理员可配置 |
对于个人用户,无法保证您的数据被实际删除。对于企业客户,工作区管理员控制保留政策,且数据默认不用于训练。
中小型团队面临的问题是:企业版方案的起订门槛很高。一个 10 人的咨询公司无法获得企业级的隐私控制。
GDPR 合规性:一个悬而未决的问题
ChatGPT 的无限期保留做法引发了关于 GDPR 合规性的严重质疑,特别是围绕数据最小化和存储限制原则。2023 年 3 月,意大利数据保护局 (Garante per la Protezione dei Dati Personali) 发布了一项紧急命令,暂时禁用 ChatGPT,理由是违反了 GDPR 第 5、6、8、13 和 25 条 —— 包括缺乏数据收集的法律依据、未向用户提供隐私通知以及没有年龄验证。在 OpenAI 实施更改后,该禁令于 2023 年 4 月解除,但更广泛的监管前景仍不明朗。
对于在受监管行业(法律、医疗保健、金融服务)处理客户数据的团队来说,使用 ChatGPT 意味着接受 OpenAI 作为 数据处理者。这将触发 GDPR 第 28 条规定的义务:您需要一份数据处理协议 (DPA),您需要记录处理活动,并且您需要确保处理者满足您的安全要求。
隐藏成本:合规开销
当您的团队使用 ChatGPT 时,OpenAI 成为您合规链中的一个数据处理者。这意味着:
- 需要数据处理协议 (DPA) —— 定义 OpenAI 如何代表您处理个人数据,指定安全措施、子处理限制和违规通知义务。
- GDPR 第 28 条义务激活 —— 处理者必须仅根据您的指示处理数据,确保机密性,实施安全措施,通知违规行为,并允许审计。
- 您的安全审查必须包括 OpenAI —— 每一个供应商风险评估、每一个 SOC 2 审计问题、每一个客户安全调查问卷现在都有了一个额外的依赖项。
对于一个 20 人的律师事务所或医疗机构,这种合规开销可能比订阅费用本身还要昂贵。
BYOK 架构改变了什么
自带密钥 (BYOK) 是一种架构模式,在这种模式下,AI 工具永远不会接触您的数据。相反:
- 您提供自己的 API 密钥,该密钥来自 AI 供应商(OpenAI、Anthropic、Google 等)
- 查询直接从您的设备路由到供应商 —— 该工具绝不是中间人
- 该工具不存储任何内容 —— 没有对话,没有元数据,没有行为画像
- 无需与工具供应商签署 DPA —— 因为它不是数据处理者
数据流的差异是根本性的:
| ChatGPT (云端托管) | BYOK 架构 | |
|---|---|---|
| 数据路径 | 您 > OpenAI 服务器 > 模型 > OpenAI > 您 | 您 > 直接通过供应商 API > 您 |
| 中间人 | OpenAI 处理所有查询 | 无 —— 直接 API 调用 |
| 数据可见性 | 平台记录并查看所有查询 | 供应商仅看到 API 调用 |
| 存储 | 在 OpenAI 服务器上,无限期 | 仅限本地设备 |
| 工具供应商作为处理者? | 是 | 否 |
通过 BYOK,您的合规关系仅与您选择的 AI 供应商建立,条款由您直接协商。工具本身在您的合规链中是不可见的。
这对您的团队意味着什么
一项针对 2,600 名隐私和安全专业人士的 2026 年调查 发现,64% 的人担心通过生成式 AI 工具无意中分享敏感数据 —— 然而大约一半的人承认还是输入了个人或非公开数据。担忧与行为之间的差距就是风险所在。
如果您负责组织的 AI 治理,以下是需要提出的问题:
- 您的 AI 工具是数据处理者吗? 如果是,您需要 DPA、合规文档和持续的供应商风险评估。
- 对话数据存储在哪里? 云端托管意味着供应商的服务器。具有本地优先存储的 BYOK 意味着您的设备。
- 您能保证删除吗? 鉴于 ChatGPT 受法院命令要求的保留政策,目前个人方案的答案是否定的。
- 您的团队是否有统一的工具? 20 个人拥有个人订阅意味着 20 个独立的合规关系。
- 总成本是多少? 不仅包括订阅费,还包括合规开销、DPA 谈判和供应商风险评估时间。
核心结论
ChatGPT 是一个强大的工具。但它也是一个数据处理器,会无限期保留您的对话,默认将其用于训练,并在法院命令下运作,这可能会覆盖其自身的删除政策。
对于个人来说,这些权衡可能是可以接受的。但对于处理客户机密信息、患者数据、财务记录或竞争情报的团队来说,这代表了真实的风险。
BYOK 架构将工具供应商完全从合规等式中剔除。您的数据永远不会触碰中间环节。不需要 DPA。对工具供应商没有 GDPR 第 28 条义务。第三方服务器上不会无限期保留您团队的对话。
选择不在于要不要 AI,而在于有治理的 AI 与没有治理的 AI 之间的选择。
Caiioo 使用 BYOK 架构和本地优先存储。您的对话永远不会触碰我们的服务器。了解更多关于我们的隐私架构 或 免费开始使用。