この文書は元の英語版を機械翻訳したものです。翻訳版と英語版の間に相違がある場合は、英語版が優先されるものとします。 英語版の原文を読む
ChatGPTはあなたのデータをどのくらい保存しているか?技術監査レポート
2026-04-02 · Caiioo Team
職場でChatGPTを使用している場合、雇用主はおそらく疑問を抱いています。もしあなたが雇用主であれば、間違いなく疑問を持つべきです。
これは、OpenAIが何を収集し、どのくらいの期間保持するのか、そして規制対象業界のチームにとってそれが何を意味するのかについてのテクニカルオーディット(技術監査)です。また、Bring Your Own Key (BYOK) アーキテクチャがどのようにこの状況を完全に変えるのかについても見ていきます。
ChatGPTが保存するもの:その全貌
OpenAI自体のヘルプセンター文書には、チャットは「手動で削除するまでアカウントに保存される」と記載されています。チャットを削除すると、「アカウントから即座に削除され、30日以内にOpenAIのシステムから永久削除されるようスケジュールされる」ことになっています。ただし、すでに匿名化されている場合や、セキュリティまたは法的義務のためにOpenAIが保持する必要がある場合は除きます。
しかし、会話は物語の一部に過ぎません。OpenAIのプライバシーポリシーでは、広範な自動データ収集について説明されています:
- ログデータ — IPアドレス、ブラウザの種類と設定、リクエストの日時、およびサービスとのやり取りの方法
- 利用データ — 閲覧または関与したコンテンツの種類、使用した機能、実行したアクション、および送信したフィードバック
- デバイス情報 — デバイス名、OS、デバイス識別子、およびブラウザの種類
- アカウント情報 — 氏名、連絡先、支払い情報、および取引履歴
これらのメタデータは、すべてのユーザーの詳細な行動プロファイルを作成します。プロンプトで機密情報を共有しなかったとしても、利用パターンだけであなたの仕事に関する重要な情報が明らかになります。
すべてを変えた裁判所命令
2025年5月、New York Times v. OpenAI の著作権訴訟において、ニューヨーク南区連邦地方裁判所のOna T. Wang判事による連邦裁判所命令(事件番号 1:23-cv-11195)が出されました。これにより、OpenAIは「本来であれば削除されるはずのすべての出力ログデータを、無期限に保持・分離する」ことを義務付けられました。OpenAIによる再審理の申し立ては2025年5月16日に却下されました。
これが実務上意味することは、たとえあなたがチャットを削除したとしても、OpenAIは法的にそれらを保存し続ける義務がある可能性があるということです。プライバシーポリシーに記載されている30日の削除猶予期間は、裁判所の命令によって上書きされています。2026年1月には、Sidney Stein地区判事がこの命令を支持し、OpenAIに対し、証拠開示として2,000万件の匿名化されたユーザーログ(プロンプトと出力)を提出するよう命じました。
あなたの会話が将来のモデルの学習に使われる可能性
デフォルトでは、個人向けプランでの会話はモデルの学習に使用されます。OpenAIのヘルプセンター文書には、「ChatGPT、Codex、Soraなどの個人向けサービスを利用する場合、当社はお客様のコンテンツをモデルの学習に使用することがあります」と明記されています。プライバシーポータルまたは 設定 > データコントロール からオプトアウトできますが、OpenAIが指摘するように、「オプトアウトした後に作成された 新しい 会話はモデルの学習に使用されません」が、すでに送信されたデータは学習パイプラインに残ります。
また、オプトアウトしてもデータの保存期間は変わりません。変わるのは、それがモデルの改善に使用されるかどうかだけです。
Enterprise vs. 個人:二層構造のシステム
OpenAIは明確な二層のプライバシーモデルを運用しています:
| 個人 (Free/Plus/Pro) | Enterprise/Edu | |
|---|---|---|
| データ保持 | 無期限 (裁判所命令による) | 管理者が制御可能 |
| 学習への利用 | デフォルトで有効 (オプトアウト可) | デフォルトで利用なし |
| 裁判所命令の免除 | いいえ | はい |
| 管理者コントロール | なし | 完全な保持ポリシー |
| 削除タイムライン | 30日 (許可される場合) | 30日、管理者が設定可能 |
個人ユーザーの場合、データが実際に削除されることを保証する方法はありません。Enterpriseのお客様の場合、ワークスペース管理者が保持を制御し、データはデフォルトで学習に使用されません。
中小規模のチームにとっての問題:Enterpriseプランは高額な最低利用条件から始まります。10人のコンサルティング会社では、Enterprise層のプライバシーコントロールにアクセスできません。
GDPRコンプライアンス:未解決の疑問
ChatGPTの無期限のデータ保持慣行は、GDPR(EU一般データ保護規則)の遵守、特にデータの最小化と保存制限の原則について深刻な疑問を投げかけています。2023年3月、イタリアのデータ保護当局(Garante per la Protezione dei Dati Personali)は、データ収集の法的根拠の欠如、ユーザーへのプライバシー通知の欠如、年齢確認の欠如など、GDPR第5条、6条、8条、13条、25条への違反を理由に、ChatGPTを一時的に禁止する緊急命令を出しました。この禁止措置はOpenAIが改善を実施した後の2023年4月に解除されましたが、より広範な規制の状況は依然として不透明なままです。
法務、医療、金融サービスなどの規制対象業界でクライアントデータを扱うチームにとって、ChatGPTを使用することは、OpenAIを**データ処理者(Data Processor)**として受け入れることを意味します。これによりGDPR第28条の義務が発生します。つまり、データ処理合意書(DPA)の締結、処理活動の記録、および処理者がセキュリティ要件を満たしていることの確認が必要になります。
隠れたコスト:コンプライアンスのオーバーヘッド
チームがChatGPTを使用すると、OpenAIはコンプライアンスチェーンにおけるデータ処理者になります。これは以下を意味します:
- データ処理合意書 (DPA) が必要 — OpenAIがあなたに代わって個人データをどのように扱うかを定義し、セキュリティ対策、再処理の制限、および侵害通知の義務を規定します。
- GDPR第28条の義務が有効化 — 処理者はあなたの指示に従ってのみデータを処理し、機密性を確保し、セキュリティ対策を実施し、侵害を通知し、監査を許可しなければなりません。
- セキュリティレビューにOpenAIを含める必要がある — すべてのベンダーリスク評価、すべてのSOC 2監査の質問、すべてのクライアントセキュリティアンケートに、新たな依存関係が追加されます。
20人規模の法律事務所や医療機関にとって、このコンプライアンスのオーバーヘッドは、サブスクリプション費用そのものよりも高額になる可能性があります。
BYOKアーキテクチャが変えるもの
Bring Your Own Key (BYOK) は、AIツールがあなたのデータに一切触れないアーキテクチャパターンです。代わりに:
- 独自のAPIキーを提供 — AIプロバイダー (OpenAI、Anthropic、Gemini、Ollamaなど) から取得したものを使用します。
- クエリが直接ルーティングされる — デバイスからプロバイダーへ直接送信され、ツールが仲介することはありません。
- ツールは何も保存しない — 会話も、メタデータも、行動プロファイルも保存されません。
- ツールベンダーとのDPAは不要 — ツールがデータ処理者ではないためです。
データフローの違いは根本的です:
| ChatGPT (クラウドホスト型) | BYOKアーキテクチャ | |
|---|---|---|
| データパス | ユーザー > OpenAIサーバー > モデル > OpenAI > ユーザー | ユーザー > プロバイダーAPIへ直接 > ユーザー |
| 仲介者 | OpenAIがすべてのクエリを処理 | なし — 直接のAPIコール |
| データの可視性 | プラットフォームがすべてのクエリをログに記録し閲覧 | プロバイダーはAPIコールのみを閲覧 |
| 保存 | OpenAIのサーバーに無期限 | ローカルデバイスのみ |
| ツールベンダーは処理者か? | はい | いいえ |
BYOKを使用すると、コンプライアンス上の関係は、あなたが選択したAIプロバイダーとの間でのみ、直接交渉した条件に基づいて発生します。ツール自体はコンプライアンスチェーンから不可視になります。
これがあなたのチームにとって意味すること
2,600人のプライバシーおよびセキュリティ専門家を対象とした2026年の調査では、64%が生成AIツールを通じて機密データを誤って共有することを懸念している一方で、約半数が個人データや非公開データを入力していることを認めています。懸念と行動のギャップこそが、リスクの所在です。
組織のAIガバナンスを担当している場合は、以下の質問を投げかけてみてください:
- そのAIツールはデータ処理者ですか? はいの場合、DPA、コンプライアンス文書、および継続的なベンダーリスク評価が必要です。
- 会話データはどこに存在しますか? クラウドホスト型はベンダーのサーバーを意味します。ローカルファーストのストレージを備えたBYOKは、あなたのデバイスを意味します。
- 削除を保証できますか? ChatGPTの裁判所命令による保持により、個人向けプランでは現在、答えは「いいえ」です。
- チームは一貫したツールを使用していますか? 20人が個別にサブスクリプションを契約している場合、20の個別のコンプライアンス関係が存在することになります。
- 総コストはいくらですか? サブスクリプション料金だけでなく、コンプライアンスのオーバーヘッド、DPAの交渉、ベンダーリスク評価の時間も含めてください。
結論
ChatGPTは強力なツールです。同時に、会話を無期限に保持し、デフォルトで学習に使用し、自社の削除ポリシーよりも優先される裁判所命令の下で動作するデータ処理者でもあります。
個人にとっては、これらのトレードオフは許容範囲内かもしれません。しかし、クライアントの機密情報、患者データ、財務記録、または競合他社のインテリジェンスを扱うチームにとって、これらは現実的なリスクとなります。
BYOK(独自のキーの持ち込み)アーキテクチャは、コンプライアンスの方程式からツールベンダーを完全に排除します。データが仲介者に触れることはありません。DPA(データ処理補足合意)は不要です。ツールベンダーとのGDPR第28条の義務もありません。チームの会話がサードパーティのサーバーに無期限に保持されることもありません。
選択肢は「AIを使うか使わないか」ではありません。「ガバナンスのあるAI」か「ガバナンスのないAI」かです。
Caiiooは、ローカルファーストストレージを備えたBYOKアーキテクチャを採用しています。あなたの会話が私たちのサーバーに届くことはありません。プライバシーアーキテクチャの詳細はこちら、または無料で始めることができます。