Dies ist eine maschinelle Übersetzung des englischen Originaldokuments. Im Falle von Widersprüchen zwischen dieser Übersetzung und der englischen Originalversion ist die englische Version maßgeblich. Englische Originalversion lesen


Wie viele Daten speichert ChatGPT über Sie? Ein technisches Audit

2026-04-02 · Caiioo Team

Wenn Sie ChatGPT bei der Arbeit nutzen, hat Ihr Arbeitgeber wahrscheinlich Fragen. Wenn Sie der Arbeitgeber sind, sollten Sie diese definitiv haben.

Dies ist ein technisches Audit darüber, was OpenAI sammelt, wie lange sie es aufbewahren und was das für Teams in regulierten Branchen bedeutet. Wir werden uns auch ansehen, wie eine Bring Your Own Key (BYOK)-Architektur die Gleichung grundlegend verändert.

Was ChatGPT speichert: Das Gesamtbild

OpenAIs eigene Dokumentation im Hilfe-Center besagt, dass Chats „in Ihrem Konto gespeichert werden, bis Sie diese manuell löschen“. Wenn Sie einen Chat löschen, wird er „sofort aus Ihrem Konto entfernt und innerhalb von 30 Tagen für die dauerhafte Löschung aus den Systemen von OpenAI vorgemerkt“ – es sei denn, er wurde bereits anonymisiert oder OpenAI muss ihn aufgrund von Sicherheitsaspekten oder rechtlichen Verpflichtungen aufbewahren.

Doch Konversationen sind nur ein Teil der Geschichte. OpenAIs Datenschutzrichtlinie beschreibt eine umfassende automatische Datenerfassung:

  • Protokolldaten – IP-Adresse, Browsertyp und -einstellungen, Datum und Uhrzeit der Anfragen sowie die Art Ihrer Interaktion mit den Diensten
  • Nutzungsdaten – Arten von Inhalten, die Sie ansehen oder mit denen Sie interagieren, genutzte Funktionen, durchgeführte Aktionen und übermitteltes Feedback
  • Geräteinformationen – Gerätename, Betriebssystem, Gerätekennungen und Browsertyp
  • Kontoinformationen – Name, Kontaktdaten, Zahlungsinformationen und Transaktionsverlauf

Diese Metadaten erstellen ein detailliertes Verhaltensprofil für jeden Nutzer. Selbst wenn Sie niemals sensible Informationen in einem Prompt teilen, verraten allein Ihre Nutzungsmuster signifikante Details über Ihre Arbeit.

Der Gerichtsbeschluss, der alles veränderte

Im Mai 2025 verpflichtete ein bundesgerichtlicher Beschluss (Aktenzeichen 1:23-cv-11195, S.D.N.Y.) der Richterin Ona T. Wang im Urheberrechtsstreit New York Times v. OpenAI das Unternehmen OpenAI dazu, „alle Ausgabeprotokolldaten, die andernfalls gelöscht würden, aufzubewahren und zu trennen“ – und zwar auf unbestimmte Zeit. OpenAIs Antrag auf Überprüfung wurde am 16. Mai 2025 abgelehnt.

Was das in der Praxis bedeutet: Selbst wenn Sie Ihre Chats gelöscht haben, könnte OpenAI gesetzlich verpflichtet sein, diese aufzubewahren. Das in der Datenschutzrichtlinie beschriebene 30-Tage-Löschfenster wird durch das gerichtliche Mandat außer Kraft gesetzt. Im Januar 2026 bestätigte Bezirksrichter Sidney Stein die Anordnung und verlangte von OpenAI die Herausgabe einer Stichprobe von 20 Millionen anonymisierten Nutzerprotokollen – Prompts und Ausgaben – als Beweismittel im Offenlegungsverfahren.

Ihre Konversationen könnten zukünftige Modelle trainieren

Standardmäßig werden Konversationen in Tarifen für Privatnutzer für das Modelltraining verwendet. OpenAIs eigene Dokumentation im Hilfe-Center besagt: „Wenn Sie unsere Dienste für Einzelpersonen wie ChatGPT, Codex und Sora nutzen, können wir Ihre Inhalte verwenden, um unsere Modelle zu trainieren.“ Sie können dem über das Datenschutzportal oder über Einstellungen > Datenkontrolle widersprechen – aber wie OpenAI anmerkt, werden „sobald Sie widersprechen, neue Konversationen nicht mehr zum Trainieren unserer Modelle verwendet“. Alle bereits übermittelten Daten verbleiben in der Trainings-Pipeline.

Der Widerspruch ändert zudem nichts daran, wie lange Ihre Daten gespeichert werden. Er ändert nur, ob sie zur Verbesserung der Modelle verwendet werden.

Enterprise vs. Einzelnutzer: Ein Zwei-Klassen-System

OpenAI betreibt ein klares Zwei-Klassen-Datenschutzmodell:

Einzelnutzer (Free/Plus/Pro) Enterprise/Edu
Datenaufbewahrung Unbefristet (gerichtlich angeordnet) Admin-gesteuert
Trainingsnutzung Standardmäßig Ja (Opt-out möglich) Kein Standard-Training
Vom Gerichtsbeschluss befreit? Nein Ja
Admin-Kontrollen Keine Vollständige Aufbewahrungsrichtlinien
Löschzeitraum 30 Tage (wenn zulässig) 30 Tage, vom Admin konfigurierbar

Für Einzelnutzer gibt es keine Garantie, dass Ihre Daten tatsächlich gelöscht werden. Für Enterprise-Kunden kontrollieren die Workspace-Administratoren die Aufbewahrung, und Daten werden standardmäßig nicht für das Training verwendet.

Das Problem für kleine und mittlere Teams: Enterprise-Pläne beginnen bei erheblichen Mindestmengen. Eine 10-köpfige Beratungsfirma hat keinen Zugriff auf Datenschutz-Kontrollen der Enterprise-Klasse.

DSGVO-Konformität: Eine offene Frage

Die Praxis der unbefristeten Speicherung bei ChatGPT wirft ernsthafte Fragen zur DSGVO-Konformität auf, insbesondere hinsichtlich der Grundsätze der Datenminimierung und Speicherbegrenzung. Im März 2023 erließ die italienische Datenschutzbehörde (Garante per la Protezione dei Dati Personali) eine Dringlichkeitsanordnung, die ChatGPT vorübergehend verbot. Als Gründe wurden Verstöße gegen die DSGVO-Artikel 5, 6, 8, 13 und 25 angeführt – einschließlich des Fehlens einer Rechtsgrundlage für die Datenerhebung, fehlender Datenschutzhinweise für Nutzer und fehlender Altersverifizierung. Das Verbot wurde im April 2023 aufgehoben, nachdem OpenAI Änderungen implementiert hatte, aber das allgemeine regulatorische Bild bleibt ungeklärt.

Für Teams, die Kundendaten in regulierten Branchen verarbeiten – Recht, Gesundheitswesen, Finanzdienstleistungen –, bedeutet die Nutzung von ChatGPT, OpenAI als Auftragsverarbeiter zu akzeptieren. Dies löst Verpflichtungen gemäß DSGVO-Artikel 28 aus: Sie benötigen einen Auftragsverarbeitungsvertrag (AVV), müssen Verarbeitungstätigkeiten dokumentieren und sicherstellen, dass der Verarbeiter Ihre Sicherheitsanforderungen erfüllt.

Die versteckten Kosten: Compliance-Aufwand

Wenn Ihr Team ChatGPT nutzt, wird OpenAI zu einem Auftragsverarbeiter in Ihrer Compliance-Kette. Das bedeutet:

  1. Ein Auftragsverarbeitungsvertrag (AVV) ist erforderlich – dieser definiert, wie OpenAI personenbezogene Daten in Ihrem Auftrag verarbeitet, und legt Sicherheitsmaßnahmen, Grenzen für Unterauftragsverarbeiter sowie Meldepflichten bei Verstößen fest.
  2. Pflichten gemäß DSGVO Artikel 28 werden aktiv – Verarbeiter dürfen Daten nur nach Ihren Anweisungen verarbeiten, müssen Vertraulichkeit gewährleisten, Sicherheitsmaßnahmen implementieren, Verstöße melden und Audits zulassen.
  3. Ihre Sicherheitsprüfung muss OpenAI einschließen – jede Risikobewertung von Anbietern, jede SOC 2-Audit-Frage und jeder Sicherheitsfragebogen von Kunden hat nun eine zusätzliche Abhängigkeit.

Für eine Anwaltskanzlei oder Arztpraxis mit 20 Personen kann dieser Compliance-Aufwand teurer sein als das Abonnement selbst.

Was die BYOK-Architektur ändert

Bring Your Own Key (BYOK) ist ein Architekturmuster, bei dem das KI-Tool Ihre Daten niemals berührt. Stattdessen:

  1. Sie stellen Ihren eigenen API-Key des KI-Anbieters bereit (OpenAI, Anthropic, Google, etc.)
  2. Anfragen werden direkt von Ihrem Gerät zum Anbieter geleitet – das Tool fungiert nie als Vermittler
  3. Das Tool speichert nichts – keine Konversationen, keine Metadaten, keine Verhaltensprofile
  4. Kein AVV mit dem Tool-Anbieter erforderlich – da dieser kein Auftragsverarbeiter ist

Der Unterschied im Datenfluss ist fundamental:

ChatGPT (Cloud-basiert) BYOK-Architektur
Datenpfad Sie > OpenAI-Server > Modell > OpenAI > Sie Sie > Anbieter-API direkt > Sie
Vermittler OpenAI verarbeitet alle Anfragen Keiner – direkte API-Aufrufe
Dateneinsicht Plattform protokolliert und sieht alle Anfragen Anbieter sieht nur den API-Aufruf
Speicherung Auf OpenAI-Servern, unbefristet Nur auf dem lokalen Gerät
Tool-Anbieter als Verarbeiter? Ja Nein

Mit BYOK besteht Ihre Compliance-Beziehung nur zu dem von Ihnen gewählten KI-Anbieter zu Bedingungen, die Sie direkt aushandeln. Das Tool selbst ist für Ihre Compliance-Kette unsichtbar.

Was das für Ihr Team bedeutet

Eine Umfrage aus dem Jahr 2026 unter 2.600 Datenschutz- und Sicherheitsexperten ergab, dass 64 % besorgt sind, versehentlich sensible Daten über generative KI-Tools zu teilen – dennoch gibt etwa die Hälfte zu, trotzdem persönliche oder nicht öffentliche Daten einzugeben. Die Lücke zwischen Besorgnis und Verhalten ist der Ort, an dem das Risiko lebt.

Wenn Sie für die KI-Governance in Ihrer Organisation verantwortlich sind, sollten Sie sich folgende Fragen stellen:

  1. Ist Ihr KI-Tool ein Auftragsverarbeiter? Wenn ja, benötigen Sie einen AVV, eine Compliance-Dokumentation und eine laufende Risikobewertung des Anbieters.
  2. Wo befinden sich die Konversationsdaten? Cloud-basiert bedeutet auf den Servern des Anbieters. BYOK mit Local-First-Speicherung bedeutet auf Ihren Geräten.
  3. Können Sie die Löschung garantieren? Angesichts der gerichtlich angeordneten Aufbewahrung bei ChatGPT lautet die Antwort für Privatnutzer-Tarife derzeit Nein.
  4. Hat Ihr Team einheitliche Werkzeuge? Einzelabonnements bei 20 Personen bedeuten 20 separate Compliance-Beziehungen.
  5. Wie hoch sind die Gesamtkosten? Berücksichtigen Sie nicht nur die Abogebühren, sondern auch den Compliance-Aufwand, AVV-Verhandlungen und die Zeit für Risikobewertungen.

Das Fazit

ChatGPT ist ein leistungsstarkes Werkzeug. Es ist jedoch auch ein Datenverarbeiter, der Ihre Konversationen unbefristet speichert, sie standardmäßig für das Training nutzt und unter einer gerichtlichen Anordnung arbeitet, die seine eigenen Löschrichtlinien außer Kraft setzt.

Für Einzelpersonen mögen diese Kompromisse akzeptabel sein. Für Teams, die mit vertraulichen Kundeninformationen, Patientendaten, Finanzunterlagen oder Wettbewerbsanalysen arbeiten, stellen sie ein echtes Risiko dar.

Die BYOK-Architektur eliminiert den Tool-Anbieter vollständig aus der Compliance-Gleichung. Ihre Daten berühren niemals einen Vermittler. Kein DPA erforderlich. Keine Verpflichtungen nach DSGVO-Artikel 28 gegenüber dem Tool-Anbieter. Keine unbefristete Speicherung der Konversationen Ihres Teams auf den Servern eines Drittanbieters.

Die Wahl liegt nicht zwischen KI und keiner KI. Sie liegt zwischen KI mit Governance und KI ohne.


Caiioo nutzt eine BYOK-Architektur mit Local-First-Speicherung. Ihre Konversationen berühren niemals unsere Server. Erfahren Sie mehr über unsere Datenschutz-Architektur oder starten Sie GRATIS.