Ceci est une traduction automatique du document original en anglais. En cas de divergence entre cette traduction et la version originale anglaise, la version anglaise fera foi. Consulter la version originale en anglais


Quelle quantité de données ChatGPT stocke-t-il sur vous ? Un audit technique

2026-04-02 · Caiioo Team

Si vous utilisez ChatGPT au travail, votre employeur a probablement des questions. Si vous êtes l'employeur, vous devriez certainement en avoir.

Ceci est un audit technique de ce qu'OpenAI collecte, de la durée de conservation et de ce que cela signifie pour les équipes dans les secteurs réglementés. Nous examinerons également comment l'architecture Bring Your Own Key (BYOK) change totalement la donne.

Ce que ChatGPT stocke : le portrait complet

La propre documentation du centre d'aide d'OpenAI stipule que les discussions sont « enregistrées sur votre compte jusqu'à ce que vous les supprimiez manuellement ». Lorsque vous supprimez une discussion, elle est « supprimée de votre compte immédiatement et programmée pour une suppression permanente des systèmes d'OpenAI dans les 30 jours » -- à moins qu'elle n'ait déjà été dépersonnalisée, ou qu'OpenAI doive la conserver pour des obligations de sécurité ou légales.

Mais les conversations ne sont qu'une partie de l'histoire. La politique de confidentialité d'OpenAI décrit une collecte de données automatique étendue :

  • Données de journal -- adresse IP, type et paramètres du navigateur, date et heure des requêtes, et la manière dont vous interagissez avec les services
  • Données d'utilisation -- types de contenu que vous consultez ou avec lesquels vous interagissez, fonctionnalités que vous utilisez, actions que vous entreprenez et commentaires que vous soumettez
  • Informations sur l'appareil -- nom de l'appareil, système d'exploitation, identifiants de l'appareil et type de navigateur
  • Informations sur le compte -- nom, coordonnées, informations de paiement et historique des transactions

Ces métadonnées créent un profil comportemental détaillé pour chaque utilisateur. Même si vous ne partagez jamais d'informations sensibles dans un prompt, vos habitudes d'utilisation révèlent à elles seules des informations significatives sur votre travail.

L'ordonnance du tribunal qui a tout changé

En mai 2025, une ordonnance d'un tribunal fédéral (Affaire n° 1:23-cv-11195, S.D.N.Y.) de la juge d'instruction Ona T. Wang dans le litige sur le droit d'auteur New York Times v. OpenAI a exigé qu'OpenAI « conserve et sépare toutes les données de journal de sortie qui seraient autrement supprimées » -- indéfiniment. La motion de reconsidération d'OpenAI a été rejetée le 16 mai 2025.

Ce que cela signifie en pratique : même si vous avez supprimé vos discussions, OpenAI peut être légalement tenu de les conserver. Le délai de suppression de 30 jours décrit dans leur politique de confidentialité est annulé par le mandat du tribunal. En janvier 2026, le juge de district Sidney Stein a confirmé l'ordonnance, exigeant qu'OpenAI produise un échantillon de 20 millions de journaux d'utilisateurs dépersonnalisés -- prompts et sorties -- comme preuve de divulgation.

Vos conversations peuvent entraîner de futurs modèles

Par défaut, les conversations sur les forfaits grand public sont utilisées pour l'entraînement des modèles. La propre documentation du centre d'aide d'OpenAI indique : « Lorsque vous utilisez nos services pour les particuliers tels que ChatGPT, Codex et Sora, nous pouvons utiliser votre contenu pour entraîner nos modèles. » Vous pouvez vous désengager via le portail de confidentialité ou via Paramètres > Contrôles des données -- mais comme le note OpenAI, « une fois que vous vous désengagez, les nouvelles conversations ne seront pas utilisées pour entraîner nos modèles. » Toutes les données déjà soumises restent dans le pipeline d'entraînement.

Le désengagement ne change pas non plus la durée de conservation de vos données. Il modifie seulement le fait qu'elles soient utilisées ou non pour améliorer les modèles.

Enterprise vs Individuel : Un système à deux vitesses

OpenAI opère selon un modèle de confidentialité clair à deux niveaux :

Individuel (Free/Plus/Pro) Enterprise/Edu
Rétention des données Indéfinie (ordonnance judiciaire) Contrôlée par l'admin
Utilisation pour l'entraînement Oui par défaut (désinscription possible) Pas d'entraînement par défaut
Exempté de l'ordonnance ? Non Oui
Contrôles admin Aucun Politiques de rétention complètes
Délai de suppression 30 jours (si autorisé) 30 jours, configurable par l'admin

Pour les utilisateurs individuels, il n'y a aucun moyen de garantir que vos données sont réellement supprimées. Pour les clients Enterprise, les administrateurs de l'espace de travail contrôlent la rétention, et les données ne sont pas utilisées pour l'entraînement par défaut.

Le problème pour les petites et moyennes équipes : les forfaits Enterprise commencent avec des minimums importants. Une société de conseil de 10 personnes ne peut pas accéder aux contrôles de confidentialité de niveau Enterprise.

Conformité RGPD : une question ouverte

Les pratiques de conservation indéfinie de ChatGPT soulèvent de sérieuses questions sur la conformité au RGPD, en particulier autour des principes de minimisation des données et de limitation de la conservation. En mars 2023, l'autorité italienne de protection des données (Garante per la Protezione dei Dati Personali) a émis un ordre d'urgence interdisant temporairement ChatGPT, citant des violations des articles 5, 6, 8, 13 et 25 du RGPD -- notamment l'absence de base légale pour la collecte de données, l'absence d'avis de confidentialité pour les utilisateurs et l'absence de vérification de l'âge. L'interdiction a été levée en avril 2023 après qu'OpenAI a mis en œuvre des changements, mais le paysage réglementaire global reste incertain.

Pour les équipes manipulant des données clients dans des secteurs réglementés -- juridique, santé, services financiers -- utiliser ChatGPT signifie accepter OpenAI comme un sous-traitant de données. Cela déclenche les obligations de l'article 28 du RGPD : vous avez besoin d'un accord de traitement des données (DPA), vous devez documenter les activités de traitement et vous devez vous assurer que le sous-traitant répond à vos exigences de sécurité.

Le coût caché : La charge de conformité

Lorsque votre équipe utilise ChatGPT, OpenAI devient un sous-traitant de données dans votre chaîne de conformité. Cela signifie :

  1. Un Accord de Traitement des Données (DPA) est requis -- définissant comment OpenAI gère les données personnelles pour votre compte, spécifiant les mesures de sécurité, les limites de sous-traitance ultérieure et les devoirs de notification en cas de violation.
  2. Les obligations de l'Article 28 du RGPD s'activent -- les sous-traitants ne doivent traiter les données que selon vos instructions, garantir la confidentialité, mettre en œuvre des mesures de sécurité, notifier les violations et permettre les audits.
  3. Votre examen de sécurité doit inclure OpenAI -- chaque évaluation des risques fournisseurs, chaque question d'audit SOC 2, chaque questionnaire de sécurité client a désormais une dépendance supplémentaire.

Pour un cabinet d'avocats ou un établissement de santé de 20 personnes, cette charge de conformité peut être plus coûteuse que l'abonnement lui-même.

Ce que l'architecture BYOK change

Le Bring Your Own Key (BYOK) est un modèle architectural où l'outil d'IA ne touche jamais vos données. À la place :

  1. Vous fournissez votre propre clé API du fournisseur d'IA (OpenAI, Anthropic, Google, etc.)
  2. Les requêtes sont routées directement de votre appareil vers le fournisseur -- l'outil n'est jamais un intermédiaire
  3. L'outil ne stocke rien -- pas de conversations, pas de métadonnées, pas de profils comportementaux
  4. Aucun DPA n'est requis avec le fournisseur de l'outil -- car il n'est pas un sous-traitant de données

La différence de flux de données est fondamentale :

ChatGPT (Hébergé sur le Cloud) Architecture BYOK
Chemin des données Vous > Serveurs OpenAI > Modèle > OpenAI > Vous Vous > API du fournisseur directement > Vous
Intermédiaire OpenAI gère toutes les requêtes Aucun -- appels API directs
Visibilité des données La plateforme logue et voit tout Le fournisseur voit l'appel API uniquement
Stockage Sur les serveurs d'OpenAI, indéfiniment Appareil local uniquement
Éditeur de l'outil comme sous-traitant ? Oui Non

Avec le BYOK, votre relation de conformité s'établit uniquement avec le fournisseur d'IA que vous choisissez, selon des termes que vous négociez directement. L'outil lui-même est invisible pour votre chaîne de conformité.

Ce que cela signifie pour votre équipe

Une enquête de 2026 auprès de 2 600 professionnels de la confidentialité et de la sécurité a révélé que 64 % s'inquiètent du partage involontaire de données sensibles via des outils d'IA générative -- pourtant, environ la moitié admettent saisir des données personnelles ou non publiques malgré tout. L'écart entre l'inquiétude et le comportement est là où réside le risque.

Si vous êtes responsable de la gouvernance de l'IA dans votre organisation, voici les questions à poser :

  1. Votre outil d'IA est-il un sous-traitant de données ? Si oui, vous avez besoin d'un DPA, d'une documentation de conformité et d'une évaluation continue des risques fournisseurs.
  2. Où résident les données de conversation ? L'hébergement cloud signifie les serveurs du fournisseur. Le BYOK avec stockage local signifie vos appareils.
  3. Pouvez-vous garantir la suppression ? Avec la rétention ordonnée par le tribunal pour ChatGPT, la réponse est actuellement non pour les forfaits grand public.
  4. Votre équipe dispose-t-elle d'outils cohérents ? Des abonnements individuels pour 20 personnes signifient 20 relations de conformité distinctes.
  5. Quel est le coût total ? Incluez non seulement les frais d'abonnement, mais aussi la charge de conformité, la négociation du DPA et le temps d'évaluation des risques fournisseurs.

L'essentiel

ChatGPT est un outil puissant. C'est aussi un processeur de données qui conserve vos conversations indéfiniment, les utilise pour l'entraînement par défaut, et opère sous une ordonnance judiciaire qui l'emporte sur ses propres politiques de suppression.

Pour les particuliers, ces compromis peuvent être acceptables. Pour les équipes manipulant des informations confidentielles de clients, des données de patients, des dossiers financiers ou de l'intelligence économique, ils représentent un risque réel.

L'architecture BYOK élimine entièrement le fournisseur de l'outil de l'équation de conformité. Vos données ne touchent jamais un intermédiaire. Aucun DPA requis. Aucune obligation relative à l'article 28 du RGPD avec le fournisseur de l'outil. Aucune conservation indéfinie des conversations de votre équipe sur les serveurs d'un tiers.

Le choix n'est pas entre l'IA et l'absence d'IA. C'est entre une IA avec gouvernance et une IA sans.


Caiioo utilise une architecture BYOK avec un stockage local prioritaire. Vos conversations ne touchent jamais nos serveurs. En savoir plus sur notre architecture de confidentialité ou commencer GRATUITEMENT.