Questa è una traduzione automatica del documento originale in inglese. In caso di discrepanze tra la presente traduzione e la versione originale in inglese, prevarrà la versione inglese. Leggi la versione originale in inglese


Quanti dati conserva ChatGPT su di te? Un audit tecnico

2026-04-02 · Caiioo Team

Se usi ChatGPT al lavoro, il tuo datore di lavoro probabilmente ha delle domande. Se sei il datore di lavoro, dovresti averne sicuramente.

Questo è un audit tecnico su ciò che OpenAI raccoglie, per quanto tempo lo conserva e cosa significa per i team in settori regolamentati. Vedremo anche come l'architettura Bring Your Own Key (BYOK) cambi completamente l'equazione.

Cosa memorizza ChatGPT: Il quadro completo

La documentazione del centro assistenza di OpenAI afferma che le chat vengono "salvate nel tuo account finché non le elimini manualmente". Quando elimini una chat, questa viene "rimossa immediatamente dal tuo account e programmata per l'eliminazione permanente dai sistemi OpenAI entro 30 giorni" -- a meno che non sia già stata anonimizzata, o che OpenAI debba conservarla per obblighi di sicurezza o legali.

Ma le conversazioni sono solo una parte della storia. La politica sulla privacy di OpenAI descrive un'ampia raccolta automatica di dati:

  • Dati di log -- indirizzo IP, tipo e impostazioni del browser, data e ora delle richieste e modalità di interazione con i servizi
  • Dati di utilizzo -- tipi di contenuti visualizzati o con cui si interagisce, funzionalità utilizzate, azioni intraprese e feedback inviati
  • Informazioni sul dispositivo -- nome del dispositivo, sistema operativo, identificatori del dispositivo e tipo di browser
  • Informazioni sull'account -- nome, dettagli di contatto, informazioni di pagamento e cronologia delle transazioni

Questi metadati creano un profilo comportamentale dettagliato per ogni utente. Anche se non condividi mai informazioni sensibili in un prompt, i tuoi modelli di utilizzo da soli rivelano informazioni significative sul tuo lavoro.

L'ordinanza del tribunale che ha cambiato tutto

Nel maggio 2025, un'ordinanza di un tribunale federale (Caso n. 1:23-cv-11195, S.D.N.Y.) del giudice magistrato Ona T. Wang nella causa per copyright New York Times v. OpenAI ha richiesto a OpenAI di "conservare e segregare tutti i dati dei log di output che verrebbero altrimenti eliminati" -- a tempo indeterminato. L'istanza di riesame di OpenAI è stata respinta il 16 maggio 2025.

Cosa significa in pratica: anche se hai eliminato le tue chat, OpenAI potrebbe essere legalmente obbligata a conservarle. La finestra di eliminazione di 30 giorni descritta nella loro informativa sulla privacy è annullata dal mandato del tribunale. Nel gennaio 2026, il giudice distrettuale Sidney Stein ha confermato l'ordinanza, richiedendo a OpenAI di produrre un campione di 20 milioni di log utente anonimizzati -- prompt e output -- come prova documentale.

Le tue conversazioni potrebbero addestrare modelli futuri

Per impostazione predefinita, le conversazioni sui piani consumer vengono utilizzate per l'addestramento dei modelli. La documentazione del centro assistenza di OpenAI dichiara: "Quando utilizzi i nostri servizi per privati come ChatGPT, Codex e Sora, potremmo utilizzare i tuoi contenuti per addestrare i nostri modelli". Puoi disattivare questa opzione tramite il portale della privacy o attraverso Impostazioni > Controlli dati -- ma come nota OpenAI, "una volta disattivata, le nuove conversazioni non verranno utilizzate per addestrare i nostri modelli". Tutti i dati già inviati rimangono nel processo di addestramento.

La disattivazione non cambia inoltre la durata della conservazione dei dati. Cambia solo se vengono utilizzati per migliorare i modelli.

Enterprise vs. Individual: un sistema a due livelli

OpenAI opera un chiaro modello di privacy a due livelli:

Individual (Free/Plus/Pro) Enterprise/Edu
Conservazione dati Indeterminata (ordine del tribunale) Controllata dall'amministratore
Uso per addestramento Sì per default (opt-out disponibile) No per default
Esente da ordine tribunale? No
Controlli admin Nessuno Politiche di conservazione complete
Tempi di eliminazione 30 giorni (quando permesso) 30 giorni, configurabile da admin

Per gli utenti individuali, non c'è modo di garantire che i dati vengano effettivamente eliminati. Per i clienti Enterprise, gli amministratori del workspace controllano la conservazione e i dati non vengono utilizzati per l'addestramento per impostazione predefinita.

Il problema per i team di piccole e medie dimensioni: i piani Enterprise partono da minimi significativi. Una società di consulenza di 10 persone non può accedere ai controlli di privacy di livello Enterprise.

Conformità GDPR: Una questione aperta

Le pratiche di conservazione a tempo indeterminato di ChatGPT sollevano seri dubbi sulla conformità al GDPR, in particolare riguardo ai principi di minimizzazione dei dati e limitazione della conservazione. Nel marzo 2023, l'autorità italiana per la protezione dei dati (Garante per la Protezione dei Dati Personali) ha emesso un provvedimento d'urgenza bloccando temporaneamente ChatGPT, citando violazioni degli articoli 5, 6, 8, 13 e 25 del GDPR -- tra cui l'assenza di una base giuridica per la raccolta dei dati, la mancanza di un'informativa sulla privacy per gli utenti e l'assenza di verifica dell'età. Il blocco è stato revocato nell'aprile 2023 dopo che OpenAI ha implementato dei cambiamenti, ma il quadro normativo più ampio rimane incerto.

Per i team che gestiscono dati dei clienti in settori regolamentati -- legale, sanitario, servizi finanziari -- l'uso di ChatGPT significa accettare OpenAI come responsabile del trattamento dei dati. Ciò attiva gli obblighi dell'Articolo 28 del GDPR: è necessario un Accordo sul Trattamento dei Dati (DPA), occorre documentare le attività di trattamento e assicurarsi che il responsabile soddisfi i requisiti di sicurezza.

Il costo occulto: l'onere della conformità

Quando il tuo team usa ChatGPT, OpenAI diventa un responsabile del trattamento nella tua catena di conformità. Ciò significa:

  1. È richiesto un Accordo sul Trattamento dei Dati (DPA) -- che definisca come OpenAI gestisce i dati personali per tuo conto, specificando misure di sicurezza, limiti al sub-trattamento e doveri di notifica delle violazioni.
  2. Si attivano gli obblighi dell'Articolo 28 del GDPR -- i responsabili devono trattare i dati solo secondo le tue istruzioni, garantire la riservatezza, implementare misure di sicurezza, notificare le violazioni e consentire audit.
  3. La tua revisione della sicurezza deve includere OpenAI -- ogni valutazione del rischio del fornitore, ogni domanda di audit SOC 2, ogni questionario di sicurezza dei clienti ora ha una dipendenza aggiuntiva.

Per uno studio legale o una clinica medica di 20 persone, questo onere di conformità può essere più costoso dell'abbonamento stesso.

Cosa cambia l'architettura BYOK

Bring Your Own Key (BYOK) è un modello architettonico in cui lo strumento AI non tocca mai i tuoi dati. Invece:

  1. Fornisci la tua chiave API del fornitore AI (OpenAI, Anthropic, Google, ecc.)
  2. Le query vengono instradate direttamente dal tuo dispositivo al fornitore -- lo strumento non è mai un intermediario
  3. Lo strumento non memorizza nulla -- nessuna conversazione, nessun metadato, nessun profilo comportamentale
  4. Nessun DPA è richiesto con il fornitore dello strumento -- perché non è un responsabile del trattamento dei dati

La differenza nel flusso dei dati è fondamentale:

ChatGPT (Ospitato in Cloud) Architettura BYOK
Percorso dati Tu > Server OpenAI > Modello > OpenAI > Tu Tu > API del fornitore direttamente > Tu
Intermediario OpenAI gestisce tutte le query Nessuno -- chiamate API dirette
Visibilità dati La piattaforma registra e vede tutto Il fornitore vede solo la chiamata API
Archiviazione Sui server di OpenAI, a tempo indeterminato Solo sul dispositivo locale
Fornitore strumento come responsabile? No

Con BYOK, il tuo rapporto di conformità è solo con il fornitore AI che scegli, a condizioni che negozi direttamente. Lo strumento stesso è invisibile alla tua catena di conformità.

Cosa significa per il tuo team

Un sondaggio del 2026 condotto su 2.600 professionisti della privacy e della sicurezza ha rilevato che il 64% teme di condividere inavvertitamente dati sensibili tramite strumenti di AI generativa -- eppure circa la metà ammette di inserire comunque dati personali o non pubblici. Il divario tra preoccupazione e comportamento è dove risiede il rischio.

Se sei responsabile della governance dell'AI nella tua organizzazione, ecco le domande da porsi:

  1. Il tuo strumento AI è un responsabile del trattamento dei dati? Se sì, hai bisogno di un DPA, documentazione di conformità e valutazione continua del rischio del fornitore.
  2. Dove risiedono i dati delle conversazioni? Ospitato in cloud significa sui server del fornitore. BYOK con archiviazione locale significa sui tuoi dispositivi.
  3. Puoi garantire l'eliminazione? Con la conservazione ordinata dal tribunale per ChatGPT, la risposta è attualmente no per i piani consumer.
  4. Il tuo team ha strumenti coerenti? Abbonamenti individuali per 20 persone significano 20 rapporti di conformità separati.
  5. Qual è il costo totale? Includi non solo le quote di abbonamento, ma l'onere della conformità, la negoziazione del DPA e il tempo per la valutazione del rischio del fornitore.

In sintesi

ChatGPT è uno strumento potente. È anche un elaboratore di dati che conserva le tue conversazioni a tempo indeterminato, le utilizza per l'addestramento per impostazione predefinita e opera in base a un ordine del tribunale che prevale sulle sue stesse politiche di cancellazione.

Per i singoli, questi compromessi possono essere accettabili. Per i team che gestiscono informazioni riservate dei clienti, dati dei pazienti, record finanziari o intelligence competitiva, rappresentano un rischio reale.

L'architettura BYOK elimina completamente il fornitore dello strumento dall'equazione della conformità. I tuoi dati non toccano mai un intermediario. Nessun DPA richiesto. Nessun obbligo ai sensi dell'Articolo 28 del GDPR con il fornitore dello strumento. Nessuna conservazione a tempo indeterminato delle conversazioni del tuo team sui server di terze parti.

La scelta non è tra AI e nessuna AI. È tra AI con governance e AI senza di essa.


Caiioo utilizza l'architettura BYOK con archiviazione locale-first. Le tue conversazioni non toccano mai i nostri server. Scopri di più sulla nostra architettura della privacy o inizia GRATIS.