Esta é uma tradução automática do documento original em inglês. Em caso de conflito entre esta tradução e a versão original em inglês, a versão em inglês prevalecerá. Ler a versão original em inglês
Quanto o ChatGPT armazena sobre você? Uma auditoria técnica
2026-04-02 · Caiioo Team
Se você usa o ChatGPT no trabalho, seu empregador provavelmente tem dúvidas. Se você é o empregador, com certeza deveria ter.
Esta é uma auditoria técnica sobre o que a OpenAI coleta, por quanto tempo mantém e o que isso significa para equipes em setores regulamentados. Também veremos como a arquitetura Bring Your Own Key (BYOK) muda completamente a equação.
O que o ChatGPT Armazena: O Quadro Completo
A própria documentação da central de ajuda da OpenAI afirma que os chats são "salvos em sua conta até que você os exclua manualmente". Quando você exclui um chat, ele é "removido de sua conta imediatamente e programado para exclusão permanente dos sistemas da OpenAI em até 30 dias" -- a menos que já tenha sido desidentificado, ou que a OpenAI precise retê-lo por obrigações de segurança ou legais.
Mas as conversas são apenas parte da história. A política de privacidade da OpenAI descreve uma extensa coleta automática de dados:
- Dados de log -- endereço IP, tipo e configurações do navegador, data e hora das solicitações e como você interage com os serviços
- Dados de uso -- tipos de conteúdo que você visualiza ou com os quais se engaja, recursos que utiliza, ações que realiza e feedback que envia
- Informações do dispositivo -- nome do dispositivo, sistema operacional, identificadores do dispositivo e tipo de navegador
- Informações da conta -- nome, detalhes de contato, informações de pagamento e histórico de transações
Esses metadados criam um perfil comportamental detalhado para cada usuário. Mesmo que você nunca compartilhe informações sensíveis em um prompt, seus padrões de uso por si só revelam informações significativas sobre seu trabalho.
A Ordem Judicial que Mudou Tudo
Em maio de 2025, uma ordem judicial federal (Caso nº 1:23-cv-11195, S.D.N.Y.) da juíza magistrada Ona T. Wang no litígio de direitos autorais New York Times v. OpenAI exigiu que a OpenAI "retenha e segregue todos os dados de log de saída que, de outra forma, seriam excluídos" -- indefinidamente. A moção de reconsideração da OpenAI foi negada em 16 de maio de 2025.
O que isso significa na prática: mesmo que você tenha excluído seus chats, a OpenAI pode ser legalmente obrigada a preservá-los. A janela de exclusão de 30 dias descrita em sua política de privacidade é anulada por mandato judicial. Em janeiro de 2026, o juiz distrital Sidney Stein manteve a ordem, exigindo que a OpenAI apresentasse uma amostra de 20 milhões de logs de usuários desidentificados -- prompts e saídas -- como evidência de descoberta.
Suas Conversas Podem Treinar Modelos Futuros
Por padrão, as conversas em planos de consumo são usadas para treinamento de modelos. A própria documentação da central de ajuda da OpenAI afirma: "Quando você usa nossos serviços para indivíduos, como ChatGPT, Codex e Sora, podemos usar seu conteúdo para treinar nossos modelos". Você pode optar por sair através do portal de privacidade ou em Configurações > Controles de Dados -- mas, como a OpenAI observa, "uma vez que você optar por sair, novas conversas não serão usadas para treinar nossos modelos". Quaisquer dados já enviados permanecem no fluxo de treinamento.
Optar por sair também não altera por quanto tempo seus dados são armazenados. Isso apenas muda se eles serão usados para melhorar os modelos.
Enterprise vs. Individual: Um sistema de dois níveis
A OpenAI opera um modelo de privacidade claro de dois níveis:
| Individual (Free/Plus/Pro) | Enterprise/Edu | |
|---|---|---|
| Retenção de dados | Indefinida (ordem judicial) | Controlada pelo admin |
| Uso para treino | Sim, por padrão (opção de desativar) | Não por padrão |
| Isento de ordem judicial? | Não | Sim |
| Controles de admin | Nenhum | Políticas de retenção totais |
| Prazo de exclusão | 30 dias (quando permitido) | 30 dias, configurável pelo admin |
Para usuários individuais, não há como garantir que seus dados sejam realmente excluídos. Para clientes Enterprise, os administradores do workspace controlam a retenção, e os dados não são usados para treinamento por padrão.
O problema para equipes de pequeno e médio porte: os planos Enterprise exigem mínimos significativos. Uma empresa de consultoria de 10 pessoas não consegue acessar os controles de privacidade de nível Enterprise.
Conformidade com o GDPR: Uma Questão em Aberto
As práticas de retenção indefinida do ChatGPT levantam questões sérias sobre a conformidade com o GDPR, particularmente em torno dos princípios de minimização de dados e limitação de armazenamento. Em março de 2023, a autoridade de proteção de dados da Itália (Garante per la Protezione dei Dati Personali) emitiu uma ordem de emergência banindo temporariamente o ChatGPT, citando violações dos Artigos 5, 6, 8, 13 e 25 do GDPR -- incluindo a ausência de base legal para coleta de dados, falta de aviso de privacidade aos usuários e ausência de verificação de idade. O banimento foi suspenso em abril de 2023 após a OpenAI implementar mudanças, mas o cenário regulatório mais amplo permanece indefinido.
Para equipes que lidam com dados de clientes em setores regulamentados -- jurídico, saúde, serviços financeiros -- usar o ChatGPT significa aceitar a OpenAI como um processador de dados. Isso aciona as obrigações do Artigo 28 do GDPR: você precisa de um Acordo de Processamento de Dados (DPA), precisa documentar as atividades de processamento e garantir que o processador atenda aos seus requisitos de segurança.
O custo oculto: Sobrecarga de conformidade
Quando sua equipe usa o ChatGPT, a OpenAI se torna um processador de dados em sua cadeia de conformidade. Isso significa:
- Um Acordo de Processamento de Dados (DPA) é obrigatório — definindo como a OpenAI lida com dados pessoais em seu nome, especificando medidas de segurança, limites de subprocessamento e deveres de notificação de violação.
- As obrigações do Artigo 28 do GDPR são ativadas — os processadores devem processar dados apenas conforme suas instruções, garantir a confidencialidade, implementar medidas de segurança, notificar violações e permitir auditorias.
- Sua revisão de segurança deve incluir a OpenAI — cada avaliação de risco de fornecedor, cada pergunta de auditoria SOC 2, cada questionário de segurança de cliente agora tem uma dependência adicional.
Para um escritório de advocacia ou clínica médica de 20 pessoas, essa sobrecarga de conformidade pode ser mais cara do que a própria assinatura.
O que a arquitetura BYOK muda
Bring Your Own Key (BYOK) é um padrão arquitetônico onde a ferramenta de IA nunca toca seus dados. Em vez disso:
- Você fornece sua própria chave de API do provedor de IA (OpenAI, Anthropic, Google, etc.)
- As consultas são roteadas diretamente do seu dispositivo para o provedor — a ferramenta nunca é um intermediário
- A ferramenta não armazena nada — sem conversas, sem metadados, sem perfis comportamentais
- Nenhum DPA é necessário com o fornecedor da ferramenta — porque ele não é um processador de dados
A diferença no fluxo de dados é fundamental:
| ChatGPT (Hospedado na Nuvem) | Arquitetura BYOK | |
|---|---|---|
| Caminho dos dados | Você > Servidores OpenAI > Modelo > OpenAI > Você | Você > API do Provedor diretamente > Você |
| Intermediário | OpenAI processa todas as consultas | Nenhum — chamadas de API diretas |
| Visibilidade de dados | Plataforma registra e vê tudo | Provedor vê apenas a chamada de API |
| Armazenamento | Nos servidores da OpenAI, indefinidamente | Apenas no dispositivo local |
| Fornecedor como processador? | Sim | Não |
Com BYOK, sua relação de conformidade é apenas com o provedor de IA que você escolher, nos termos que você negociar diretamente. A ferramenta em si é invisível para sua cadeia de conformidade.
O que isso significa para sua equipe
Uma pesquisa de 2026 com 2.600 profissionais de privacidade e segurança descobriu que 64% se preocupam em compartilhar inadvertidamente dados confidenciais por meio de ferramentas de IA generativa — no entanto, cerca de metade admite inserir dados pessoais ou não públicos de qualquer maneira. A lacuna entre a preocupação e o comportamento é onde reside o risco.
Se você é responsável pela governança de IA em sua organização, aqui estão as perguntas a serem feitas:
- Sua ferramenta de IA é um processador de dados? Se sim, você precisa de um DPA, documentação de conformidade e avaliação contínua de risco do fornecedor.
- Onde residem os dados das conversas? Hospedado na nuvem significa nos servidores do fornecedor. BYOK com armazenamento local-first significa em seus dispositivos.
- Você pode garantir a exclusão? Com a retenção ordenada judicialmente do ChatGPT, a resposta é atualmente não para planos de consumo.
- Sua equipe tem ferramentas consistentes? Assinaturas individuais para 20 pessoas significam 20 relações de conformidade separadas.
- Qual é o custo total? Inclua não apenas as taxas de assinatura, mas também a sobrecarga de conformidade, a negociação de DPA e o tempo de avaliação de risco do fornecedor.
Conclusão
O ChatGPT é uma ferramenta poderosa. É também um processador de dados que retém as suas conversas indefinidamente, utiliza-as para treino por predefinição e opera sob uma ordem judicial que se sobrepõe às suas próprias políticas de eliminação.
Para indivíduos, estas compensações podem ser aceitáveis. Para equipas que lidam com informações confidenciais de clientes, dados de pacientes, registos financeiros ou inteligência competitiva, elas representam um risco real.
A arquitetura BYOK elimina inteiramente o fornecedor da ferramenta da equação de conformidade. Os seus dados nunca tocam num intermediário. Nenhum DPA é necessário. Sem obrigações do Artigo 28 do RGPD com o fornecedor da ferramenta. Sem retenção indefinida das conversas da sua equipa nos servidores de terceiros.
A escolha não é entre IA e nenhuma IA. É entre IA com governação e IA sem ela.
O Caiioo utiliza arquitetura BYOK com armazenamento local-first. As suas conversas nunca tocam nos nossos servidores. Saiba mais sobre a nossa arquitetura de privacidade ou comece a utilizar GRATIS.