Niniejszy dokument jest automatycznym tłumaczeniem oryginału w języku angielskim. W przypadku jakichkolwiek rozbieżności między tym tłumaczeniem a oryginalną wersją angielską, wersja angielska jest rozstrzygająca. Przeczytaj oryginał w języku angielskim


Ile danych przechowuje o Tobie ChatGPT? Audyt techniczny

2026-04-02 · Caiioo Team

Jeśli używasz ChatGPT w pracy, Twój pracodawca prawdopodobnie ma pytania. Jeśli to Ty jesteś pracodawcą, zdecydowanie powinieneś je mieć.

To jest techniczny audyt tego, co OpenAI gromadzi, jak długo to przechowuje i co to oznacza dla zespołów w branżach regulowanych. Przyjrzymy się również, jak architektura Bring Your Own Key (BYOK) całkowicie zmienia tę sytuację.

Co przechowuje ChatGPT: Pełny obraz

Własna dokumentacja centrum pomocy OpenAI stwierdza, że czaty są „zapisywane na Twoim koncie, dopóki nie usuniesz ich ręcznie”. Gdy usuniesz czat, zostaje on „natychmiast usunięty z Twojego konta i zaplanowany do trwałego usunięcia z systemów OpenAI w ciągu 30 dni” — chyba że został już pozbawiony cech identyfikacyjnych lub OpenAI musi go zachować ze względu na zobowiązania bezpieczeństwa lub prawne.

Ale rozmowy to tylko część historii. Polityka prywatności OpenAI opisuje szeroki zakres automatycznego gromadzenia danych:

  • Dane dziennika — adres IP, typ i ustawienia przeglądarki, data i godzina żądań oraz sposób interakcji z usługami
  • Dane o użytkowaniu — rodzaje treści, które przeglądasz lub w które się angażujesz, funkcje, z których korzystasz, podejmowane działania i przesyłane opinie
  • Informacje o urządzeniu — nazwa urządzenia, system operacyjny, identyfikatory urządzenia i typ przeglądarki
  • Informacje o koncie — imię i nazwisko, dane kontaktowe, informacje o płatnościach i historia transakcji

Te metadane tworzą szczegółowy profil behawioralny każdego użytkownika. Nawet jeśli nigdy nie udostępnisz wrażliwych informacji w prompcie, same wzorce użytkowania ujawniają istotne informacje o Twojej pracy.

Nakaz sądowy, który zmienił wszystko

W maju 2025 r. nakaz sądu federalnego (sprawa nr 1:23-cv-11195, S.D.N.Y.) wydany przez sędzię Onę T. Wang w sporze o prawa autorskie New York Times v. OpenAI zobowiązał OpenAI do „zachowania i odizolowania wszystkich danych dziennika wyjściowego, które w przeciwnym razie zostałyby usunięte” — bezterminowo. Wniosek OpenAI o ponowne rozpatrzenie został odrzucony 16 maja 2025 r.

Co to oznacza w praktyce: nawet jeśli usunąłeś swoje czaty, OpenAI może być prawnie zobowiązane do ich zachowania. 30-dniowe okno usuwania opisane w ich polityce prywatności zostaje nadpisane przez nakaz sądowy. W styczniu 2026 r. sędzia okręgowy Sidney Stein podtrzymał nakaz, wymagając od OpenAI przedstawienia próbki 20 milionów anonimowych logów użytkowników — promptów i wyników — jako dowodów w procesie.

Twoje rozmowy mogą trenować przyszłe modele

Domyślnie rozmowy w planach konsumenckich są wykorzystywane do trenowania modeli. Dokumentacja centrum pomocy OpenAI stwierdza: „Kiedy korzystasz z naszych usług dla osób fizycznych, takich jak ChatGPT, Codex i Sora, możemy używać Twoich treści do trenowania naszych modeli”. Możesz zrezygnować za pośrednictwem portalu prywatności lub w Ustawienia > Kontrola danych — ale jak zauważa OpenAI, „po rezygnacji nowe rozmowy nie będą używane do trenowania naszych modeli”. Wszelkie dane już przesłane pozostają w procesie trenowania.

Rezygnacja nie zmienia również czasu przechowywania danych. Zmienia jedynie to, czy są one wykorzystywane do ulepszania modeli.

Enterprise vs. Indywidualne: System dwupoziomowy

OpenAI stosuje wyraźny dwupoziomowy model prywatności:

Indywidualne (Free/Plus/Pro) Enterprise/Edu
Retencja danych Bezterminowa (nakaz sądowy) Kontrolowana przez admina
Wykorzystanie do treningu Domyślnie tak (możliwa rezygnacja) Brak domyślnego treningu
Zwolnienie z nakazu sądowego? Nie Tak
Kontrola administratora Brak Pełne zasady retencji
Harmonogram usuwania 30 dni (gdy dozwolone) 30 dni, konfigurowalne przez admina

Dla użytkowników indywidualnych nie ma sposobu na zagwarantowanie, że dane zostaną faktycznie usunięte. Dla klientów Enterprise administratorzy obszaru roboczego kontrolują retencję, a dane domyślnie nie są używane do treningu.

Problem dla małych i średnich zespołów: plany Enterprise zaczynają się od wysokich progów minimalnych. 10-osobowa firma konsultingowa nie ma dostępu do kontroli prywatności na poziomie Enterprise.

Zgodność z RODO: Kwestia otwarta

Praktyki bezterminowego przechowywania danych przez ChatGPT budzą poważne pytania o zgodność z RODO, szczególnie w zakresie zasad minimalizacji danych i ograniczenia przechowywania. W marcu 2023 r. włoski organ ochrony danych (Garante per la Protezione dei Dati Personali) wydał pilny nakaz tymczasowo blokujący ChatGPT, powołując się na naruszenia artykułów 5, 6, 8, 13 i 25 RODO — w tym brak podstawy prawnej do gromadzenia danych, brak powiadomienia o prywatności dla użytkowników oraz brak weryfikacji wieku. Blokada została zniesiona w kwietniu 2023 r. po wprowadzeniu zmian przez OpenAI, ale szerszy obraz regulacyjny pozostaje niejasny.

Dla zespołów przetwarzających dane klientów w branżach regulowanych — prawniczej, medycznej, usług finansowych — korzystanie z ChatGPT oznacza zaakceptowanie OpenAI jako procesora danych. To uruchamia obowiązki wynikające z artykułu 28 RODO: potrzebujesz umowy powierzenia przetwarzania danych (DPA), musisz dokumentować czynności przetwarzania i upewnić się, że procesor spełnia Twoje wymogi bezpieczeństwa.

Ukryty koszt: Narzut związany ze zgodnością

Gdy Twój zespół korzysta z ChatGPT, OpenAI staje się procesorem danych w Twoim łańcuchu zgodności. To oznacza:

  1. Wymagana jest Umowa Powierzenia Przetwarzania Danych (DPA) — definiująca, jak OpenAI obchodzi się z danymi osobowymi w Twoim imieniu, określająca środki bezpieczeństwa, limity podprzetwarzania i obowiązki powiadamiania o naruszeniach.
  2. Aktywują się obowiązki z Artykułu 28 RODO — procesorzy muszą przetwarzać dane wyłącznie zgodnie z Twoimi instrukcjami, zapewniać poufność, wdrażać środki bezpieczeństwa, zgłaszać naruszenia i umożliwiać audyty.
  3. Twój przegląd bezpieczeństwa musi obejmować OpenAI — każda ocena ryzyka dostawcy, każde pytanie audytowe SOC 2, każdy kwestionariusz bezpieczeństwa klienta ma teraz dodatkową zależność.

Dla 20-osobowej kancelarii prawnej lub placówki medycznej ten narzut związany ze zgodnością może być droższy niż sama subskrypcja.

Co zmienia architektura BYOK

Bring Your Own Key (BYOK) to wzorzec architektoniczny, w którym narzędzie AI nigdy nie dotyka Twoich danych. Zamiast tego:

  1. Podajesz własny klucz API od dostawcy AI (OpenAI, Anthropic, Google itp.)
  2. Zapytania trafiają bezpośrednio z Twojego urządzenia do dostawcy — narzędzie nigdy nie jest pośrednikiem
  3. Narzędzie niczego nie przechowuje — żadnych rozmów, metadanych, profili behawioralnych
  4. Nie jest wymagana umowa DPA z dostawcą narzędzia — ponieważ nie jest on procesorem danych

Różnica w przepływie danych jest fundamentalna:

ChatGPT (Hostowany w chmurze) Architektura BYOK
Ścieżka danych Ty > Serwery OpenAI > Model > OpenAI > Ty Ty > API dostawcy bezpośrednio > Ty
Pośrednik OpenAI obsługuje wszystkie zapytania Brak — bezpośrednie wywołania API
Widoczność danych Platforma loguje i widzi wszystkie zapytania Dostawca widzi tylko wywołanie API
Przechowywanie Na serwerach OpenAI, bezterminowo Tylko lokalne urządzenie
Dostawca narzędzia jako procesor? Tak Nie

Dzięki BYOK Twoja relacja w zakresie zgodności dotyczy tylko wybranego dostawcy AI, na warunkach, które negocjujesz bezpośrednio. Samo narzędzie jest niewidoczne dla Twojego łańcucha zgodności.

Co to oznacza dla Twojego zespołu

Badanie z 2026 r. przeprowadzone wśród 2600 specjalistów ds. prywatności i bezpieczeństwa wykazało, że 64% obawia się nieumyślnego udostępnienia wrażliwych danych poprzez narzędzia generatywnej AI — mimo to około połowa przyznaje się do wprowadzania danych osobowych lub niepublicznych. Luka między obawami a zachowaniem to miejsce, w którym mieszka ryzyko.

Jeśli odpowiadasz za ład AI w swojej organizacji, oto pytania, które należy zadać:

  1. Czy Twoje narzędzie AI jest procesorem danych? Jeśli tak, potrzebujesz DPA, dokumentacji zgodności i ciągłej oceny ryzyka dostawcy.
  2. Gdzie znajdują się dane rozmów? Hostowane w chmurze oznacza serwery dostawcy. BYOK z przechowywaniem local-first oznacza Twoje urządzenia.
  3. Czy możesz zagwarantować usunięcie? Przy nakazanej sądowo retencji ChatGPT, odpowiedź dla planów konsumenckich brzmi obecnie: nie.
  4. Czy Twój zespół ma spójne narzędzia? Indywidualne subskrypcje dla 20 osób oznaczają 20 oddzielnych relacji w zakresie zgodności.
  5. Jaki jest całkowity koszt? Uwzględnij nie tylko opłaty za subskrypcję, ale także narzut związany ze zgodnością, negocjacje DPA i czas poświęcony na ocenę ryzyka dostawcy.

Podsumowanie

ChatGPT to potężne narzędzie. Jest to jednak również procesor danych, który przechowuje Twoje rozmowy bezterminowo, domyślnie wykorzystuje je do trenowania i działa na mocy nakazów sądowych, które nadrzędnie traktują własne zasady usuwania danych.

Dla osób prywatnych te kompromisy mogą być akceptowalne. Dla zespołów przetwarzających poufne informacje klientów, dane pacjentów, dokumentację finansową lub dane wywiadu konkurencyjnego, stanowią one realne ryzyko.

Architektura BYOK całkowicie eliminuje dostawcę narzędzia z równania zgodności. Twoje dane nigdy nie trafiają do pośrednika. Nie jest wymagana umowa powierzenia przetwarzania danych (DPA). Brak obowiązków wynikających z art. 28 RODO wobec dostawcy narzędzia. Brak bezterminowego przechowywania rozmów Twojego zespołu na serwerach stron trzecich.

Wybór nie dotyczy tego, czy korzystać z AI, czy nie. To wybór między AI z nadzorem a AI bez niego.


Caiioo korzysta z architektury BYOK z lokalnym przechowywaniem danych. Twoje rozmowy nigdy nie trafiają na nasze serwery. Dowiedz się więcej o naszej architekturze prywatności lub zacznij za FREE.