Це машинний переклад оригінального документа англійською мовою. У разі будь-яких розбіжностей між цим перекладом та оригінальною англійською версією, пріоритет має версія англійською мовою. Читати оригінал англійською мовою
Скільки даних ChatGPT зберігає про вас? Технічний аудит
2026-04-02 · Caiioo Team
Якщо ви використовуєте ChatGPT на роботі, у вашого роботодавця, ймовірно, є запитання. Якщо ви є роботодавцем, вони у вас точно мають бути.
Це технічний аудит того, що збирає OpenAI, як довго вони це зберігають і що це означає для команд у регульованих галузях. Ми також розглянемо, як архітектура Bring Your Own Key (BYOK) повністю змінює ситуацію.
Що зберігає ChatGPT: Повна картина
Власна документація довідкового центру OpenAI стверджує, що чати «зберігаються у вашому обліковому записі, доки ви не видалите їх вручну». Коли ви видаляєте чат, він «негайно видаляється з вашого облікового запису та планується до остаточного видалення з систем OpenAI протягом 30 днів» — якщо він ще не був деідентифікований, або якщо OpenAI не зобов'язана зберігати його з міркувань безпеки чи юридичних зобов'язань.
Але розмови — це лише частина історії. Політика конфіденційності OpenAI описує розширений автоматичний збір даних:
- Дані журналу (Log data) — IP-адреса, тип і налаштування браузера, дата й час запитів, а також те, як ви взаємодієте з послугами
- Дані про використання — типи контенту, який ви переглядаєте або з яким взаємодієте, функції, які ви використовуєте, дії, які ви вчиняєте, і відгуки, які ви надсилаєте
- Інформація про пристрій — назва пристрою, операційна система, ідентифікатори пристрою та тип браузера
- Інформація про обліковий запис — ім'я, контактні дані, платіжна інформація та історія транзакцій
Ці метадані створюють детальний поведінковий профіль для кожного користувача. Навіть якщо ви ніколи не ділитеся конфіденційною інформацією в запитах, самі лише ваші шаблони використання розкривають значну інформацію про вашу роботу.
Судовий наказ, який змінив усе
У травні 2025 року федеральний судовий наказ (справа № 1:23-cv-11195, S.D.N.Y.) мирового судді Они Т. Ванг у судовому процесі щодо авторських прав New York Times проти OpenAI зобов'язав OpenAI «зберігати та відокремлювати всі дані журналів виводу, які в іншому випадку були б видалені» — на невизначений термін. Клопотання OpenAI про перегляд було відхилено 16 травня 2025 року.
Що це означає на практиці: навіть якщо ви видалили свої чати, OpenAI може бути зобов'язана за законом зберігати їх. 30-денне вікно видалення, описане в їхній політиці конфіденційності, скасовується судовим мандатом. У січні 2026 року окружний суддя Сідні Стайн підтримав наказ, вимагаючи від OpenAI надати вибірку з 20 мільйонів деідентифікованих журналів користувачів — запитів і відповідей — як докази у справі.
Ваші розмови можуть навчати майбутні моделі
За замовчуванням розмови на споживчих планах використовуються для навчання моделей. Власна документація довідкового центру OpenAI зазначає: «Коли ви використовуєте наші послуги для фізичних осіб, такі як ChatGPT, Codex і Sora, ми можемо використовувати ваш контент для навчання наших моделей». Ви можете відмовитися через портал конфіденційності або через Налаштування > Керування даними — але, як зазначає OpenAI, «після вашої відмови нові розмови не будуть використовуватися для навчання наших моделей». Будь-які вже надані дані залишаються в процесі навчання.
Відмова також не змінює термін зберігання ваших даних. Вона лише змінює те, чи використовуються вони для вдосконалення моделей.
Enterprise проти Individual: Дворівнева система
OpenAI використовує чітку дворівневу модель конфіденційності:
| Individual (Free/Plus/Pro) | Enterprise/Edu | |
|---|---|---|
| Зберігання даних | Безстроково (за наказом суду) | Контролюється адміном |
| Використання для навчання | Так за замовчуванням (можна відмовитися) | Ні за замовчуванням |
| Звільнення від наказу суду? | Ні | Так |
| Адмінконтроль | Відсутній | Повні політики зберігання |
| Термін видалення | 30 днів (коли дозволено) | 30 днів, налаштовується адміном |
Для індивідуальних користувачів немає способу гарантувати, що ваші дані справді видалені. Для клієнтів Enterprise адміністратори робочого простору контролюють зберігання, а дані не використовуються для навчання за замовчуванням.
Проблема для малих та середніх команд: плани Enterprise починаються зі значних мінімумів. Консалтингова фірма з 10 осіб не може отримати доступ до засобів контролю конфіденційності рівня Enterprise.
Відповідність GDPR: Відкрите питання
Практика безстрокового зберігання даних у ChatGPT викликає серйозні запитання щодо відповідності GDPR, зокрема принципів мінімізації даних та обмеження зберігання. У березні 2023 року орган із захисту даних Італії (Garante per la Protezione dei Dati Personali) видав надзвичайний наказ про тимчасову заборону ChatGPT, посилаючись на порушення статей 5, 6, 8, 13 та 25 GDPR — включаючи відсутність правової бази для збору даних, відсутність повідомлення про конфіденційність для користувачів та відсутність перевірки віку. Заборона була знята у квітні 2023 року після впровадження змін з боку OpenAI, але загальна регуляторна картина залишається невизначеною.
Для команд, що працюють із даними клієнтів у регульованих галузях — юридичній, медичній, фінансовій — використання ChatGPT означає визнання OpenAI як обробника даних. Це активує зобов'язання за статтею 28 GDPR: вам потрібна Угода про обробку даних (DPA), вам потрібно документувати діяльність з обробки та переконатися, що обробник відповідає вашим вимогам безпеки.
Прихована вартість: Витрати на комплаєнс
Коли ваша команда використовує ChatGPT, OpenAI стає обробником даних у вашому ланцюжку комплаєнсу. Це означає:
- Потрібна Угода про обробку даних (DPA) — визначення того, як OpenAI обробляє персональні дані від вашого імені, специфікація заходів безпеки, ліміти субобробки та обов'язки щодо повідомлення про порушення.
- Активуються зобов'язання за статтею 28 GDPR — обробники повинні обробляти дані лише згідно з вашими інструкціями, забезпечувати конфіденційність, впроваджувати заходи безпеки, повідомляти про порушення та дозволяти аудити.
- Ваш огляд безпеки повинен включати OpenAI — кожна оцінка ризиків постачальника, кожне питання аудиту SOC 2, кожна анкета безпеки клієнта тепер мають додаткову залежність.
Для юридичної фірми або медичної практики з 20 осіб ці витрати на комплаєнс можуть бути дорожчими за саму підписку.
Що змінює архітектура BYOK
Bring Your Own Key (BYOK) — це архітектурний патерн, де інструмент ШІ ніколи не торкається ваших даних. Замість цього:
- Ви надаєте власний ключ API від постачальника ШІ (OpenAI, Anthropic, Google тощо)
- Запити спрямовуються безпосередньо з вашого пристрою до постачальника — інструмент ніколи не є посередником
- Інструмент нічого не зберігає — ні розмов, ні метаданих, ні поведінкових профілів
- З постачальником інструменту не потрібна DPA — тому що він не є обробником даних
Різниця в потоці даних є фундаментальною:
| ChatGPT (Хмарний хостинг) | Архітектура BYOK | |
|---|---|---|
| Шлях даних | Ви > Сервери OpenAI > Модель > OpenAI > Ви | Ви > API постачальника напряму > Ви |
| Посередник | OpenAI обробляє всі запити | Немає — прямі виклики API |
| Видимість даних | Платформа логує та бачить усі запити | Постачальник бачить лише виклик API |
| Зберігання | На серверах OpenAI, безстроково | Тільки на локальному пристрої |
| Вендор як обробник? | Так | Ні |
З BYOK ваші відносини щодо комплаєнсу стосуються лише обраного вами постачальника ШІ на умовах, які ви обговорюєте безпосередньо. Сам інструмент невидимий для вашого ланцюжка комплаєнсу.
Що це означає для вашої команди
Опитування 2600 фахівців із конфіденційності та безпеки у 2026 році показало, що 64% турбуються про ненавмисне поширення конфіденційних даних через інструменти генеративного ШІ — проте приблизно половина зізнається, що все одно вводить персональні або непублічні дані. Розрив між занепокоєнням і поведінкою — це місце, де живе ризик.
Якщо ви відповідаєте за управління ШІ у вашій організації, ось питання, які варто поставити:
- Чи є ваш інструмент ШІ обробником даних? Якщо так, вам потрібна DPA, документація з комплаєнсу та постійна оцінка ризиків постачальника.
- Де знаходяться дані розмов? Хмарний хостинг означає сервери вендора. BYOK із локальним зберіганням означає ваші пристрої.
- Чи можете ви гарантувати видалення? З судовим наказом про зберігання даних у ChatGPT, відповідь наразі «ні» для споживчих планів.
- Чи має ваша команда єдиний інструментарій? Індивідуальні підписки для 20 осіб означають 20 окремих відносин щодо комплаєнсу.
- Яка загальна вартість? Враховуйте не лише вартість підписки, а й витрати на комплаєнс, переговори щодо DPA та час на оцінку ризиків постачальника.
Підсумок
ChatGPT — це потужний інструмент. Це також обробник даних, який зберігає ваші діалоги нескінченно довго, використовує їх для навчання за замовчуванням і діє згідно з ухвалою суду, яка має пріоритет над його власними політиками видалення.
Для приватних осіб ці компроміси можуть бути прийнятними. Для команд, що працюють із конфіденційною інформацією клієнтів, даними пацієнтів, фінансовими звітами або конкурентною розвідкою, вони становлять реальний ризик.
Архітектура BYOK повністю виключає постачальника інструменту з рівняння відповідності вимогам. Ваші дані ніколи не торкаються посередника. Жодних DPA не потрібно. Жодних зобов'язань за статтею 28 GDPR перед постачальником інструменту. Жодного безстрокового зберігання діалогів вашої команди на серверах третіх сторін.
Вибір стоїть не між AI та його відсутністю. Це вибір між AI з контролем та AI без нього.
Caiioo використовує архітектуру BYOK із локальним зберіганням даних. Ваші діалоги ніколи не торкаються наших серверів. Дізнайтеся більше про нашу архітектуру приватності або почніть використовувати FREE.