Данный документ является машинным переводом оригинальной английской версии. В случае любых расхождений между переводом и оригиналом на английском языке, приоритет имеет английская версия. Читать оригинал на английском языке


Сколько данных ChatGPT хранит о вас? Технический аудит

2026-04-02 · Caiioo Team

Если вы используете ChatGPT на работе, у вашего работодателя, вероятно, есть вопросы. Если вы и есть работодатель, они определенно должны у вас быть.

Это технический аудит того, что собирает OpenAI, как долго они это хранят и что это значит для команд в регулируемых отраслях. Мы также рассмотрим, как архитектура Bring Your Own Key (BYOK) полностью меняет ситуацию.

Что хранит ChatGPT: Полная картина

В собственной документации справочного центра OpenAI указано, что чаты «сохраняются в вашей учетной записи до тех пор, пока вы не удалите их вручную». Когда вы удаляете чат, он «немедленно удаляется из вашей учетной записи и планируется к безвозвратному удалению из систем OpenAI в течение 30 дней» — если только он уже не был обезличен, или если OpenAI не обязана сохранить его в целях безопасности или по закону.

Но переписка — это лишь часть истории. Политика конфиденциальности OpenAI описывает обширный автоматический сбор данных:

  • Данные журналов (Log data) — IP-адрес, тип и настройки браузера, дата и время запросов, а также то, как вы взаимодействуете с сервисами
  • Данные об использовании — типы контента, который вы просматриваете или с которым взаимодействуете, используемые функции, совершаемые действия и отправляемые отзывы
  • Информация об устройстве — название устройства, операционная система, идентификаторы устройства и тип браузера
  • Информация об аккаунте — имя, контактные данные, платежная информация и история транзакций

Эти метаданные создают подробный поведенческий профиль каждого пользователя. Даже если вы никогда не делитесь конфиденциальной информацией в промптах, сами паттерны использования раскрывают значимую информацию о вашей работе.

Судебный приказ, который изменил всё

В мае 2025 года федеральный судебный приказ (дело № 1:23-cv-11195, S.D.N.Y.) мирового судьи Оны Т. Ванг в рамках судебного разбирательства об авторских правах New York Times против OpenAI обязал OpenAI «сохранять и изолировать все данные журналов вывода, которые в противном случае были бы удалены» — на неопределенный срок. Ходатайство OpenAI о пересмотре было отклонено 16 мая 2025 года.

Что это означает на практике: даже если вы удалили свои чаты, OpenAI может быть обязана по закону сохранить их. 30-дневное окно удаления, описанное в их политике конфиденциальности, отменяется судебным мандатом. В январе 2026 года окружной судья Сидни Стейн подтвердил приказ, потребовав от OpenAI предоставить выборку из 20 миллионов обезличенных пользовательских логов — промптов и ответов — в качестве доказательств в процессе раскрытия информации.

Ваши разговоры могут использоваться для обучения будущих моделей

По умолчанию переписки в потребительских тарифных планах используются для обучения моделей. В документации справочного центра OpenAI говорится: «Когда вы используете наши услуги для частных лиц, такие как ChatGPT, Codex и Sora, мы можем использовать ваш контент для обучения наших моделей». Вы можете отказаться от этого через портал конфиденциальности или через Настройки > Управление данными, но, как отмечает OpenAI, «после вашего отказа новые разговоры не будут использоваться для обучения наших моделей». Любые данные, уже отправленные ранее, остаются в конвейере обучения.

Отказ от обучения также не меняет срок хранения ваших данных. Он меняет только то, будут ли они использоваться для улучшения моделей.

Enterprise против Individual: двухуровневая система

OpenAI использует четкую двухуровневую модель конфиденциальности:

Individual (Free/Plus/Pro) Enterprise/Edu
Хранение данных Бессрочно (по решению суда) Контролируется админом
Использование для обучения Да, по умолчанию (можно отключить) Нет по умолчанию
Освобождение от приказа суда? Нет Да
Админ-контроль Отсутствует Полные политики хранения
Срок удаления 30 дней (когда разрешено) 30 дней, настраивается админом

Для индивидуальных пользователей нет способа гарантировать, что данные действительно удалены. Для клиентов Enterprise администраторы рабочего пространства управляют хранением, и данные не используются для обучения по умолчанию.

Проблема для малых и средних команд: планы Enterprise начинаются с высоких минимумов. Консалтинговая фирма из 10 человек не может получить доступ к средствам контроля конфиденциальности уровня Enterprise.

Соответствие GDPR: Открытый вопрос

Практика бессрочного хранения данных в ChatGPT вызывает серьезные вопросы относительно соответствия GDPR, особенно в части принципов минимизации данных и ограничения сроков хранения. В марте 2023 года орган по защите данных Италии (Garante per la Protezione dei Dati Personali) издал экстренное распоряжение о временном запрете ChatGPT, сославшись на нарушения статей 5, 6, 8, 13 и 25 GDPR — включая отсутствие правовой основы для сбора данных, отсутствие уведомления о конфиденциальности для пользователей и отсутствие проверки возраста. Запрет был снят в апреле 2023 года после того, как OpenAI внесла изменения, но общая регуляторная картина остается неопределенной.

Для команд, работающих с данными клиентов в регулируемых отраслях (юриспруденция, здравоохранение, финансовые услуги), использование ChatGPT означает признание OpenAI обработчиком данных. Это влечет за собой обязательства по статье 28 GDPR: вам необходимо Соглашение об обработке данных (DPA), вам нужно документировать деятельность по обработке и гарантировать, что обработчик соответствует вашим требованиям безопасности.

Скрытые расходы: накладные расходы на комплаенс

Когда ваша команда использует ChatGPT, OpenAI становится обработчиком данных в вашей цепочке комплаенса. Это означает:

  1. Требуется Соглашение об обработке данных (DPA) — определяющее, как OpenAI обрабатывает персональные данные от вашего имени, с указанием мер безопасности, ограничений на субобработку и обязанностей по уведомлению об утечках.
  2. Активируются обязательства по Статье 28 GDPR — обработчики должны обрабатывать данные только согласно вашим инструкциям, обеспечивать конфиденциальность, внедрять меры безопасности, уведомлять об утечках и разрешать аудит.
  3. Ваш обзор безопасности должен включать OpenAI — каждая оценка рисков вендора, каждый вопрос аудита SOC 2, каждый опросник безопасности клиента теперь имеют дополнительную зависимость.

Для юридической фирмы или медицинской практики из 20 человек эти расходы на комплаенс могут быть дороже, чем сама подписка.

Что меняет архитектура BYOK

Bring Your Own Key (BYOK) — это архитектурный паттерн, при котором ИИ-инструмент никогда не касается ваших данных. Вместо этого:

  1. Вы предоставляете собственный API-ключ от поставщика ИИ (OpenAI, Anthropic, Gemini и т. д.)
  2. Запросы направляются напрямую с вашего устройства поставщику — инструмент никогда не является посредником
  3. Инструмент ничего не хранит — ни диалогов, ни метаданных, ни поведенческих профилей
  4. DPA с вендором инструмента не требуется, так как он не является обработчиком данных

Разница в потоке данных фундаментальна:

ChatGPT (Облачный хостинг) Архитектура BYOK
Путь данных Вы > Серверы OpenAI > Модель > OpenAI > Вы Вы > Напрямую в API провайдера > Вы
Посредник OpenAI обрабатывает все запросы Нет — прямые вызовы API
Видимость данных Платформа логирует и видит все запросы Провайдер видит только вызов API
Хранение На серверах OpenAI, бессрочно Только на локальном устройстве
Вендор как обработчик? Да Нет

С BYOK ваши отношения по комплаенсу строятся только с выбранным вами поставщиком ИИ на условиях, которые вы обсуждаете напрямую. Сам инструмент невидим для вашей цепочки комплаенса.

Что это значит для вашей команды

Опрос 2026 года среди 2600 специалистов по конфиденциальности и безопасности показал, что 64% беспокоятся о непреднамеренной передаче конфиденциальных данных через инструменты генеративного ИИ — при этом примерно половина признается, что все равно вводит личные или непубличные данные. Разрыв между беспокойством и поведением — это зона риска.

Если вы отвечаете за управление ИИ в вашей организации, вот вопросы, которые стоит задать:

  1. Является ли ваш ИИ-инструмент обработчиком данных? Если да, вам нужны DPA, документация по комплаенсу и постоянная оценка рисков вендора.
  2. Где находятся данные диалогов? Облачный хостинг означает серверы вендора. BYOK с локальным хранением означает ваши устройства.
  3. Можете ли вы гарантировать удаление? С учетом судебного приказа о хранении данных в ChatGPT, ответ для потребительских планов на данный момент — нет.
  4. Есть ли у вашей команды единый инструментарий? Индивидуальные подписки у 20 человек означают 20 отдельных отношений по комплаенсу.
  5. Какова общая стоимость? Включите не только стоимость подписки, но и расходы на комплаенс, переговоры по DPA и время на оценку рисков вендора.

Итог

ChatGPT — это мощный инструмент. В то же время это обработчик данных, который хранит ваши диалоги неопределенный срок, использует их для обучения по умолчанию и действует в рамках судебных постановлений, которые имеют приоритет над его собственными правилами удаления данных.

Для частных лиц такие компромиссы могут быть приемлемы. Для команд, работающих с конфиденциальной информацией клиентов, данными пациентов, финансовыми отчетами или конкурентной разведкой, они представляют реальный риск.

Архитектура BYOK полностью исключает поставщика инструмента из уравнения комплаенса. Ваши данные никогда не попадают к посреднику. Не требуется DPA (соглашение об обработке данных). Никаких обязательств по Статье 28 GDPR перед поставщиком инструмента. Никакого бессрочного хранения переписок вашей команды на сторонних серверах.

Выбор стоит не между использованием ИИ и отказом от него. Это выбор между ИИ с контролем и ИИ без него.


Caiioo использует архитектуру BYOK с локальным хранением данных. Ваши разговоры никогда не попадают на наши серверы. Узнайте больше о нашей архитектуре конфиденциальности или начните бесплатно.