Ito ay isang machine translation ng orihinal na dokumentong Ingles. Sa kaganapan ng anumang salungatan sa pagitan ng pagsasaling ito at ng orihinal na bersyong Ingles, ang bersyong Ingles ang mangingibabaw. Basahin ang orihinal na bersyong Ingles


Gaano Karaming Datos ang Iniiimbak ng ChatGPT Tungkol sa Iyo? Isang Teknikal na Audit

2026-04-02 · Caiioo Team

Kung gumagamit ka ng ChatGPT sa trabaho, malamang na may mga katanungan ang iyong employer. Kung ikaw ang employer, dapat ka talagang magkaroon nito.

Ito ay isang teknikal na audit sa kung ano ang kinokolekta ng OpenAI, gaano nila ito katagal itinatago, at kung ano ang kahulugan nito para sa mga koponan sa mga industriyang may regulasyon. Susuriin din natin kung paano binabago ng arkitekturang Bring Your Own Key (BYOK) ang kabuuan ng sitwasyon.

Ano ang Iniiimbak ng ChatGPT: Ang Buong Larawan

Isinasaad ng sariling dokumentasyon ng help center ng OpenAI na ang mga chat ay "nakasave sa iyong account hanggang sa manual mo itong burahin." Kapag binura mo ang isang chat, ito ay "tinatanggal sa iyong account kaagad at nakatakda para sa permanenteng pagtanggal mula sa mga system ng OpenAI sa loob ng 30 araw" -- maliban kung ito ay na-de-identify na, o kailangang panatilihin ng OpenAI para sa seguridad o legal na obligasyon.

Ngunit ang mga pag-uusap ay bahagi lamang ng kuwento. Inilalarawan ng privacy policy ng OpenAI ang malawak na awtomatikong pagkolekta ng data:

  • Log data -- IP address, uri at setting ng browser, petsa at oras ng mga request, at kung paano ka nakikipag-ugnayan sa mga serbisyo
  • Usage data -- mga uri ng nilalaman na tinitingnan o kinasasangkutan mo, mga tampok na ginagamit mo, mga aksyong ginagawa mo, at feedback na isinusumite mo
  • Device information -- pangalan ng device, operating system, mga identifier ng device, at uri ng browser
  • Account information -- pangalan, mga detalye ng contact, impormasyon sa pagbabayad, at kasaysayan ng transaksyon

Ang metadata na ito ay lumilikha ng isang detalyadong behavioral profile para sa bawat user. Kahit na hindi ka kailanman magbahagi ng sensitibong impormasyon sa isang prompt, ang iyong mga pattern ng paggamit pa lamang ay nagpapakita na ng makabuluhang impormasyon tungkol sa iyong trabaho.

Ang Court Order na Nagpabago sa Lahat

Noong Mayo 2025, isang federal court order (Case No. 1:23-cv-11195, S.D.N.Y.) mula kay Magistrate Judge Ona T. Wang sa New York Times v. OpenAI copyright litigation ay nag-atas sa OpenAI na "panatilihin at ihiwalay ang lahat ng output log data na kung hindi ay mabubura" -- nang walang katapusan. Ang motion for reconsideration ng OpenAI ay tinanggihan noong Mayo 16, 2025.

Ang ibig sabihin nito sa pagsasanay: kahit na binura mo ang iyong mga chat, maaaring legal na obligahin ang OpenAI na panatilihin ang mga ito. Ang 30-araw na window ng pagtanggal na inilarawan sa kanilang privacy policy ay pinapawalang-bisa ng mandato ng korte. Noong Enero 2026, pinagtibay ni District Judge Sidney Stein ang utos, na nag-aatas sa OpenAI na maglabas ng sample ng 20 milyong de-identified user logs -- mga prompt at output -- bilang ebidensya sa discovery.

Ang Iyong mga Pag-uusap ay Maaaring Gamitin sa Pagsasanay ng mga Susunod na Model

Bilang default, ang mga pag-uusap sa mga consumer plan ay ginagamit para sa pagsasanay ng model. Isinasaad ng sariling dokumentasyon ng help center ng OpenAI: "Kapag ginamit mo ang aming mga serbisyo para sa mga indibidwal tulad ng ChatGPT, Codex, at Sora, maaari naming gamitin ang iyong nilalaman upang sanayin ang aming mga model." Maaari kang mag-opt out sa pamamagitan ng privacy portal o sa pamamagitan ng Settings > Data Controls -- ngunit gaya ng tala ng OpenAI, "kapag nag-opt out ka na, ang mga bagong pag-uusap ay hindi na gagamitin upang sanayin ang aming mga model." Anumang data na naisumite na ay mananatili sa training pipeline.

Ang pag-opt out ay hindi rin nagbabago sa kung gaano katagal iniimbak ang iyong data. Binabago lamang nito kung ito ba ay gagamitin upang pahusayin ang mga model.

Enterprise vs. Indibidwal: Isang Two-Tier na Sistema

Nagpapatakbo ang OpenAI ng isang malinaw na two-tier privacy model:

Indibidwal (Free/Plus/Pro) Enterprise/Edu
Pagpapanatili ng data Walang katapusan (utos ng korte) Kontrolado ng Admin
Paggamit sa pagsasanay Default na oo (may opt-out) Walang default na pagsasanay
Exempt sa utos ng korte? Hindi Oo
Mga kontrol ng admin Wala Buong mga patakaran sa pagpapanatili
Timeline ng pagtanggal 30 araw (kung pinahihintulutan) 30 araw, nako-configure ng admin

Para sa mga indibidwal na user, walang paraan upang matiyak na ang iyong data ay talagang nabura. Para sa mga customer ng Enterprise, ang mga administrator ng workspace ang nagkokontrol sa pagpapanatili, at ang data ay hindi ginagamit para sa pagsasanay bilang default.

Ang problema para sa maliliit at katamtamang laki ng mga koponan: ang mga Enterprise plan ay nagsisimula sa malalaking minimum. Ang isang consulting firm na may 10 tao ay hindi makaka-access sa mga privacy control na pang-Enterprise-tier.

GDPR Compliance: Isang Bukas na Katanungan

Ang mga kasanayan sa walang katapusang pagpapanatili ng ChatGPT ay naglalatag ng mga seryosong katanungan tungkol sa GDPR compliance, partikular na sa mga prinsipyo ng data minimization at storage limitation. Noong Marso 2023, ang data protection authority ng Italy (Garante per la Protezione dei Dati Personali) ay naglabas ng emergency order na pansamantalang nagbabawal sa ChatGPT, na binabanggit ang mga paglabag sa GDPR Articles 5, 6, 8, 13, at 25 -- kabilang ang kawalan ng legal na batayan para sa pagkolekta ng data, walang privacy notice sa mga user, at walang age verification. Ang ban ay binawi noong Abril 2023 matapos magpatupad ng mga pagbabago ang OpenAI, ngunit ang mas malawak na regulasyon ay nananatiling hindi pa nareresolba.

Para sa mga team na humahawak ng data ng kliyente sa mga regulated na industriya -- legal, healthcare, financial services -- ang paggamit ng ChatGPT ay nangangahulugan ng pagtanggap sa OpenAI bilang isang data processor. Nag-ti-trigger iyon ng mga obligasyon sa ilalim ng GDPR Article 28: kailangan mo ng Data Processing Agreement (DPA), kailangan mong idokumento ang mga aktibidad sa pagproseso, at kailangan mong tiyakin na natutugunan ng processor ang iyong mga kinakailangan sa seguridad.

Ang Nakatagong Gastos: Compliance Overhead

Kapag gumagamit ang iyong koponan ng ChatGPT, ang OpenAI ay nagiging data processor sa iyong compliance chain. Ibig sabihin nito:

  1. Kinakailangan ang isang Data Processing Agreement (DPA) -- na tumutukoy kung paano pinangangasiwaan ng OpenAI ang personal na data para sa iyo, na tumutukoy sa mga hakbang sa seguridad, mga limitasyon sa sub-processing, at mga tungkulin sa pag-abiso ng breach.
  2. Nag-a-activate ang mga obligasyon sa GDPR Article 28 -- dapat lamang iproseso ng mga processor ang data ayon sa iyong mga tagubilin, tiyakin ang pagiging kumpidensyal, magpatupad ng mga hakbang sa seguridad, mag-abiso ng mga breach, at payagan ang mga audit.
  3. Dapat isama sa iyong pagsusuri sa seguridad ang OpenAI -- bawat vendor risk assessment, bawat tanong sa SOC 2 audit, bawat security questionnaire ng kliyente ay mayroon na ngayong karagdagang dependency.

Para sa isang law firm o healthcare practice na may 20 tao, ang compliance overhead na ito ay maaaring mas mahal pa kaysa sa mismong subscription.

Ano ang Binabago ng Arkitekturang BYOK

Ang Bring Your Own Key (BYOK) ay isang architectural pattern kung saan ang AI tool ay hindi kailanman humahawak sa iyong data. Sa halip:

  1. Nagbibigay ka ng sarili mong API key mula sa AI provider (OpenAI, Anthropic, Google, atbp.)
  2. Direktang dumadaan ang mga query mula sa iyong device patungo sa provider -- ang tool ay hindi kailanman nagiging tagapamagitan
  3. Walang itinatago ang tool -- walang mga pag-uusap, walang metadata, walang behavioral profiles
  4. Walang DPA na kinakailangan sa vendor ng tool -- dahil hindi ito isang data processor

Ang pagkakaiba sa daloy ng data ay pundamental:

ChatGPT (Cloud-Hosted) Arkitekturang BYOK
Daanan ng data Ikaw > Mga server ng OpenAI > Model > OpenAI > Ikaw Ikaw > Provider API nang direkta > Ikaw
Tagapamagitan Pinangangasiwaan ng OpenAI ang lahat ng query Wala -- direktang mga API call
Visibility ng data Naglo-log at nakikita ng platform ang lahat ng query Nakikita lamang ng provider ang API call
Imbakan Sa mga server ng OpenAI, walang katapusan Lokal na device lamang
Vendor ng tool bilang processor? Oo Hindi

Sa BYOK, ang iyong relasyon sa compliance ay sa AI provider lamang na pipiliin mo, sa mga tuntuning direktang makikipag-ayos ka. Ang tool mismo ay hindi nakikita sa iyong compliance chain.

Ano ang Ibig Sabihin Nito para sa Iyong Koponan

Isang survey noong 2026 sa 2,600 na propesyonal sa privacy at seguridad ang nakakita na 64% ang nag-aalala tungkol sa hindi sinasadyang pagbabahagi ng sensitibong data sa pamamagitan ng mga generative AI tool -- gayunpaman, halos kalahati ang umamin na naglalagay pa rin ng personal o hindi pampublikong data. Ang agwat sa pagitan ng pag-aalala at gawi ay kung saan nananahan ang panganib.

Kung ikaw ang responsable sa AI governance sa iyong organisasyon, narito ang mga tanong na dapat itanong:

  1. Ang iyong AI tool ba ay isang data processor? Kung oo, kailangan mo ng DPA, dokumentasyon ng compliance, at patuloy na vendor risk assessment.
  2. Saan nananatili ang data ng pag-uusap? Ang cloud-hosted ay nangangahulugang sa mga server ng vendor. Ang BYOK na may local-first storage ay nangangahulugang sa iyong mga device.
  3. Maititiyak mo ba ang pagtanggal? Sa utos ng korte sa pagpapanatili ng ChatGPT, ang sagot sa kasalukuyan ay hindi para sa mga consumer plan.
  4. Mayroon bang pare-parehong tooling ang iyong koponan? Ang mga indibidwal na subscription sa 20 tao ay nangangahulugang 20 magkakahiwalay na relasyon sa compliance.
  5. Ano ang kabuuang gastos? Isama hindi lamang ang mga bayad sa subscription, kundi pati na rin ang compliance overhead, negosasyon sa DPA, at oras para sa vendor risk assessment.

Ang Konklusyon

Ang ChatGPT ay isang makapangyarihang tool. Isa rin itong data processor na nagpapanatili ng iyong mga pag-uusap nang walang katapusan, ginagamit ang mga ito para sa pagsasanay bilang default, at gumagana sa ilalim ng utos ng korte na nangingibabaw sa sarili nitong mga patakaran sa pagbura.

Para sa mga indibidwal, ang mga tradeoff na ito ay maaaring katanggap-tanggap. Para sa mga team na humahawak ng kumpidensyal na impormasyon ng kliyente, data ng pasyente, mga rekord sa pananalapi, o competitive intelligence, ang mga ito ay kumakatawan sa tunay na panganib.

Inaalis ng BYOK architecture ang tool vendor mula sa equation ng compliance. Ang iyong data ay hindi kailanman dumadaan sa isang intermediary. Walang DPA na kailangan. Walang mga obligasyon sa GDPR Article 28 sa tool vendor. Walang walang-hanggang pagpapanatili ng mga pag-uusap ng iyong team sa mga server ng third party.

Ang pagpipilian ay hindi sa pagitan ng AI at walang AI. Ito ay sa pagitan ng AI na may pamamahala at AI na wala nito.


Gumagamit ang Caiioo ng BYOK architecture na may local-first storage. Ang iyong mga pag-uusap ay hindi kailanman dumadaan sa aming mga server. Matuto pa tungkol sa aming privacy architecture o magsimula nang FREE.