Ini adalah terjemahan mesin dari dokumen asli berbahasa Inggris. Jika terjadi perbedaan antara terjemahan ini dan versi asli bahasa Inggris, maka versi bahasa Inggris yang akan berlaku. Baca versi asli bahasa Inggris


Berapa Banyak Data yang Disimpan ChatGPT Tentang Anda? Audit Teknis

2026-04-02 · Caiioo Team

Jika Anda menggunakan ChatGPT di tempat kerja, pemberi kerja Anda mungkin memiliki pertanyaan. Jika Anda adalah pemberi kerjanya, Anda pasti harus memilikinya.

Ini adalah audit teknis tentang apa yang dikumpulkan OpenAI, berapa lama mereka menyimpannya, dan apa artinya bagi tim di industri yang teregulasi. Kami juga akan melihat bagaimana arsitektur Bring Your Own Key (BYOK) mengubah persamaan tersebut sepenuhnya.

Apa yang Disimpan ChatGPT: Gambaran Lengkap

Dokumentasi pusat bantuan milik OpenAI sendiri menyatakan bahwa obrolan "disimpan di akun Anda sampai Anda menghapusnya secara manual." Saat Anda menghapus obrolan, obrolan tersebut "segera dihapus dari akun Anda dan dijadwalkan untuk penghapusan permanen dari sistem OpenAI dalam waktu 30 hari" -- kecuali jika data tersebut telah dianonimkan, atau OpenAI harus menyimpannya untuk kewajiban keamanan atau hukum.

Namun, percakapan hanyalah sebagian dari cerita. Kebijakan privasi OpenAI menjelaskan pengumpulan data otomatis yang ekstensif:

  • Data log -- alamat IP, jenis dan pengaturan browser, tanggal dan waktu permintaan, serta cara Anda berinteraksi dengan layanan
  • Data penggunaan -- jenis konten yang Anda lihat atau gunakan, fitur yang Anda gunakan, tindakan yang Anda ambil, dan umpan balik yang Anda kirimkan
  • Informasi perangkat -- nama perangkat, sistem operasi, pengidentifikasi perangkat, dan jenis browser
  • Informasi akun -- nama, rincian kontak, informasi pembayaran, dan riwayat transaksi

Metadata ini menciptakan profil perilaku terperinci untuk setiap pengguna. Bahkan jika Anda tidak pernah membagikan informasi sensitif dalam perintah (prompt), pola penggunaan Anda saja sudah mengungkapkan informasi signifikan tentang pekerjaan Anda.

Perintah Pengadilan yang Mengubah Segalanya

Pada Mei 2025, sebuah perintah pengadilan federal (Kasus No. 1:23-cv-11195, S.D.N.Y.) dari Hakim Magistrate Ona T. Wang dalam litigasi hak cipta New York Times v. OpenAI mewajibkan OpenAI untuk "menyimpan dan memisahkan semua data log output yang seharusnya dihapus" -- tanpa batas waktu. Permohonan pertimbangan ulang OpenAI ditolak pada 16 Mei 2025.

Apa artinya ini dalam praktiknya: bahkan jika Anda menghapus obrolan Anda, OpenAI mungkin diwajibkan secara hukum untuk melestarikannya. Jendela penghapusan 30 hari yang dijelaskan dalam kebijakan privasi mereka dikesampingkan oleh mandat pengadilan. Pada Januari 2026, Hakim Distrik Sidney Stein menguatkan perintah tersebut, mewajibkan OpenAI untuk menyerahkan sampel 20 juta log pengguna yang telah dianonimkan -- baik perintah maupun output -- sebagai bukti penemuan (discovery).

Percakapan Anda Mungkin Melatih Model Masa Depan

Secara default, percakapan pada paket konsumen digunakan untuk pelatihan model. Dokumentasi pusat bantuan OpenAI sendiri menyatakan: "Saat Anda menggunakan layanan kami untuk individu seperti ChatGPT, Codex, dan Sora, kami dapat menggunakan konten Anda untuk melatih model kami." Anda dapat memilih untuk keluar (opt-out) melalui portal privasi atau melalui Pengaturan > Kontrol Data -- namun seperti yang dicatat OpenAI, "setelah Anda memilih keluar, percakapan baru tidak akan digunakan untuk melatih model kami." Data apa pun yang sudah dikirimkan tetap berada dalam pipa pelatihan.

Memilih keluar juga tidak mengubah berapa lama data Anda disimpan. Hal itu hanya mengubah apakah data tersebut digunakan untuk meningkatkan model atau tidak.

Enterprise vs. Individu: Sistem Dua Tingkat

OpenAI mengoperasikan model privasi dua tingkat yang jelas:

Individu (GRATIS/Plus/Pro) Enterprise/Edu
Retensi data Tanpa batas waktu (perintah pengadilan) Dikontrol admin
Penggunaan pelatihan Default ya (tersedia opsi keluar) Tidak ada pelatihan default
Pengecualian perintah pengadilan? Tidak Ya
Kontrol admin Tidak ada Kebijakan retensi penuh
Garis waktu penghapusan 30 hari (jika diizinkan) 30 hari, dapat dikonfigurasi admin

Untuk pengguna individu, tidak ada cara untuk menjamin data Anda benar-benar dihapus. Untuk pelanggan Enterprise, administrator ruang kerja mengontrol retensi, dan data tidak digunakan untuk pelatihan secara default.

Masalah bagi tim kecil dan menengah: paket Enterprise dimulai dengan minimum yang signifikan. Firma konsultan beranggotakan 10 orang tidak dapat mengakses kontrol privasi tingkat Enterprise.

Kepatuhan GDPR: Sebuah Pertanyaan Terbuka

Praktik penyimpanan tanpa batas waktu ChatGPT menimbulkan pertanyaan serius tentang kepatuhan GDPR, terutama seputar prinsip minimisasi data dan batasan penyimpanan. Pada Maret 2023, otoritas perlindungan data Italia (Garante per la Protezione dei Dati Personali) mengeluarkan perintah darurat yang melarang ChatGPT untuk sementara, mengutip pelanggaran Pasal 5, 6, 8, 13, dan 25 GDPR -- termasuk tidak adanya dasar hukum untuk pengumpulan data, tidak adanya pemberitahuan privasi kepada pengguna, dan tidak adanya verifikasi usia. Larangan tersebut dicabut pada April 2023 setelah OpenAI menerapkan perubahan, tetapi gambaran regulasi yang lebih luas tetap belum terselesaikan.

Bagi tim yang menangani data klien di industri yang teregulasi -- hukum, kesehatan, layanan keuangan -- menggunakan ChatGPT berarti menerima OpenAI sebagai pemroses data. Hal itu memicu kewajiban Pasal 28 GDPR: Anda memerlukan Perjanjian Pemrosesan Data (DPA), Anda perlu mendokumentasikan aktivitas pemrosesan, dan Anda perlu memastikan pemroses memenuhi persyaratan keamanan Anda.

Biaya Tersembunyi: Beban Kepatuhan

Saat tim Anda menggunakan ChatGPT, OpenAI menjadi prosesor data dalam rantai kepatuhan Anda. Ini berarti:

  1. Perjanjian Pemrosesan Data (DPA) diperlukan -- menentukan bagaimana OpenAI menangani data pribadi atas nama Anda, merinci langkah-langkah keamanan, batas sub-pemrosesan, dan tugas pemberitahuan pelanggaran.
  2. Kewajiban GDPR Pasal 28 aktif -- prosesor hanya boleh memproses data sesuai instruksi Anda, menjamin kerahasiaan, menerapkan langkah-langkah keamanan, memberitahukan pelanggaran, dan mengizinkan audit.
  3. Tinjauan keamanan Anda harus mencakup OpenAI -- setiap penilaian risiko vendor, setiap pertanyaan audit SOC 2, setiap kuesioner keamanan klien sekarang memiliki ketergantungan tambahan.

Untuk firma hukum atau praktik kesehatan beranggotakan 20 orang, beban kepatuhan ini bisa lebih mahal daripada langganan itu sendiri.

Apa yang Diubah oleh Arsitektur BYOK

Bring Your Own Key (BYOK) adalah pola arsitektur di mana alat AI tidak pernah menyentuh data Anda. Sebaliknya:

  1. Anda memberikan kunci API Anda sendiri dari penyedia AI (OpenAI, Anthropic, Gemini, dll.)
  2. Kueri dirutekan langsung dari perangkat Anda ke penyedia -- alat tersebut tidak pernah menjadi perantara
  3. Alat tersebut tidak menyimpan apa pun -- tidak ada percakapan, tidak ada metadata, tidak ada profil perilaku
  4. Tidak diperlukan DPA dengan vendor alat -- karena alat tersebut bukan prosesor data

Perbedaan aliran data sangat mendasar:

ChatGPT (Berbasis Cloud) Arsitektur BYOK
Jalur data Anda > Server OpenAI > Model > OpenAI > Anda Anda > API Penyedia secara langsung > Anda
Perantara OpenAI menangani semua kueri Tidak ada -- panggilan API langsung
Visibilitas data Platform mencatat dan melihat semua kueri Penyedia hanya melihat panggilan API
Penyimpanan Di server OpenAI, tanpa batas waktu Hanya di perangkat lokal
Vendor alat sebagai prosesor? Ya Tidak

Dengan BYOK, hubungan kepatuhan Anda hanya dengan penyedia AI yang Anda pilih, dengan persyaratan yang Anda negosiasikan secara langsung. Alat itu sendiri tidak terlihat oleh rantai kepatuhan Anda.

Apa Artinya Ini bagi Tim Anda

Survei tahun 2026 terhadap 2.600 profesional privasi dan keamanan menemukan bahwa 64% khawatir tentang berbagi data sensitif secara tidak sengaja melalui alat AI generatif -- namun sekitar setengahnya mengaku tetap memasukkan data pribadi atau non-publik. Kesenjangan antara kekhawatiran dan perilaku adalah tempat risiko berada.

Jika Anda bertanggung jawab atas tata kelola AI di organisasi Anda, berikut adalah pertanyaan yang harus diajukan:

  1. Apakah alat AI Anda merupakan prosesor data? Jika ya, Anda memerlukan DPA, dokumentasi kepatuhan, dan penilaian risiko vendor yang berkelanjutan.
  2. Di mana data percakapan berada? Berbasis cloud berarti server vendor. BYOK dengan penyimpanan lokal-pertama berarti perangkat Anda.
  3. Dapatkah Anda menjamin penghapusan? Dengan retensi ChatGPT yang diperintahkan pengadilan, jawabannya saat ini adalah tidak untuk paket konsumen.
  4. Apakah tim Anda memiliki alat yang konsisten? Langganan individu di 20 orang berarti 20 hubungan kepatuhan yang terpisah.
  5. Berapa total biayanya? Sertakan tidak hanya biaya langganan, tetapi juga beban kepatuhan, negosiasi DPA, dan waktu penilaian risiko vendor.

Intinya

ChatGPT adalah alat yang ampuh. Ia juga merupakan pemroses data yang menyimpan percakapan Anda tanpa batas waktu, menggunakannya untuk pelatihan secara default, dan beroperasi di bawah perintah pengadilan yang mengesampingkan kebijakan penghapusannya sendiri.

Bagi individu, pertukaran ini mungkin dapat diterima. Bagi tim yang menangani informasi rahasia klien, data pasien, catatan keuangan, atau intelijen kompetitif, hal ini mewakili risiko nyata.

Arsitektur BYOK menghilangkan vendor alat dari persamaan kepatuhan sepenuhnya. Data Anda tidak pernah menyentuh perantara. Tidak diperlukan DPA. Tidak ada kewajiban GDPR Pasal 28 dengan vendor alat. Tidak ada retensi percakapan tim Anda tanpa batas waktu di server pihak ketiga.

Pilihannya bukan antara AI dan tanpa AI. Pilihannya adalah antara AI dengan tata kelola dan AI tanpanya.


Caiioo menggunakan arsitektur BYOK dengan penyimpanan lokal-pertama. Percakapan Anda tidak pernah menyentuh server kami. Pelajari lebih lanjut tentang arsitektur privasi kami atau mulai secara GRATIS.