זוהי תרגום מכונה של המסמך המקורי באנגלית. במקרה של סתירה בין תרגום זה לבין הגרסה המקורית באנגלית, הגרסה באנגלית היא הקובעת. קרא את הגרסה המקורית באנגלית


כמה נתונים ChatGPT שומר עליך? ביקורת טכנית

2026-04-02 · Caiioo Team

אם אתם משתמשים ב-ChatGPT בעבודה, למעסיק שלכם כנראה יש שאלות. אם אתם המעסיקים, בהחלט צריכות להיות לכם.

זוהי ביקורת טכנית על מה OpenAI אוספת, כמה זמן היא שומרת זאת, ומה המשמעות עבור צוותים בתעשיות מוסדרות. נבחן גם כיצד ארכיטקטורת Bring Your Own Key (BYOK) משנה את המשוואה לחלוטין.

מה ChatGPT מאחסן: התמונה המלאה

תיעוד מרכז העזרה של OpenAI עצמה מציין כי צ'אטים "נשמרים בחשבון שלך עד שתמחק אותם ידנית". כאשר אתה מוחק צ'אט, הוא "מוסר מחשבונך באופן מיידי ומתוזמן למחיקה לצמיתות ממערכות OpenAI תוך 30 יום" -- אלא אם כן הוא כבר עבר תהליך של הסרת פרטים מזהים, או ש-OpenAI חייבת לשמור אותו מסיבות אבטחה או התחייבויות משפטיות.

אך שיחות הן רק חלק מהסיפור. מדיניות הפרטיות של OpenAI מתארת איסוף נתונים אוטומטי נרחב:

  • נתוני לוג (Log data) -- כתובת IP, סוג דפדפן והגדרות, תאריך ושעה של בקשות, וכיצד אתה מקיים אינטראקציה עם השירותים
  • נתוני שימוש (Usage data) -- סוגי התוכן שבהם אתה צופה או מעורב, תכונות שבהן אתה משתמש, פעולות שאתה מבצע ומשוב שאתה שולח
  • מידע על המכשיר -- שם המכשיר, מערכת ההפעלה, מזהי מכשיר וסוג הדפדפן
  • מידע על החשבון -- שם, פרטי קשר, מידע על תשלומים והיסטוריית עסקאות

מטא-נתונים אלו יוצרים פרופיל התנהגותי מפורט עבור כל משתמש. גם אם לעולם לא תשתף מידע רגיש בתוך הנחיה (prompt), דפוסי השימוש שלך לבדם חושפים מידע משמעותי על עבודתך.

הצו השיפוטי ששינה הכל

במאי 2025, צו בית משפט פדרלי (תיק מס' 1:23-cv-11195, S.D.N.Y.) מהשופטת אונה ט. וואנג בליטיגציית זכויות היוצרים New York Times v. OpenAI, דרש מ-OpenAI "לשמור ולהפריד את כל נתוני לוג הפלט שאחרת היו נמחקים" -- ללא הגבלת זמן. הבקשה לעיון חוזר של OpenAI נדחתה ב-16 במאי 2025.

מה זה אומר בפועל: גם אם מחקת את הצ'אטים שלך, ייתכן ש-OpenAI מחויבת משפטית לשמר אותם. חלון המחיקה של 30 יום המתואר במדיניות הפרטיות שלהם מבוטל על ידי המנדט של בית המשפט. בינואר 2026, שופט המחוז סידני שטיין אישר את הצו, ודרש מ-OpenAI להמציא דגימה של 20 מיליון לוגים של משתמשים ללא פרטים מזהים — הנחיות ופלטים — כראיות בתהליך הגילוי.

השיחות שלך עשויות לאמן מודלים עתידיים

כברירת מחדל, שיחות בתוכניות לצרכנים פרטיים משמשות לאימון מודלים. תיעוד מרכז העזרה של OpenAI מציין: "כאשר אתה משתמש בשירותים שלנו ליחידים כגון ChatGPT, Codex ו-Sora, אנו עשויים להשתמש בתוכן שלך כדי לאמן את המודלים שלנו." אתה יכול לבטל את ההסכמה דרך פורטל הפרטיות או דרך הגדרות > בקרת נתונים -- אך כפי ש-OpenAI מציינת, "ברגע שתבטל את ההסכמה, שיחות חדשות לא ישמשו לאימון המודלים שלנו." כל נתון שכבר נשלח נשאר בצינור האימון.

ביטול ההסכמה גם אינו משנה את משך הזמן שבו הנתונים שלך מאוחסנים. הוא רק משנה האם הם משמשים לשיפור המודלים.

Enterprise מול פרטי: מערכת דו-שכבתית

OpenAI מפעילה מודל פרטיות ברור בעל שתי שכבות:

פרטי (Free/Plus/Pro) Enterprise/Edu
שמירת נתונים ללא הגבלה (בצו בית משפט) בשליטת מנהל
שימוש לאימון כן כברירת מחדל (ניתן לביטול) ללא אימון כברירת מחדל
פטור מצו בית משפט? לא כן
בקרת מנהל אין מדיניות שמירה מלאה
לוח זמנים למחיקה 30 יום (כשמתאפשר) 30 יום, ניתן להגדרה ע"י מנהל

עבור משתמשים פרטיים, אין דרך להבטיח שהנתונים שלכם אכן נמחקים. עבור לקוחות Enterprise, מנהלי סביבת העבודה שולטים בשמירת הנתונים, והנתונים אינם משמשים לאימון כברירת מחדל.

הבעיה עבור צוותים קטנים ובינוניים: תוכניות Enterprise מתחילות במינימום משתמשים משמעותי. משרד ייעוץ של 10 אנשים אינו יכול לגשת לבקרות הפרטיות של דרגת ה-Enterprise.

עמידה ב-GDPR: שאלה פתוחה

נוהלי השמירה ללא הגבלת זמן של ChatGPT מעלים שאלות רציניות לגבי העמידה ב-GDPR, במיוחד סביב עקרונות מזעור הנתונים והגבלת האחסון. במרץ 2023, רשות הגנת המידע של איטליה (Garante per la Protezione dei Dati Personali) הוציאה צו חירום האוסר זמנית על ChatGPT, תוך ציון הפרות של סעיפים 5, 6, 8, 13 ו-25 ב-GDPR -- כולל היעדר בסיס חוקי לאיסוף נתונים, אי-מתן הודעת פרטיות למשתמשים ואי-אימות גיל. האיסור הוסר באפריל 2023 לאחר ש-OpenAI הטמיעה שינויים, אך התמונה הרגולטורית הרחבה יותר נותרה לא פתורה.

עבור צוותים המטפלים בנתוני לקוחות בתעשיות מוסדרות — משפט, בריאות, שירותים פיננסיים — שימוש ב-ChatGPT פירושו קבלת OpenAI כמעבד נתונים (data processor). זה מפעיל את המחויבויות לפי סעיף 28 ב-GDPR: עליך להחזיק בהסכם עיבוד נתונים (DPA), עליך לתעד פעילויות עיבוד, ועליך לוודא שהמעבד עומד בדרישות האבטחה שלך.

העלות הנסתרת: עומס ציות

כאשר הצוות שלכם משתמש ב-ChatGPT, חברת OpenAI הופכת למעבד נתונים בשרשרת הציות שלכם. זה אומר:

  1. נדרש הסכם עיבוד נתונים (DPA) -- המגדיר כיצד OpenAI מטפלת במידע אישי מטעמכם, מפרט אמצעי אבטחה, מגבלות על מעבדי משנה וחובות דיווח על פריצות.
  2. מחויבויות סעיף 28 של ה-GDPR נכנסות לתוקף -- מעבדים חייבים לעבד נתונים רק לפי ההוראות שלכם, להבטיח סודיות, ליישם אמצעי אבטחה, לדווח על פריצות ולאפשר ביקורות.
  3. סקירת האבטחה שלכם חייבת לכלול את OpenAI -- כל הערכת סיכוני ספקים, כל שאלת ביקורת SOC 2 וכל שאלון אבטחה של לקוח כוללים כעת תלות נוספת.

עבור משרד עורכי דין או מרפאה של 20 איש, עומס הציות הזה יכול להיות יקר יותר מהמנוי עצמו.

מה ארכיטקטורת BYOK משנה

Bring Your Own Key (BYOK) היא תבנית ארכיטקטונית שבה כלי ה-AI לעולם אינו נוגע בנתונים שלכם. במקום זאת:

  1. אתם מספקים מפתח API משלכם מספק ה-AI (OpenAI, Anthropic, Google וכו')
  2. השאילתות מנותבות ישירות מהמכשיר שלכם לספק -- הכלי לעולם אינו משמש כמתווך
  3. הכלי אינו מאחסן דבר -- ללא שיחות, ללא מטא-דאטה, ללא פרופילים התנהגותיים
  4. לא נדרש DPA מול ספק הכלי -- כיוון שהוא אינו מעבד נתונים

ההבדל בזרימת הנתונים הוא יסודי:

ChatGPT (מבוסס ענן) ארכיטקטורת BYOK
נתיב הנתונים אתם > שרתי OpenAI > מודל > OpenAI > אתם אתם > API של הספק ישירות > אתם
מתווך OpenAI מטפלת בכל השאילתות אין -- קריאות API ישירות
נראות נתונים הפלטפורמה מתעדת ורואה הכל הספק רואה קריאת API בלבד
אחסון על שרתי OpenAI, ללא הגבלה מכשיר מקומי בלבד
ספק הכלי כמעבד? כן לא

עם BYOK, מערכת היחסים שלכם בנושא ציות היא רק מול ספק ה-AI שבחרתם, בתנאים שאתם מנהלים מולו ישירות. הכלי עצמו שקוף לשרשרת הציות שלכם.

מה זה אומר עבור הצוות שלכם

סקר משנת 2026 בקרב 2,600 אנשי מקצוע בתחומי הפרטיות והאבטחה מצא כי 64% חוששים משיתוף לא מכוון של נתונים רגישים דרך כלי AI גנרטיביים -- ובכל זאת כמחצית מהם מודים בהזנת נתונים אישיים או לא פומביים בכל זאת. הפער בין החשש להתנהגות הוא המקום שבו שוכן הסיכון.

אם אתם אחראים על ממשל AI בארגון שלכם, אלו השאלות שיש לשאול:

  1. האם כלי ה-AI שלכם הוא מעבד נתונים? אם כן, אתם זקוקים ל-DPA, תיעוד ציות והערכת סיכוני ספקים מתמשכת.
  2. היכן נשמרים נתוני השיחות? מבוסס ענן פירושו שרתי הספק. BYOK עם אחסון מקומי (local-first) פירושו המכשירים שלכם.
  3. האם ניתן להבטיח מחיקה? עם שמירת הנתונים בצו בית משפט של ChatGPT, התשובה היא כרגע לא עבור תוכניות צרכניות.
  4. האם לצוות שלכם יש כלים אחידים? מנויים אישיים בקרב 20 אנשים פירושם 20 מערכות יחסים נפרדות של ציות.
  5. מהי העלות הכוללת? כללו לא רק את דמי המנוי, אלא גם את עומס הציות, ניהול משא ומתן על DPA וזמן הערכת סיכוני ספקים.

השורה התחתונה

ChatGPT הוא כלי עוצמתי. הוא גם מעבד נתונים ששומר את השיחות שלך ללא הגבלת זמן, משתמש בהן לאימון כברירת מחדל, ופועל תחת צו בית משפט שעוקף את מדיניות המחיקה של עצמו.

עבור אנשים פרטיים, פשרות אלו עשויות להיות מקובלות. עבור צוותים המטפלים במידע חסוי של לקוחות, נתוני מטופלים, רשומות פיננסיות או מודיעין תחרותי, הן מהוות סיכון אמיתי.

ארכיטקטורת BYOK מוציאה את ספק הכלי לחלוטין ממשוואת הציות (compliance). הנתונים שלך לעולם לא נוגעים במתווך. אין צורך ב-DPA. אין התחייבויות לפי סעיף 28 של ה-GDPR מול ספק הכלי. אין שמירה ללא הגבלת זמן של שיחות הצוות שלך בשרתים של צד שלישי.

הבחירה היא לא בין AI לבין חוסר ב-AI. היא בין AI עם משילות לבין AI בלעדיה.


Caiioo משתמש בארכיטקטורת BYOK עם אחסון מקומי תחילה. השיחות שלך לעולם לא נוגעות בשרתים שלנו. למד עוד על ארכיטקטורת הפרטיות שלנו או התחל בחינם.