המרכז לשיווק ולגיוס דיגיטלי – אורית שירה רונן
צ'אט GPT הפך לחלק בלתי נפרד מהחיים. הוא בכף היד, בעבודה, במערכת החינוך ובכל פינה שבה אנשים מחפשים תשובות, לחשוף רגשות, לשתף דילמות מקצועיות, לנתח עובדים, מבלי לחשוב על ההשלכות, וזה ממכר. מאחורי צוות הסוכנים החכמים, עומדת מערכת טכנולוגית שסורקת, שומרת ומנתחת את מה שנכתב, ורק נדמה שהמידע נמחק או מאוחסן באופן פרטי.
מי שמחפש בצ'אט ג'י פי טי מתכונים לשייקים לא מסכן כלום. אבל מי שמעלה קובץ עם נתוני עובדים או שורה על רעיון למוצר חדש, עובר לאזור אחר לגמרי. וכאן מתחיל הסיפור האמיתי…
כשאתם כותבים משהו בצ׳אט, המידע לא נעלם. כברירת מחדל, הוא נשמר לצורך שיפור. וגם אם כיביתם את היסטוריית השיחות, היא נשמרת לזמן מוגבל עד 30 יום כדי לבדוק אם נעשה בה שימוש לרעה – OpenAI:
"When chat history is enabled, we retain your conversations to improve our models and services. You can turn off chat history anytime from settings."
גם כשמכבים את ההיסטוריה, המידע לא נמחק מיידית:
"When chat history is disabled, new conversations won’t be used to train or improve our models."
כיבוי לא מבטיח מחיקה מלאה. היא לא תיכנס למערכת הלמידה של המודל. במציאות, המידע נשמר (דרישה משפטית).
הניו יורק טיימס היה בין הראשונים להגיש תביעה נגד OpenAI בטענה שקטעים שלמים מתוך הכתבות שלו, הופיעו בתשובות צ'אט ג'י פי טי, ולעיתים מילה במילה.OpenAI צריכה לשמור את כל השיחות, גם אלו שנמחקו כדי לשמש ראיה.
סופרים כמו סארה סילברמן, פול טרמבליי ומונה אוואד, ג'ורג' ר.ר. מרטין ו־17 חברי איגוד הסופרים האמריקאי (Authors Guild), תבעו בשל שימוש בספרים ללא אישור לטובת אימון המודל.
Ziff Davis, המפעילה את אתרי CNET, IGN ו־PCMag, טענה בתביעה שהתכנים שלה משוכפלים בתשובות של GPT מבלי שהוזכרו כמקור. בקנדה, מקורות תקשורת CBC, Globe and Mail ו־The Canadian Press הגישו תביעה דומה נגד OpenAI בטענה לשימוש מסחרי לא מורשה בתכנים עיתונאיים. אפילו בהודו, סוכנות הידיעות ANI פתחה בהליך משפטי לאחר שצ'אט GPT ייחס לה מידע שגוי שלא פורסם על ידה כלל.
המודלים של הבינה המלאכותית לא רק "לומדים שפה", אלא גם זוכרים, שומרים ומחזירים מידע שכבר נכתב ונערך על ידי בני אדם: מבלי לשלם, מבלי לתת קרדיט, ולרוב גם בלי לבקש אישור. סופרים טוענים שספריהם "פורקו" למקטעים והוזנו למודל. עורכים גילו שתוכן חדשותי שנכתב על ידי צוותים אנושיים מופיע מחדש בתשובות שנראות כאילו הן נוצרו על ידי מכונה.
התביעות האלה מתנהלות במקביל בארצות הברית, קנדה, הודו ומדינות נוספות. חלק כבר הגיעו לשלב של קביעת עקרונות משפטיים ראשוניים, אחרות עדיין בתהליך… הכיוון ברור. העולם מתחיל להבין שבינה מלאכותית לא פועלת בתוך ואקום, היא ניזונה מתרבות חיה ונושמת, ו"עפה על עצמה".
זו כבר לא רק שאלה משפטית. זו שאלה של גבולות אתיים, של יצירה, של בעלות ושל כבוד. האם נכון שמכונה תלמד מבלי לבקש רשות? האם יוצרים צריכים לוותר על מה שכתבו כדי שמודל כלשהו יוכל "לנבא" תשובות לאחרים? והאם המשתמשים בכלל מודעים למקור של המידע שהם מקבלים?
הידע שאנחנו צורכים היום, נכתב על ידי מישהו אחר אתמול.
Memory מאפשר לצ'אט GPT לזכור מידע שסיפקתם בשיחות קודמות, ולהשתמש בו בשאילתות כדי לתת תשובות מדויקות יותר. זיכרון פעיל שנשמר מעבר לשיחה הנוכחית, כך שהצ'אט יכול לזהות העדפות, סגנון כתיבה, תחומי עיסוק או מידע אישי שחוזר על עצמו.
במהלך שיחות המערכת עשויה לזהות פרטים שחשוב לשמור לטווח ארוך, ולהציע לשמור אותם – צ'אט GPT טוען. זה אוטומטי ומשפיע על שיחות עתידיות. לדוגמה, אם כתבתם שאתם תמחום פסיכולוגי, המערכת תשתמש בזה כדי להתאים את התשובות באופן אישי. צ'אט ג'יפיטי מעלה השערות, מתאים את התשובות לפי המשתמש. אתם נותנים לו קרדיט, והוא סובל מחרדת נטישה קשה.
CHATGPT – המאצ':
למה זה רגיש?
כי הזיכרון לא שייך לשיחה אחת אלא נשמר ברקע לאורך זמן. גם אם מחקתם את השיחה עצמה, המידע נשמר, הוא לא מועבר למשתמשים אחרים, אבל "עף" לו בענן של OpenAI.
איך מבטלים את הפונקציה?
הזיכרון של צ'אט ג'י פי טי פעיל רק בחלק מהגרסאות: אצל משתמשי Plus או מתקדמות יותר. המידע שנשמר לא משמש ללמידה ישירה של המודל, כן נשמר וניתן לעיבוד.
1. חשבון Free: חשבון חינמי (מבוסס GPT-3.5). אין ב זכרון פעיל. צ'אט GPT לא שומר מידע "לטווח ארוך". השיחות נשמרות זמנית על שרתי OpenAI לצרכי תפעול, אבטחה ושיפור. גם אם תמחקו את ההיסטוריה, הנתונים עשויים להישמר עד 30 יום, ובמקרה של צו משפטי…אפילו יותר.
2. חשבון Plus: חשבון בתשלום (GPT-4) עם Memory פעיל מחודש מרץ 2024ו מופעל בו זכרון הדרגתי לכל המשתמשים.
כאשר הפונקציה פעילה, הצ'אט יזכור את שמכם, סגנון הכתיבה, תחומי עניין, מטרות, בקשות חוזרות… גם מעבר לשיחה אחת.
אם לא תכבו את האפשרות הזאת ידנית, חלק מהמידע האישי שלכם יישמר ויוכל לשמש גם בשיחות עתידיות.
3. חשבון Pro / Team: לקבוצת משתמשים או צוותים בארגון. הזכרון פעיל כברירת מחדל, וייתכן שגם מידע מקצועי ישמר בין שיחות, תלוי איך מנהל הצוות הגדיר את ההרשאות. כאן הסיכון גדול יותר: אם צוות משתמש בצ'אט לעיבוד מסמכים פנימיים או נתוני לקוחות, ייתכן שהמידע יישמר ברקע, גם אם לא הוזן לזיכרון בצורה מפורשת.
4. חשבון Enterprise לארגונים:
בו ניתן להפעיל מדיניות שמכונה Zero Data Retention: שום מידע לא נשמר בשום צורה, לא לשיפור מודל ולא לזיכרון אישי.
חשבון Enterprise לארגונים נחשב לבטוח ביותר מבחינת פרטיות ומומלץ לארגונים שמנהלים מידע רגיש, משפטי או רפואי.
השאלות האתיות והמשפטיות גדלות יחד עם הסחרחורת שהוא הביא. יש לחץ ציבורי וחקיקה מתקדמת באירופה להגן על המשתמש. מצד שני, בארה"ב ובמקומות אחרים עדיין אין רגולציה חזקה שמכריחה חברות כמו OpenAI, גוגל או מטא לשנות מהותית את שיטות השימור שלהן.
כנראה שבעתיד נראה כלים חדשים למחיקה אמיתית, גרסאות פרטיות יותר, ואולי אפילו "קוד אתי גלובלי" לטיפול במידע אישי בבינה מלאכותית. אבל עד אז האחריות נופלת על המשתמשים.
הסכמה בשתיקה. אנשים מוותרים על פרטיות בלי לשים לב. האפליקציות מבקשות הרשאות, מכשירים מתעדים מיקום, שירותים אוספים מידע אישי… וזה קורה, בלי התנגדות. אין מספיק מודעות להיקף החשיפה, ולא מתקיים שיח עמוק על המשמעות שלה. מה שפעם הרגיש כבלתי מתקבל, הפך להרגל.