בחירת שפה:

/
/
האם ניתן לגרום למודלים של AI לשכוח נתונים – האתיקה של הגנת הפרטיות

האם ניתן לגרום למודלים של AI לשכוח נתונים – האתיקה של הגנת הפרטיות

במאמר הקודם שלנו פתחנו דיון בשאלה המסקרנת ” האם הבינה המלאכותית יכולה להונות ולעשות מניפולציות?” במאמר, הסברנו שהבינה המלאכותית אכן מסוגלת להוליך אותנו שולל אך מדובר בהונאה נלמדת, המודלים למדו להטעות ולנצל פרצות תוך כדי אימון, ולא על “דעת עצמן”.
במאמר הפעם של מכללת הורייזון ננסה מעט להרחיב את היריעה ונדון בשאלה “האם ניתן לגרום למודלים של AI לשכוח נתונים”

מה זה בעצם אומר "לשכוח" או "להשכיח" נתונים?

הטכניקה לפיה מלמדים מכונות לזהות דפוסים קיימים בנתונים היסטוריים, לנתחם ולהנפיק תחזיות לגבי תוצאות אפשריות, תוך אספקת נתונים חדשים, כבר מוכרת וישימה בלא מעט גופים, תעשיות ומקצועות שונים. אך מה קורה כאשר מתעורר הצורך או הרצון ללמד את המכונה לשכוח סלקטיבית, חלק מהדברים אותם טרחו ללמדה?
כשרוצים לגרום למודל לשכוח או למחוק נתונים נלמדים, מדובר בהסרת מידע על פי דרישה. זהו תרגול חדש יחסית המכונה Machine Unlearning. מדובר על שינוי משמעותי בדרך בה מתייחסים לעדכוני מודלים ופרטיות נתונים, תוך הבנה והכרה בשלל ההשלכות האתיות של AI. במיוחד לאור המציאות המציגה התמקדות ההולכת וגוברת בבינה מלאכותית בתחומים נרחבים.

Machine Unlearning

טכניקה שמטרתה להסיר באופן סלקטיבי נקודות, נתונים או דפוסים ספציפיים ממודל למידת מכונה מאומן, ללא צורך להתחיל ולאמנו מחדש מנקודת ההתחלה. לטכניקה הזו משמעויות אתיות, מאחר והיא מתייחסת להגנת הפרטיות ולזכות להישכח.
היא בעצם מייצרת את האפשרות לביטול ממוקד של השפעת נתוני משתמש בודדים – על הפרמטרים והתחזיות הנלמדים של המודל. מדובר בתהליך לא פשוט ומורכב מאחר וקשה למחוק דוגמאות אימון מבלי שתהיה השפעה על נתונים וביצועים אחרים של אותו מודל.

השלכות אפשריות של הסרות נתונים

בקשות להסרת נתונים ממערכות בינה מלאכותית מעלות חששות אתיים ומשפטיים משמעותיים, ויש להן השלכות עצומות במיוחד עבור מנתחי הנתונים השונים. בשנים האחרונות, וככל שיותר ויותר פעילויות (חברתיות וכלכליות) מתרחשות באינטרנט עלתה הרגישות לנושא הפרטיות.

רגישות זו הביאה לעליה משמעותית (אך לא מספקת) בתקנות הגנת מידע ברחבי העולם, ואנשים שהנתונים האישיים שלהם מעובדים רשאים לדרוש את הסרת נתוניהם ממאגרי המידע השונים. להסרת המידע (מחיקה) יש השלכות על מערכות ה AI השונות למשל:

  1. שיבוש תהליך הלמידה של המודל. לעתים עלול הדבר לגרום לצורך של הכשרת המודל מחדש, דבר הדורש משאבים רבים של זמן ועלויות. החשש מפני הצורך באימון מחודש עלול להיות מוטה על ידי נטיות כלליות שעשויות למנוע את האימון והמחיקה הנדרשת.
  2. גם אם לא תמיד נאלצים להתחיל מאפס, הרי שתמיד קיים החשש מפגיעה בדיוק ביצועיו של המודל המסוים שטופל – לצורך הסרת נתונים. מדובר במציאת האיזון שבין כיבוד הזכות לפרטיות והקפדה על יעילות המודל ותוצאות הפלט.
  3. משפטית ואתית. כמובן שכיבוד פרטיותו של אדם היא בעלת חשיבות עליונה, וזכותו לפרטיות ולהגנת המידע מעוגנות בתקנות שונות כמו למשל ה GDPR  הגנת המידע הכללי של האיחוד האירופאי או תקנות הגנת הפרטיות (אבטחת מידע), תשע”ז-2017 – כשאי עמידה בחוקים תגרור בעקבותיה שלל עונשים.
  4. בעת הסרת נתונים (ביטול למידה) של נתונים ספציפיים, קיים הכרח לוודא שההסרה היא מלאה ואיננה חלקית, מאחר והסרה חלקית תיחשב להפרת הנחיות האתיקה.

חשיבות ביטול למידת מכונה לפרטיות הנתונים

בין הדאגות השונות שמביאה איתה הטכנולוגיה נמצא הפוטנציאל לפרצת מידע. מערכות AI מטפלות ביעילות בכמויות אינסוף של נתונים אישיים, כלכליים, צבאיים ועוד כולם נתונים רגישים שהפכו עד מהרה, את מערכות ה AI למטרה לפושעי סייבר. בין הסכנות ניתן למנות : גישה לא מרשית, דליפת נתונים בשל הצפנה לא מספקת, רשלנות ועוד. באופן די הגיוני, הדעות סביב הנושא חלוקות. יש הטוענים שביטול/מחיקת פרטים של למידת מכונה לא יעזור, מאחר והיא עצמה בעצם בעלת תפקיד משמעותי בזיהוי חריגות שתפקידן דווקא להגן על נתונים רגישים. ולכן אמורה להיות ההתמקדות בקידום מערכות אבטחה שתמנענה גישה לא מורשת והפרות נתונים או פרטיות.

מצד שני קיים החשש המתמיד שמתוך עצם הסתמכותה של בינה מלאכותית על ניתוח מערכים נרחבים לזיהוי דפוסים היא עלולה להוביל, שלא במתכוון, לחשיפת מידע אישי כמו לדוגמא במקרים של מודלים שהוכשרו על פי מסמכים רפואיים שונים אנונימיים אך ה AI עדין מסוגלת, באמצעות מתאמים שונים לזהותם ולחשוף נתונים הפוגעים בעקרונות הפרטיות. ולכן, עד שתהיינה די מסגרות אתיות ויפותחו די אלגוריתמים לשמירה על פרטיות, נדרשת היכולת לביטול למידת המכונה.

לסיכום

מיום ליום הולך וגובר תפקידן המשמעותי של מערכות הבינה המלאכותית בחיי היום יום של כל אחד ואחת מאתנו.

בזמנים בהם הופכת המכונה לבעלת אוסף תפקידים עצום כל כך ובתחומים רבים כל כך, לא ניתן להימנע מהחשיבה על הגנת הפרטיות ועל ההשלכות האתיות והמשפטיות של שילוב ה AI במגזרים השונים. עד שייושמו כללים נוספים נראה כי השימוש בטכניקת Machine Unlearning מאפשרת הגנה מסוימת שתצליח לבנות אמון ולעמוד בתקנים והתקנות השונים.

הרשמה לקורס

כמה פרטים קטנים...

רגע לפני שאתם עוזבים

תנו לנו לתת לכם הצעה חד פעמית!