מאמר דעה מאת: צוות הורייזון לאבס
כשאנחנו מדברים על הונאה באופן כללי – אנחנו מתייחסים לעידוד שיטתי לטיפוח אמונות שווא.
לעתים מתייחס המושג הונאה להטעיה מכוונת, שמטרתה השגת רווח בלתי הוגן או חוקי, תוך הצגת מצג שווא של הצהרות כוזבות או הסתרת מידע קריטי כדי להוביל אחר לפעולה שתגרום לו נזק. למשל: גניבת זהות, זיוף רישומים עסקיים, הונאות ביטוח, הונאות קבוצות רכש מיזמי בניה ועוד.
לעתים מתייחסים להונאה נפשית, בה באמצעות טקטיקות פסיכולוגיות מטעות ומניפולציה מכוונת מעוותים את המציאות ומשחקים במחשבותיו, אמונותיו או תפיסותיו של הפרט. מניפולציה שכזו נעשית לשם השגת שליטה מכוונת על הקורבן, ועלולה להוביל לערעור יכולתו של הקורבן לסמוך על עצמו, על שיקול דעתו ואופן קבלת ההחלטות שלו.
המניפולציה – שימוש בתכסיס, ובעורמה על מנת להשפיע על החלטותיו, רגשותיו או התנהגותו של אחר, היא טקטיקה מחושבת המנצלת לא אחת את פגיעותו, ערכיו או נטיותיו של אדם – מתוך מטרה להשיג דבר זה או אחר.
האם, כשאנחנו מדברים על בינה מלאכותית, אנחנו יכולים לייחס לה את היכולת לנקוט בטקטיקות מחושבות מראש?
עיבוד נתונים וביצוע משימות
התקדמות טכנולוגית הבינה המלאכותית מעוררת שאלות רבות בתחום האתיקה ובין היתר באשר לאפשרויות של ה AI להונות. כבר היום ברור לכולנו כי ניתן להשתמש בטכנולוגיה כדי ליצור תוכן “מציאותי” אך שקרי ומטעה. למשל: סרטוני ווידאו המשמשים לשם ערעור אמונתם של אנשים בשלטון, או בתקשורת תוך יצירת נרטיבים שקריים במודע, נוצרים בעזרת טכנולוגית בינה מלאכותית. בדרך זו מופק מידע מוטה, מטעה ומניפולטיבי, שעלול להיות מסוכן.
אלא שכאן מדובר בקלט שמזין המשתמש אל תוך מנוע הבינה המלאכותית והיא מפיקה את התוצרת. במקביל, ניתן לתכנת את אלגוריתמי הבינה המלאכותית לשם תמרון החלטות, התנהגויות ועוד – תוך ניצול הפסיכולוגיה האנושית. אפשרויות הבינה המלאכותית למקסם מעורבות של קהל מסייעת מצד אחד לשיפור חווית המשתמש, אך עלולה גם ליצור באמצעות העמסת מידע מוטעה, תפיסות מעוותות וקיצוניות של המציאות.
כלומר, תוך שימוש במניפולציה, מכוונת דעת הקהל לכיוון אחד שיעורר הד מתגלגל שעלול לגרוף אחריו קהל מאסיבי ונלהב, שאינו מודע למשחק ששחקו בו. מדובר בדילמה אתית משמעותית, מסובכת ודורשת פתרונות מאחר והיא נוגעת נגיעה ישירה לשלמות ואופן הפצת המידע.
בינה מלאכותית יכולה להוליך אותנו שולל
מדובר באיום רציני, שיש לתת עליו את הדעת. האיום יכול להתייחס להונאות “פשוטות” כמו הונאות ביטוח, ולהגיע לדברים משמעותיים הרבה יותר, כמו השתלטות על מערכות אסטרטגיות ביטחוניות, שיבוש תוצאות הבחירות ועוד. יכולתה של בינה מלאכותית “לשקר”, “להונות” ולעשות מניפולציות כבר קיימת ועלולה, להגיע אפילו עד כדי איבוד שליטה על מערכות AI שלמות.
מחקר שנערך ב- MIT – המכון הטכנולוגי של מסצ’וסטס, העלה כי יש למערכות בינה מלאכותיות את היכולת למניעת מידע, לתמרן בני אדם ולהביאם לפעול בצורה מסוימת על מנת להשיג את מטרותיה (?) או מטרות שונות מאלה אליהם הם כיוונו. ממצאי המחקר העלו כי בינה מלאכותית המתוכנתת למשימות מסוימות, לומדת עד מהרה לנצל פרצות המאפשרות לה להונות את המשתמש, תוך שהן מונעות מידע קריטי או מספקות מידע שקרי.
מה גורם לבינה מלאכותית לתמרן ולהונות?
ובכן, מדובר בהונאה נלמדת. מודלים של שפה ומערכות בינה מלאכותית למדו את אומנות ההטעיה תוך כדי אימון. כלומר, קיים חסר משמעותי בידע ובהבנת האדם את תהליך קבלת ההחלטות של…הבינה המלאכותית. אנחנו יודעים לאמן בינה מלאכותית, אך לא יודעים איך לעצור את המניפולציה שהמכונה יודעת לעשות.
אחת הדוגמאות המוכרות יותר מתייחסת למשחק שח מבוסס בינה מלאכותית, בו למדה הבינה המלאכותית, ללא כל הפניה או לימוד ספציפי, לספק מידע כוזב או בעברית פשוטה לרמות, כדי לנצח במשחק מול שחקן אנושי. מודלים של שפות ומערכות בינה מלאכותיות הצליחו במהלך האימון שלהן לרכוש גם את היכולת להשתמש במניפולציות והונאה במבחני בטיחות בינה מלאכותית, הכוללים, בין היתר: הפחתת סיכונים הקשורים לכשלים בינה מלאכותית, הבטחת החוסן של אלגוריתמי בינה מלאכותית, תחומים אתיים שונים ועוד.
בינה מלאכותית, מניפולציה והפסיכולוגיה האנושית
החלטות רבות מתקבלות על ידי מערכות בינה מלאכותית, חלקן יומיומיות כמו: מה כדאי לקרא או לקנות, באיזו סדרה או סרט לצפות ואיפה כדאי לי לקנות את החליפה הבאה. אך חלקן עשויות או עלולות להיות משמעותיות ביותר כמו: האם למוסד הפיננסי כן או לא כדאי להעניק הלוואה, לתת ערבות, האם המועמד לתפקיד מתאים או לא ועוד.
למרות השימוש ההולך וגובר בטכנולוגית ה AI חייבים לזכור שהיא רק בראשית דרכה ועל אף העובדה שהיא מציגה תוצאות מדהימות וראויות, ניתן למצוא גם תוצאות שלחוקרים קשה להסבירן. כשהאלגוריתם מעניק מידע, המלצה או תובנה לא רק בצורה עניינית וניטרלית, אלא גם באופן מניפולטיבי המערער את בטחונו של היחיד ואת יכולתו לחשיבה ביקורתית. כשבני אדם פועלים בצורה מניפולטיבית ברור שהמעשה נעשה תוך תכנון, חשיבה ומתוך ערכים ואמונות אישיים אלה ואחרים. הם רוצים להביא את קורבנם להאמין להם למרות שהם עצמם יודעים שהם משקרים.
בינה מלאכותית, איננה בעלת ערכים, אמונות וכוונות, מניפולציה של AI נובעת תמיד מהאופן בו תוכננה ואומנה המערכת הספציפית. בהונאת “פישינג” למשל, נעשה לעתים קרובות שימוש בבינה מלאכותית על ידי יצירת מסרים מותאמים אישית, תוך שימוש בעקרונות פסיכולוגיים לשם תמרון אנשים (או חברות) לחשיפת מידע רגיש. המפגש הלא יאמן שבין טכנולוגית ה-AI והפסיכולוגיה האנושית יוצרת בטן רכה ופגיעה אצל בני האדם, שאינם בהכרח מודעים למניפולציה שעושה עליהם הטכנולוגיה תוך ניצול הטיות קוגניטיביות (עיבוד מידע וקבלת החלטות לא רצויות המתבססות על תפיסה סובייקטיבית ולא על המציאות האובייקטיבית). התוצאה עלולה, מעבר לפגיעה כלכלית וחברתית, להוביל גם למצבים של חרדות, חוסר אמון, ולקויות נפשיות.
כמה מילים לסיום
ככל שממשיכה טכנולוגית הבינה המלאכותית להתפתח, כך הופך הצורך לקביעת תקנות אתיות לקריטי. חשוב לדאוג לכך שהטכנולוגיה הראויה הזו תשרת את כלל האנושות ולא תנצל את פגיעותה. גם יחסי הגומלין שבין הפסיכולוגיה האנושית וה- AI, דורשים שינקטו במהירות אמצעי אבטחה שימנעו את אפשרויות המניפולציה של ה AI ויגנו על האנושות מפני הנזקים הנפשיים האפשריים.