הבינה המלאכותית (AI) חוללה מהפכה בתחומים רבים בחיינו. באופן השיווק, ניבוי תוצאות פיננסיות, בדיקות רפואיות ועוד. בקיצור, נראה כי הבינה המלאכותית השיגה לעצמה תוך פרק זמן קצרצר, דריסת רגל משמעותית בדרך שבה אנו חיים, עובדים ומתקשרים. ככל שהטכנולוגיה מתקדמת, הופכת הדאגה מפני הסכנות הפוטנציאליות של שימוש לרעה ב AI על ידי גופי טרור ועבריינים לגדולה ומוחשית יותר ויותר.
נקודת המפגש, שבין בינה מלאכותית פשיעה וטרור, מהווה איום ייחודי שכן בינה מלאכותית משמשת בין היתר לאוטומציה של משימות, לשיפור יעילותן וכתוצאה מכך לשפר את אופי ויכולת התקיפה של גופי הטרור השונים. החל במתקפות סייבר מתוחכמות ומזיקות, דרך תקיפות כטבמי”ם אוטומטיות, וכלה באפשרות התקנת נשק אוטונומי. הסכנות מתפתחות כל הזמן ודורשות ערנות מתמדת וחדשנות טכנולוגית כדי להילחם בהן. ההשלכות של טרוריסטים, המגייסים את יכולות הבינה המלאכותית “לטובתם”, מדאיגות ומעוררות חלחלה. אין ספק כי נוצר הכרח מיידי לשיתוף פעולה ממשי בין ממשלות ומומחי טכנולוגיה, לצורך פיתוח אסטרטגיות להפחתת הסיכון הנשקף מגורמים טרוריסטים ועברייניים – העושים שימוש ב AI למטרות זדון. במאמר שלפניכם מטעם מכללת הורייזון לאבס ננסה לבדוק מהם החששות העיקריים, ודרכי טיפול אפשריות בסיכונים הללו.
הצד האפל של AI - חששות מרכזיים
בשנים האחרונות גובר החשש מהסיכונים האפשריים הנובעים מטרוריסטים ועבריינים המשתמשים בבינה מלאכותית לשם פגיעה בפרט ובחברה. בין החששות המידיים והמוחשיים ניתן למנות כמה:
תעמולה, וגיוס
ניתן להשתמש בבינה מלאכותית ליצירת מסעות תעמולה מותאמות ומשכנעות. כלים המופעלים על ידי בינה מלאכותית מסוגלים לנתח התנהגות מקוונת בודדת להתאים לה תוכן לצורך ניצול נקודות תורפה שונות, לגרום להקצנת דעות ולגייס פעילים לקבוצות טרור ועבריינות. פעולות אלה יכולות להתבצע באמצעות:
- יצירת אודיו מזויף שנראה אמין ואמתי ולהפיץ מידע שגוי, פוגעני המעורר ומעודד שנאה
- פיתוח צ’אטבוטים מתוחכמים, המעודדים תחושת שייכות וקהילתיות ותוך כדי כך מרעילים עם אידיאולוגיות קיצוניות
- יצירת כמויות אדירות של תוכן תעמולתי בשפות שונות
תכנון ובחירת יעדי תקיפה
ארגוני טרור פונים ל-AI לשם שיפור יכולות וביצוע מתקפות מתוחכמות, תוך ניתוח מערכי נתונים ודפוסים שונים, שיסייעו להם בבחירת יעדים, תיאום בין הפעילים, מניעת זיהוי על ידי הרשויות, התקפות סייבר נגד תשתיות קריטיות ועוד. למשל, ניתן להשתמש בבינה מלאכותית:
- לאוטומציה של משימות כמו: סיור, בחירת יעדים, פריסת נשק, משאבים, תנועת פעילים ועוד
דוגמא: רחפנים המתוכנתים לזיהוי ותקיפת מטרה מסוימת המונעים על ידי בינה מלאכותית - אפשרות השימוש העברייני והטרוריסטי בבינה מלאכותית, אינו מתרכז או ייחודי דווקא לשדה הקרב. מתקפות סייבר, מונעות בינה מלאכותית, מהוות איום משמעותי ביותר על תשתיות קריטיות ובהן מוסדות פיננסיים, מוסדות רפואה, הפצת תוכנות זדוניות, תוכנות כופר ועוד. ככל שאלגוריתמי AI הופכים מתקדמים יותר, כך גם מתעצמות יכולותיהם של פושעי הסייבר, עובדה המקשה על ההתגוננות מפניהם.
- רגישות ה AI עצמה – מערכות AI עלולות להיות פגיעות בעצמן, כשניתן להלעיט אותן בנתונים שקריים וזדוניים בזמן אימון – וכך להפוך את המערכת למסוכנת, ואם לא למסוכנת אז לבלתי אמינה בעליל.
- עיקוף מערכות אבטחה – בינה מלאכותית יודעת לזהות ולאתר פגיעה ופרצות במערכות אבטחה. ניצול יכולת זו על ידי עבריינים מהווה איום משמעותי על אפיקי שימוש נרחבים.
בינה מלאכותית, שיפור הנשק ונשק אוטונומי
נכון, ראינו כבר כאלה בסרטי מדע בדיוני, רובוטים וכלי עבודה קמים והופכים יום אחד לרוצחים. אבל, למרות שבמחשבה ראשונה עשוי הרעיון של רובוט אוטונומי לחלוטין מבצע שורת רציחות נראה בדיוני, הרי שהפוטנציאל של AI ביצור מערכות נשק קיימות וביצירת מערכות נשק חדישות ומשופרות כבר איננו בדיוני ואפילו לא שייך לעתיד. העתיד – כבר כאן. איומים כאלה עלולים לכלול למשל:
- פיתוח מל”טים אוטונומיים תוך שימוש בבינה מלאכותית לצורך שליטה עליהם. הם עשויים לשמש לריגול, לסיור, ולהתקפות טרור ממוקדות מטרה
- פיתוח רובוטים אוטונומיים – (רכב אוטונומי כבר יש לנו) ותוך שימוש בבינה מלאכותית, השולטת בתנועותיהם, לכוונם למעשים אלימים שונים, לגרימת נזקים לרכוש ועד כדי רצח.
- אפשרויות ניתוח הנתונים האינסופית של ה AI מאפשרת האצת פיתוח נשק ביולוגי, תוך זיהוי פתוגנים אפשריים לגרימת נזק ממשי.
הפחתת הסיכונים אמצעי מניעה ואמצעי הגנה
להפחתת הסיכונים הכרוכים בשימוש בבינה מלאכותית (AI) על ידי עבריינים וטרוריסטים נדרשות מספר פעולות מפתח ובהן:
- שיתוף פעולה בינלאומי – טיפוח שיתוף פעולה בינלאומי ושיתוף מידע בין ממשלות, חברות טכנולוגיה וסוכנויות אכיפת חוק, כדי להילחם באיום העולמי של טרור נתמך בינה מלאכותית. שיתוף שיטות עבודה, מודיעין ותיאום תגובות לאיומים פוטנציאליים.
- ממשל ורגולציה – הכנת והכלת הסכמים בינלאומיים על שימוש בבינה מלאכותית תוך השתת הגבלות ומגבלות למניעת שימוש לרעה. לשם כך נדרשת הקמת מסגרות רגולטוריות חזקות ומבני ממשל כדי לפקח על הפיתוח, הפריסה והשימוש בטכנולוגיות A
- חיזוק הגנות האבטחה – הצפנה, נוהלי קידוד מאובטח וביקורות אבטחה רגילות לשם הגנה על מערכות בינה מלאכותית מפני גישה לא מורשית, פריצה ופרצות שונות נוספות, לשם הגנה מפני תקיפת סייבר
- פיתוח קוד אתי בינלאומי לבינה מלאכותית – כדי להבטיח שהטכנולוגיה העצומה הזו תמשיך להתפתח מתוך אחריות ודאגה לזכויות הפרט, עצמאותו ופרטיותו, חיוני לפתח קוד אתי שיכלול שקיפות, תועלת חברתית, הגנה על זכויות האדם ועוד.
- ניטור ומעקב – פיתוח כלי מעקב, מבוססי בינה מלאכותית (כן, אנחנו במעגל סגור) לצורך מעקב אחר התנהגויות חריגות, איומים פוטנציאליים או שימוש אחר לרעה בטכנולוגיית הבינה המלאכותית
- ניטור ומעקב – פיתוח כלי מעקב, מבוססי בינה מלאכותית (כן, אנחנו במעגל סגור) לצורך מעקב אחר התנהגויות חריגות, איומים פוטנציאליים או שימוש אחר לרעה בטכנולוגיית הבינה המלאכותית
- הערכת סיכונים ואסטרטגיות הגנה – פיתוח אסטרטגיות מנע ותגובות להפחתת סיכונים, ביצוע הערכות סיכונים קפדניות ותרגילי תכנון תרחישים לחיזוי שימוש פוטנציאלי בטכנולוגיות AI על ידי טרוריסטים.
- מודעות המפתחים – הגברת המודעות בקרב מפתחים, קובעי מדיניות והציבור לגבי הסיכונים הקשורים לשימוש בבינה מלאכותית על ידי עבריינים וטרוריסטים. קידום משמעותי בנושא האתיקה של בינה מלאכותית.
לסיכום
הסיכונים הפוטנציאליים של עבריינים וטרוריסטים העושים שימוש לרעה בטכנולוגית בינה מלאכותית הם משמעותיים ואין לזלזל בהם. ל AI יש פוטנציאל ממשי להפוך לנשק מסוכן בידיים הלא נכונות. ככל שטכנולוגיית הבינה המלאכותית ממשיכה להתקדם, שמירה על האבטחה, תוך טיפוח חדשנות הופכת יותר ויותר קריטית.
ממשלות וקובעי מדיניות, חברות טכנולוגיה, תעשיות ויחידים חייבים למצוא את הדרכים לעבודה משותפת כדי לצפות ולטפל בסיכונים פוטנציאליים. רק באמצעות שיתוף פעולה וערנות ניתן להתגונן מפני צדה האפל של הבינה המלאכותית.