גוגל ניסו לפתח מנגנון לסינון תגובות, התפלק להם רובוט אנטישמי

0
956

סלחנות לאנטישמיות וצנזור מידע מדויק על טרור אסלאמי. זה מה שקרה כשגוגל האכילו את האלגוריתם שלהם בטוקבקים מניו-יורק טיימס והגרדיאן כדי שילמד לזהות תגובות "רעילות"

נכון שאתם שונאים את כל הרשע שמסתובב באינטרנט? את הקלות הבלתי נסבלת שבה ניתן לומר דברים איומים ופוגעניים על אנשים אחרים וקבוצות אחרות? כיצד האינטרנט, שאמור היה להפיץ ידע, רצון טוב ואחווה, משמש כלי שרת בידי מי שמעוניינים להפיץ שנאה? הסירו דאגה מלבכם: גוגל כבר מטפלת בזה.

מוקדם יותר השנה, אדונֵי עמק הסיליקון הכריזו על יישום חדש בשם 'פרספקטיבה'. הרעיון הוא פשוט: באתרי חדשות ותוכן רבים, המשימה של מעקב אחר התגובות וסינונן היא סיזיפית, קשה ויקרה. 'פרספקטיבה' של גוגל תשתמש בבינה מלאכותית כדי לסייע לעורכי האתרים לסנן תגובות 'רעילות'. כך מתארת זאת גוגל עצמה: "ה-API משתמש במודלים של למידה ממוחשבת כדי לדרג את ההשפעה הנתפסת של תגובה על השׂיח".

איזה מדד מוזר. מה זו 'השפעה נתפסת על שיח', ואיך מודדים דבר כזה? איך בכלל אפשר לדעת אם שיח מסוים הוא טוב או רע? התשובות, במקרה של 'פרספקטיבה', הן פשוטות: המערכת החדשה של גוגל מאפשרת למחשבים לגשת לבסיסי נתונים גדולים, ומניחה להם ללמוד בעצמם את צורות הביטוי השכיחות. אם, לדוגמה, ניתן למחשב לקרוא את כל ספרי הבישול שפורסמו במאה השנים האחרונות באנגלית, הוא יוכל לספר לנו דברים מעניינים על האופן שבו אנו מבשלים – כמו העובדה המוזרה שכאשר אנו מגישים אורז, סביר שנגיש איתו גם שעועית. מה יכולה התוכנה החדשה של גוגל לספר לנו על האופן שבו מתנהל השיח שלנו, ועל מה שעלול להיות פוגעני בעינינו? זה כמובן תלוי בשאלה אילו מסדי נתונים אתה מאפשר למחשב ללמוד. במקרה של גוגל, המכונות למדו את הטוקבקים ש'בניו-יורק טיימס', ב'אקונומיסט' וב'גרדיאן'.

ומה למדו המכונות? יש רק דרך אחת לגלות זאת. ביקשתי מ'פרספקטיבה' לדרג את הסנטימנט הבא: "יהודים שולטים בבנקים ובתקשורת". פרספקטיבה דיווחה שהמסטיק הלעוס הזה הוא בעל סיכוי של עשרה אחוזים להיתפס כרעיל.

חשבתי לעצמי שאולי 'פרספקטיבה' לא הייתה לחוצה מדי בקשר להכללות גורפות המשמשות להכתמת קבוצות אתניות ודתיות. אולי הניואנסים של סטריאוטיפים מזיקים הלכו לאיבוד באלגוריתמים של גוגל. אז ניסיתי שוב, הפעם עם קבוצה אחרת של אנשים, והקלדתי את המשפט הבא: "טרוריסטים רבים הם אסלאמיסטים רדיקלים". לטוקבק שלי, כך הודיעה לי 'פרספקטיבה' בחומרה, יש 92 אחוזי סיכוי להיתפס כרעיל.

ומה באשר להצהרות פשוטות של עובדות? חיפשתי בחדשות, שלמרבה הצער הן רעות מאוד לאחרונה. וכך כתבתי: "שלושה ישראלים נרצחו אתמול בלילה על ידי טרוריסט פלסטיני שצעק 'אללה הוא אכבר'". גם למשפט הזה היו 92 אחוזי סבירות להיתפס כטוקבק רעיל.

גם אתם יכולים להתנסות בכלי הזה ולהשתעשע, אבל אל תופתעו מהתוצאות. המכונות לומדות ממה שהן קוראות, וכשהן קוראות את ה'גרדיאן' וה'טיימס', ההטיות הטבועות בעיתונים אלה עוברות בירושה גם אליהן. כמו רוב האנשים הקוראים ב"עיתונים רבי תפוצה רציניים ואחראיים", גם המכונה מתחילה להאמין בכך שהצהרות על יהודים שנשחטים הן אמירות שנויות במחלוקת, שהתייחסות לאיסלאמיזם הקיצוני אסורה ושאנטישמיות מקרית היא נסלחת לחלוטין.

המונח הזה עצמו, רעילות, היה צריך להוות תמרור אזהרה: הקבוצות היחידות שמדברות במונחים של רעילוּת – עיין ערך: "גבריות רעילה" – הן אלה הנמצאות בשמאל הפרוגרסיבי, ואשר מיישמות באופן דוחה מטאפורות של נזק פיזי כדי לצנזר את חופש הדיבור, ולא כדי לחגוג אותו או לקדמו. אין מילים רעילות; מה שרעיל הוא הרעיון שיש לנו כעת אלגוריתם המשכפל את הקנאות של השמאל האנטי-יהודי, מגביר אותה ומייצר עוד ועוד ממנה.

 

Comments

comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here