איך יכול להיות שהבינה המלאכותית תייג אותך?

כאשר טאבונג קימה בדק את עדכון הטוויטר שלו בשעות הבוקר המוקדמות, ה- Hashtag של הרגע היה #ImageNetRoulette.
נראה שכולם העלו Selfies לאתר אינטרנט שבו סוג של בינה מלאכותית ניתח כל פנים ותיאר את מה שהוא ראה. האתר, ImageNet Roulette, הדביק אדם אחד כ”יתום “. אחר היה” לא מעשן. “השלישי, הרכיב משקפיים, היה” swot, grind, nerd, wink, dweeb. “
מעבר לעדכון הטוויטר של מר קימה, התוויות האלה – חלקן מדויקות, חלקן מוזרות, חלקן מחוץ לבסיס – שיחקו לצחוק. אז הוא הצטרף. אבל מר קימה, אפריקני-אמריקני בן 24, לא אהב את מה שראה. כשהעלה תמונה מחויכת משלו, האתר תייג אותו כ”עוול “וכ”עבריין”.
“יכול להיות שיש לי חוש הומור רע,” הוא צייץ, “אבל אני לא חושב שזה מצחיק במיוחד.”
כפי שהתברר, תגובתו הייתה בדיוק מה שהאתר כיוון אליו. רולטה של ​​ImageNet הוא פרויקט אמנות דיגיטלי שנועד להאיר אור על ההתנהגות המוזרה, הבלתי פוגעת והפוגעת שיכולה להתגנב לטכנולוגיות הבינה המלאכותית המשנות במהירות את חיי היומיום שלנו, כולל שירותי זיהוי פנים המשמשים חברות אינטרנט, מחלקות משטרה ו סוכנויות ממשלתיות אחרות.
זיהוי פנים ועוד A.I. טכנולוגיות לומדות את כישוריהן על ידי ניתוח כמויות עצומות של נתונים דיגיטליים. נתונים אלו נמשכים מאתרי אינטרנט ישנים ומפרויקטים אקדמיים, ולעתים קרובות הם מכילים הטיות עדינות ופגמים אחרים שלא נבדקו במשך שנים. רולטה ImageNet, שעוצבה על ידי האמנית האמריקאית טרבור פגלן וחוקרת מיקרוסופט בשם קייט קרופורד, שמה לה למטרה להראות את עומק הבעיה.
“אנו רוצים להראות כיצד שכבות של הטיה וגזענות ואי-גוגיה עוברים ממערכת למערכת”, אמר פגלן בראיון טלפוני מפריס. “העניין הוא לאפשר לאנשים לראות את העבודה הנעשית מאחורי הקלעים, לראות כיצד אנו מעובדים ומסווגים כל הזמן.”
האתר נחשף השבוע במסגרת תערוכה במוזיאון פונדזונה פראדה במילאנו, וממקד את תשומת הלב במאגר תמונות מסיבי המכונה ImageNet. ImageNet, שהוקמה לראשונה לפני למעלה מעשור על ידי קבוצת חוקרים מאוניברסיטת סטנפורד, הממוקמת בעמק הסיליקון בקליפורניה, מילאה תפקיד חיוני בעליית “למידה עמוקה”, הטכניקה המתמטית המאפשרת למכונות לזהות תמונות, כולל פנים.
ארוז עם למעלה מ 14 מיליון תמונות שצולמו מכל רחבי האינטרנט, ImageNet הייתה דרך להכשרה של A.I. ולבחון את רמת הדיוק שלהם. על ידי ניתוח תמונות מסוגים שונים – כמו פרחים, כלבים ומכוניות – למדו מערכות אלו לזהות אותן.
מה נדיר לעיתים נדירות בקרב קהילות הבקיאות ב- A.I. הוא ש- ImageNet הכיל גם תמונות של אלפי אנשים, שמוינו כל אחד לקטגוריות שלהם. זה כלל תגיות פשוטות כמו “מעודדות”, “רתכות” ו”צופי נערים “וכן תוויות טעונות מאוד כמו” כישלון, מפסיד, לא סטרטר, אדם לא מצליח “ו”שרמוטה, זונה, אישה מטופשת, טרולופ.”
על ידי יצירת פרוייקט המיישם תוויות כאלה, בין אם לא תמים לכאורה או לא, מר פגלן וגב ‘קרופורד מראים כיצד דעות, הטיה ולעיתים נקודות מבט פוגעניות יכולות להניע יצירת אינטליגנציה מלאכותית.
תוויות ImageNet הוחלו על ידי אלפי אלמונים, ככל הנראה בארצות הברית, שנשכרו על ידי הצוות מסטנפורד. בעבודה דרך שירות ההמונים הטובים ביותר Amazon Amazon Mechanical Turk, הם הרוויחו פרוטות עבור כל תמונה שהן תייגו, תוך שהם מחפשים מאות תגיות בשעה. כמו כן, הטיות נאפו למאגר המידע, אם כי אי אפשר לדעת אם ההטיות הללו הוחזקו על ידי העושים את התיוג.

הם הגדירו איך נראה “מפסיד”. ו”שרמוטה “. ו”עוול עוולה”.
התוויות הגיעו במקור מאוסף נתונים נרחב אחר המכונה WordNet, מעין מילון רעיוני למכונות שנבנו על ידי חוקרים מאוניברסיטת פרינסטון בשנות השמונים. אך עם כלול התוויות הדלקתיות הללו, יתכן וחוקרי סטנפורד לא הבינו מה הם עושים.
אינטליגנציה מלאכותית מתאמנת לעתים קרובות על מערכי נתונים עצומים שאפילו יוצריה לא ממש עטפו את ראשם סביבם. “זה קורה כל הזמן בקנה מידה גדול מאוד – ויש השלכות”, אמרה ליז אוסאליבן, שפיקחה על תיוג נתונים בסטארט-אפ הבינה המלאכותית קלריפאי וכעת היא חלק מקבוצת זכויות האזרח והפרטיות בשם ” פרויקט פיקוח על מעקב טכנולוגי שמטרתו העלאת המודעות לבעיות עם AI מערכות.
רבות מהתוויות ששימשו במערך הנתונים של ImageNet היו קיצוניות. אבל אותן בעיות יכולות להתגנב לתוויות שעשויות להיראות לא פוגעות. אחרי הכל, מה שמגדיר “גבר” או “אישה” פתוח לוויכוח.
“כשאתה מתייג תמונות של נשים או בנות, אנשים עשויים שלא לכלול אנשים שאינם בינאריים או נשים עם שיער קצר,” אמרה גב ‘אוסאליבן. “אז אתה בסופו של דבר עם A.I. דוגמנית הכוללת רק נשים עם שיער ארוך. “
בחודשים האחרונים הראו החוקרים כי שירותי זיהוי פנים מחברות כמו אמזון, מיקרוסופט ו- IBM יכולים להיות מוטים נגד נשים ואנשי צבע. עם פרויקט זה, קיוו מר פגלן וגב ‘קרופורד להביא יותר תשומת לב לבעיה – והם עשו זאת. בשלב מסוים השבוע, כשהפרויקט עבר ויראלי בשירותים כמו טוויטר, ImageNet Roulette ייצר יותר ממאה אלף תוויות לשעה.
“הייתה לנו הפתעה מוחלטת שהיא המריאה כמו שהיא עשתה זאת,” אמרה גב ‘קרופורד בזמן שהייתה עם מר פגלן בפריס. “זה בוא נראה באמת מה אנשים חושבים על זה ובאמת עוסקים איתם.”
עבור חלק זו הייתה בדיחה. אבל אחרים, כמו מר קימה, קיבלו את ההודעה. “הם עושים עבודה די טובה להראות מה הבעיה – לא שלא הייתי מודע לבעיה לפני כן”, אמר.
עם זאת, מר פגלן וגב ‘קרופורד מאמינים שהבעיה עשויה להיות עמוקה עוד יותר מכפי שאנשים מבינים.
ImageNet הוא רק אחת ממערכות הנתונים הרבות ששימשו בשימוש נרחב על ידי ענקיות טק, סטארט-אפים ומעבדות אקדמיות, כאשר הם הכשירו צורות שונות של בינה מלאכותית. פגמים במערכות נתונים אלה כבר התפשטו לרחבה.
בימינו חברות וחוקרים רבים פועלים למיגור הפגמים הללו. בתגובה לתלונות על משוא פנים, מיקרוסופט ו- IBM עדכנו את שירותי זיהוי הפנים שלהם. בינואר, בערך בזמן שמר פגלן וגב ‘קרופורד דנו לראשונה בתוויות המוזרות ששימשו ב- ImageNet, חוקרי סטנפורד חסמו את הורדת כל הפרצופים ממערך הנתונים. כעת הם אומרים שהם ימחקו הרבה מהפרצופים.
מטרתם ארוכת השנים היא “לטפל בסוגיות כמו מערך נתונים והגינות אלגוריתמית, אחריות ושקיפות”, אמר צוות סטנפורד בהצהרה ששיתפה עם הניו יורק טיימס.
אבל אצל מר פגלן נושא גדול יותר מתנשא. האמת הבסיסית היא ש- A.I. לומד מבני אדם – ובני אדם הם יצורים מוטים. “הדרך בה אנו מסווגים תמונות היא תוצר של השקפת העולם שלנו,” אמר. “כל סוג של מערכת סיווג תמיד ישקף את הערכים של האדם שעושה את הסיווג.”

Leave a Comment