כיצד לבנות בינה מלאכותית שאנו יכולים לסמוך עליהם

מערכות מחשב צריכות להבין זמן, מרחב וסיבתיות. כרגע הם לא עושים זאת.

לבינה מלאכותית יש בעיית אמון. אנו סומכים על A.I. יותר ויותר, אך זה עדיין לא הרוויח את ביטחוננו.
למכוניות טסלה שנוסעות במצב טייס אוטומטי, למשל, יש היסטוריה מטרידה של התרסקות לרכבים עצורים. מערכת זיהוי הפנים של אמזון עובדת חלק ניכר מהזמן, אך כאשר התבקשה להשוות את פניהם של כל 535 חברי הקונגרס עם 25,000 תמונות מעצר ציבורי, היא מצאה 28 התאמות, כאשר במציאות לא היו כאלה. תוכנית מחשבים שנועדה להטיל וטוענים על מועמדים לעבודה אצל אמזון התגלתה כדי להפלות באופן שיטתי נשים. בכל חודש חולשות חדשות ב- A.I. נחשפים.
הבעיה היא לא ש- A.I. צריך להשתפר במה שהוא עושה. הבעיה היא ש- A.I. צריך לנסות לעשות משהו אחר לגמרי.
בפרט, עלינו להפסיק לבנות מערכות מחשבים אשר רק משתפרות יותר ויותר באיתור דפוסים סטטיסטיים במערכות נתונים – לרוב בגישה המכונה למידה עמוקה – ולהתחיל בבניית מערכות מחשב אשר מרגע ההרכבה שלהן תופסות בפנים שלושה מושגים בסיסיים. : זמן, מרחב וסיבתיות.
A.I של היום מערכות יודעות מעט באופן מפתיע על אף אחד מהמושגים הללו. קח את הרעיון של הזמן. לאחרונה חיפשנו בגוגל את “האם ג’ורג ‘וושינגטון היה בעל מחשב?” – שאילתה שהתשובה לה דורשת התייחסות לשתי עובדות בסיסיות (כאשר וושינגטון חיה, כאשר הומצא המחשב) במסגרת זמנית יחידה. אף אחת מעשר תוצאות החיפוש הראשונות של גוגל לא נתנה את התשובה הנכונה. התוצאות אפילו לא ממש התייחסו לשאלה. הקישור המדורג ביותר היה לסיפור חדשות ב”גרדיאן “על דיוקן ממוחשב של מרתה וושינגטון כפי שהיא אולי נראתה כצעירה.
שיחה עם ספרים של גוגל, A.I. מיזם שמטרתו לענות על שאלותיך על ידי מתן קטעים רלוונטיים ממסד נתונים ענק של טקסטים, לא היטיב. זה הציג 20 קטעים עם מגוון רחב של עובדות, חלקם על ג’ורג ‘וושינגטון, אחרים על המצאת מחשבים, אך ללא קשר משמעותי בין השניים.
המצב גרוע עוד יותר כשמדובר ב- A.I. והמושגים מרחב וסיבתיות. אפילו ילד צעיר, אשר נתקל בפומפיה בגבינה לראשונה, יכול להבין מדוע יש בו חורים עם קצוות חדים, אילו חלקים מאפשרים לגבינה ליפול דרך, אילו חלקים אתה תופס באצבעותיך וכן הלאה. אך לא קיים A.I. יכול להבין כראוי כיצד צורת האובייקט קשורה לתפקודו. מכונות יכולות לזהות מה הדברים, אך לא כיצד התכונות הפיזיות של משהו תואמות את ההשפעות הסיבתיות שלה.
לגבי A.I. משימות, גישת מתאם הנתונים הדומיננטית עובדת מצוין. אתה יכול בקלות לאמן מכונה למידה עמוקה כדי, למשל, לזהות תמונות של חתולים סיאמיים ותמונות של דר ג’טר, ולהבחין בין השניים. זו הסיבה שתוכניות כאלה טובות לתיוג תמונות אוטומטי. אבל אין להם את העומק הרעיוני להבין, למשל, שיש המון חתולים סיאמיים שונים אלא רק דרק ג’יטר אחד, ולכן תמונה המציגה שני חתולים סיאמיים אינה ניתנת לציון, ואילו תמונה המציגה שני דרק ג’טרים כוללת נלמד.
בחלק לא קטן, כישלון ההבנה הזה הוא הסיבה שרובוטים לשימוש כללי כמו עוזרת הבית רוזי בסרט “הג’טסון” נותרו פנטזיה. אם רוזי לא יכולה להבין את היסודות של איך העולם עובד, אנחנו לא יכולים לסמוך עליה בבית שלנו.

ללא מושגי זמן, מרחב וסיבתיות, הרבה מהשכל הישר אינם אפשריים. כולנו יודעים, למשל, שחייה של כל חיה נתונה מתחילים בלידתה ומסתיימים במותה; שבכל רגע במהלך חייו היא תופסת איזור מסוים בחלל; ששתי חיות אינן יכולות להיות בדרך כלל באותו מקום באותו זמן; ששתי חיות יכולות להיות באותו חלל בזמנים שונים; וכן הלאה.
לא צריך ללמד אותנו מידע מסוג זה במפורש. מערכת הנחות הרקע, המסגרת הרעיונית, היא זו שמאפשרת את כל החשיבה האחרת שלנו על העולם.
עם זאת מעטים העובדים ב- A.I. אפילו מנסים לבנות הנחות רקע כאלה במכונות שלהם. אנחנו לא אומרים שדבר כזה קל – להפך, זה אתגר תיאורטי ומעשי משמעותי – אבל אנחנו לא הולכים להשיג אינטליגנציית מחשבים מתוחכמת בלעדיו.
אם נבנה מכונות המצוידות בהבנה רעיונית עשירה, כמה דאגות אחרות ייעלמו. הפילוסוף ניק בסטרום, למשל, דמיין תרחיש בו A.I. המכונה שהונחה ליצור קליפים נייר לא יודעת מתי לעצור ובסופו של דבר הופכת את כל העולם – כולל אנשים – לקטעי נייר.
לפי השקפתנו, ספקולציות דיסטופיות מסוג זה נובעות בחלקן הגדול מהמחשבה על A.I חסר המוח של היום. מערכות וחילוץ מהן. אם כל מה שאתה יכול לחשב הוא מתאם סטטיסטי, אינך יכול להמשיג פגיעה. אבל A.I. מערכות שיודעות על זמן, מרחב וסיבתיות הם סוג הדברים שניתן לתכנת למלא אחר הוראות כלליות יותר, כמו “רובוט עלול לא לפגוע באדם או באמצעות אי-מעש לאפשר לאדם לבוא לפגוע” ( הראשון משלושת חוקי הרובוטיקה של יצחק אסימוב).
אנו עומדים בפני בחירה. אנו יכולים לעמוד בגישה של היום לגבי A.I. ולהגביל מאוד את מה שמותר למכונות לעשות (שמא אנו בסופו של דבר עם קריסות מכוניות אוטונומיות ומכונות שמנציחות הטיה ולא מצמצמות אותה). או שנוכל לשנות את הגישה שלנו ל- A.I. בתקווה לפתח מכונות שיש להם הבנה מושגית עשירה מספיק של העולם, שאנחנו לא צריכים לחשוש מהפעלתם. כל דבר אחר יהיה מסוכן מדי.

Leave a Comment