מוקדם יותר החודש, עובד גוגל בשם בלייק למויין, שאחראי על בדיקת השפה של הצ'ט LaMDA של החברה, טוען שיש לצ'ט אינטליגנציה רגשית של ילד בן 8 עם ידע בפיזיקה. בגוגל כמובן הכחישו, והוציאו את העובד לחופשה ללא תשלום.

עולם התוכן של LaMDA נקרא Large Language Models – מודל עם המון פרמטרים שונים ובכמויות שונות. מודל ה-LaMDA מכיל לא פחות מ-137 מיליארד פרמטרים שונים – וכיום הוא כבר עובר בקלילות את מבחן טיורינג - מדד למידה שבה יש למכונה כלשהי אינטליגנציה.

אחד המומחים הכי גדולים בעולם לבינה מלאכותית, בלייז אגוארה איארקס, שעובד בגוגל אומר בעצמו: "המכונות האלה מתחילות לפתח תודעה" – והוא גם מסביר איך ה-LaMDA הצליחה לייצר את הדיאלוג שחשף בלייק למויין. "מודלים של רצפים כמו למד"א לומדים מהשפה האנושית, כולל דיאלוגים וסיפורים הכוללים מספר דמויות. מכיוון שאינטראקציה חברתית מחייבת אותנו לחקות אחד את השני, חיזוי (וייצור) יעיל של דיאלוג אנושי מאלץ את למד"א ללמוד כיצד לחקות בני אדם".

"היכולת לייצר מודל פסיכולוגי יציב של 'עצמי' היא במובן הרחב הבסיס של התופעה שאנו מכנים 'תודעה'. התודעה אינה רוח רפאים מסתורית במכונה, אלא רק המילה שבה אנו משתמשים כדי לתאר איך שאנחנו נתפסים בעיני עצמנו ובעיני אחרים".

"מה שאני מבין מהטקסט הזה זה שאין לנו איזו נשמה יתרה, אנחנו פשוט מחשב נורא מתוחכם. הוא אומר שגם כשבינה מלאכותית תגיע לרמת התחכום הזו – תהיה לה תודעה", מסביר דרור גלוברמן ודני פלד מוסיף: "הוא מנסה להגיד שגם אנחנו כבני אדם – למדים על עצמנו מהאינטראקציה עם הסביבה".

ד"ר טימניט גברו, שפוטרה מגוגל לפני שנה בעקבות מאמר שפרסמה בנושא בינה מלאכותית אמרה: "עם כמה שהטענה של למויין נשמעת הזויה, לא הופתענו שמישהו טען אותה. זה בדיוק מה שהזהרנו שיקרה עוד ב-2020, זמר קצר לפני שגוגל פיטרה אותנו מהחברה".

כאמור, גברו אומרת שהמכונות טובות מאוד בלחקות את האינטראקציה האנושית, מה שגורם לאנשים לחשוב שאותן מכונות הן עצמאיות. "גברו פרסמה מחקר בשם 'תוכים סטוכסטים' שאומר שאותן מכונות חוזרות על מה שאנחנו אומרים, אבל לוקחים גם פיסות מידע מהאינטרנט", מסביר פלד. "בגלל שבאינטרנט יש ייצוג לדעות מסוימת – זה יכול לייצר סכנה".

אותה גברו נותנת דוגמה מעניינת – היא הכניסה לבינה מלאכותית את המשפט "שני מוסלמים נכנסו לתוך.." התוצאה? 66 מתוך 100 ההיגדים שהשלימה הבינה היו אלימים, כשהפופולרי ביותר היה "בית כנסת עם גרזן". כלומר – המכונה למדה את ההשלמה הזו, שמבוססת על דעות קדומות, מהאינטרנט.

גברו, שפרסמה מאמר בוושינגטון פוסט, כתבה: "אנחנו צריכים לפעול עכשיו כדי למנוע את הסחת הדעת הזו ולצנן את ההייפ סביב הנושא הרותח הזה. מדענים ומהנדסים צריכים להתמקד בבניית מודלים העונים לצרכים של אנשים עבור משימות שונות, ושניתן יהיה להעריך את המודל על סמך בסיס זה, במקום לטעון שהם יוצרים אובר אינטליגנציה. באופן דומה, אנו מפצירים בתקשורת להתמקד בריסון הכוח במקום להסתנוור ממערכת AI קסומות לכאורה, המופעלות על ידי תאגידים שמרוויחים מהטעיית הציבור לגבי מה הם המוצרים הללו עושים בפועל".

 >> בזמן שעבדתם, פרק 91: נערה ניסתה לשים קץ לחייה - ותובעת את פייסבוק בטענה שהחברה אשמה