קשה להאמין שעברה רק שנה מאז חברת Open AI מסן פרנסיסקו פקחה את עיניי הציבור הרחב ליכולותיה של הבינה המלאכותית היוצרת (generative AI) והשיקה את ChatGPT. לרגל חגיגות יום ההולדת בסוף החודש שעבר, חברת מחקר המידע הישראלית סימילרווב פרסמה ניתוח שנתי לפיו השימוש באתר ChatGPT הגיע לשיא של 1.8 מיליארד ביקורים בחודש מאי האחרון. הבינה המלאכותית שינתה את האופן שבו אנו מבצעים משימות יום-יומיות וסקר של BestColleges בארה"ב חשף למשל ש-56% מהסטודנטים נעזרים בטכנולוגיה מסוג זה להשלמת משימות אקדמיות.  

אלא שכמעט באותה מהירות בה פרצה הבינה המלאכותית לחיינו, התחלנו גם להבין את הסכנות הכרוכות בשימוש בה. בדו"ח המועצה לפיקוח על יציבות פיננסית (FSOC) לשנת 2023 שהתפרסם החודש, היא הגדירה לראשונה את הבינה המלאכותית כנקודת תורפה ליציבות הפיננסית וכסיכון הולך וגדל לשווקים. רק באוקטובר האחרון גארי גנסלר, יו"ר הרשות לניירות ערך בארה"ב, אמר לפייננשל טיימס כי ללא התערבות מהירה של הרגולטורים, "כמעט בלתי נמנע" שטכנולוגיית הבינה המלאכותית תגרום למשבר פיננסי תוך עשור. 

"מוצגים בדו"ח חששות מהטיית המידע, מאי יציבות שתגרם לתהליכים פיננסיים, פרטיות, הגנת סייבר וסיכונים נוספים", מתאר ד"ר זוהר ברונפמן, מנכ"ל Pecan AI, סטארט-אפ המפתח כלי בינה מלאכותית לסיוע לאנליסטים. "הרגולציה היום מגבילה גופים פיננסיים בשימוש בבינה מלאכותית ואוסרת למשל קבלת החלטות למתן אשראי באמצעותה. בינה מלאכותית היא לעולם קופסא שחורה והחלטות מסוימות חייבות להתקבל על ידי אלגוריתם שקוף ששיקוליו ידועים".  

התייעצות פיננסית עם ChatGPT? "טעויות אומללות" 

טכנולוגיות בינה מלאכותית החלו את דרכן בשוק הפיננסי בשנות ה-80 ככלי עזר לקבלת החלטות ועל מנת לנטר ולמנוע הונאות. "המערכות הפיננסיות היו חלוצות באימוץ הבינה המלאכותית", אומר ברונפמן. "זה מציב סכנות מהותיות למערכות ליבה של השווקים הפיננסיים, כמו קבלת החלטות אשראי או מימון שגויות אם הטכנולוגיות יאומצו באופן לא אחראי. כאשר עושים טעות בהחלטת מימון של לקוח יחיד הנזק מוגבל, כאשר אלגוריתם בינה מלאכותית סובל מהטייה הנזק עשוי להיות עצום. מאגר הנתונים עשוי להיות מוטה ולהראות קשר בין צבע עור או מגדר לקבלת אשראי והמערכת תלמד את זה". 

"בני אדם כבר לא יכולים להבחין בין מה שיוצרת בינה מלאכותית ומה שיוצר אדם, למעשה עברנו את המבחן הזה מזמן ואני סבור שכעת גם מומחה לא יכול להבחין. יש סיבות תאורטיות לחשוב שמכונה כן יכולה להבחין בין מה שנוצר על ידי מכונה ומה שלא. לא ברור למשך כמה זמן יהיו הדברים כך ויתכן מרוץ חימוש אינסופי בין מכונות המייצרות מידע ומכונות שמנסות לבחון את אמינותו"

ככל שטכנולוגיות הבינה המלאכותית הולכות והופכות מורכבות יותר, ברונפמן סבור כי גם הסיכונים הכרוכים בהן מתעצמים. "מספיק פער מוזר בנתונים שהבינה המלאכותית נחשפת אליהם על מנת להטות באופן קיצוני את המודל", מסביר ברונפמן. "השגיאה שתתרחש בעקבות זאת יכולה להיות קיצונית וככל שהמודל מורכב יותר כך גם עולה הסיכוי שהוא יעשה משהו שלא צפית מראש". 

למרות זאת, נקודות התורפה של הגופים הפיננסיים המאמצים את הבינה המלאכותית אינן המקור העיקרי לחשש של ברונפמן. "לגופים פיננסיים יש משמעת מאוד גדולה והם נוטים לאמץ טכנולוגיה חדשה בזהירות", הוא אומר. "אני חושש יותר מההתנהלות בצד הלקוח, משתמשים מתייחסים לכלי בינה מלאכותית כמעט כחבר החדש שלהם. כשאנשים לוקחים החלטות פיננסיות על בסיס ChatGPT הם חושפים את עצמם לטעויות אומללות - המידע שניתן לא שלם, לעתים שגוי ולאלגוריתמים מסוג זה ישנן פרצות שמאפשרות להטות את התוצאות".  

מרוץ חימוש בין מכונות שמייצרות ומאמתות מידע

 היכולת לייצר זיופים אמינים באמת של סרטונים, תמונות והקלטות (דיפ פייק) מבוססת בעיקר על תחום הראייה הממוחשבת (עיבוד תמונה ווידאו אוטומטי) הנעשית לרוב על ידי בינה מלאכותית. בספטמבר השנה הסוכנות לביטחון לאומי בארה"ב (NSA) פרסמה מסמך לפיו ההיקף והקלות בה ניתן לייצר מידע כוזב מהווים אתגר משמעותי לביטחון הלאומי. הדיפ פייק משחק תפקיד משמעותי במלחמת ישראל-חמאס ובניו יורק טיימס דיווחו כי המלחמה הולידה כל כך הרבה מידע כוזב או מטעה באינטרנט, רובו בכוונת תחילה, שהוא מסתיר את מה שקורה באמת בשטח.  

chatgpt (צילום: Rolf van Root/unsplash)
chatgpt? קרובה לקצה גבול היכולת|צילום: Rolf van Root/unsplash

"בני אדם כבר לא יכולים להבחין בין מה שיוצרת בינה מלאכותית ומה שיוצר אדם", מתאר ברונפמן. "למעשה עברנו את המבחן הזה מזמן ואני סבור שכעת גם מומחה לא יכול להבחין. יש סיבות תאורטיות לחשוב שמכונה כן יכולה להבחין בין מה שנוצר על ידי מכונה ומה שלא. לא ברור למשך כמה זמן יהיו הדברים כך ויתכן מרוץ חימוש אינסופי בין מכונות המייצרות מידע ומכונות שמנסות לבחון את אמינותו. מוצעים כל מיני פתרונות כמו תו ירוק דיגיטלי שמאשרר אמינות של מה שנוצר בידי אדם".  

הערכה: GPT קרובה לקצה גבול היכולת 

GPT הוא מודל שפה שמאומן מראש על מאגרי טקסט גדולי היקף ולומד להחזיר את פלט הטקסט, אוסף מילים מתוך המאגרים שנלמדו, המתאים ביותר לקלט הטקסט שהזין המשתמש. המודל מבוסס על טרנספורמרים, מודל למידה עמוקה שלוקח בחשבון לא רק את היחס בין מילים שונות, אלא גם את ההקשר בו הן מופיעות בטקסט. תצוגת היכולת של מודל זה ב-ChatGPT מרשימה וניכר כי הוא מצליח לייצר דיאלוג שנראה טבעי עם המשתמש. בכל זאת, מייסד מיקרוסופט ביל גייטס התבטא לאחרונה כי טכנולוגיית ה-GPT הגיעה לפלאטו ולא צפויה התקדמות משמעותית במעבר מ-GPT4 ל-GPT5.  

"טכנולוגיית ה-GPT מגיעה עכשיו כמעט לאסימפטוטה", מסכים ד"ר ברונפמן. "את קפיצת המדרגה האיכותית של מודל זה כבר ראינו. הוא עדיין יכול להציג שיפורים מסוימים, לנהל שיחה קולחת יותר ולייצר פחות תשובות הזויות, אבל בתוצרתה הנוכחית GPT מתקרבת לקצה גבול היכולת. הבינה המלאכותית כמושג רק מגרדת את פני השטח, מה שמודל GPT לא יודע לעשות זה לייצר ידע חדש והשאלה הגדולה שמעסיקה את התחום כיום היא איך עושים את זה?".  

איך יוצרים ידע חדש והאם נוחלף? 

"שאלת היצירה של ידע חדש קרובה יותר לעולמות הפילוסופיה ומדעי המוח מאשר למדעי המחשב", סבור ברונפמן. "GPT בנוי על פי ההנחה שהגיון בריא (common sense) מושתת על סטטיסטיקה, זה נכון ברוב המקרים אבל לא תמיד. עקרון משותף לנסיונות השונים לגשר על הפער הזה הוא רפרזנטציה, כלומר יצירת מודלים ומבנים להצגת ידע מחוץ להקשר הספציפי בו נלמד. זוהי דרך פעולתו של המוח האנושי שעובד גם הוא  בייצוגים ולא לומד בנפרד את התשובה לכל שאלה".  

אם אתם יושבים וחושבים עכשיו על המשימה הבאה בעבודה, מודל המאמץ דרך למידה דומה לשלנו נשמע לבטח כמו איום תעסוקתי. אלא שבסקירה שפרסם הבנק המרכזי האירופי בסוף חודש נובמבר, הסיקו המומחים כי הדיווחים על כך שבינה מלאכותית תחליף את העבודה האנושית עשויים להיות מוגזמים למדי. מחקר אקדמי אמריקאי משנת 2019 מצא למשל שהעובדים במקצועות שהושפעו מבינה מלאכותית חוו למעשה עלייה קטנה במשכורות.  

"אני חושב שמעט דברים שהומצאו לאחרונה יכולים לייצר ערך כמו בינה מלאכותית יוצרת ואימוץ הטכנולוגיה הוא צו השעה", גורס ברונפמן. "עסק שלא יאמץ אותה ישאר מאחור ולבסוף יגווע. בד בבד, הסיכון המטריד ביותר בבינה מלאכותית הוא תהליכים שינוהלו באופן אוטומטי מקצה לקצה. החלטה לא סבירה של המודל עשויה לחולל בהם נזק אדיר ולכן הוא לא יחליף את האדם בתהליך".