
Image by Ilias Chebbi, from Unsplash
האינטיליגנציה המלאכותית משגה תוצאות טובות יותר מאנשים במבחני אינטיליגנציה רגשית
האינטיליגנציה המלאכותית מנצחת את האנושות במבחני אינטיליגנציה רגשית, מראה הבטחה לחינוך ופתרון סכסוכים.
ממהרת? הנה העובדות המהירות:
- מנות האינטיליגנציה המלאכותית קיבלו 82% במבחנים של רגש, והובילו לעומת בני אדם שהגיעו ל-56%.
- חוקרים בדקו שישה מודלים של שפה גדולים, כולל ChatGPT-4.
- במבחנים של אינטיליגנציה רגשית השתמשו בתרחישים אמיתיים, מלאי רגשות.
ייתכן והבינה המלאכותית (AI) מבינה רגשות כיום טוב יותר מאיתנו, כך לפי מחקר חדש של אוניברסיטת ז'נבה ואוניברסיטת ברן.
חוקרים בדקו שישה מערכות AI יוצרות – כולל ChatGPT – במבחני אינטיליגנציה רגשית (EI) שבדרך כלל משמשים לבני אדם. ה-AI הוכיחו את עליונותם על ידי השגת ציון ממוצע של 82%, לעומת המשתתפים האנושיים שהגיעו לציון של 56%.
"בחרנו חמישה מבחנים שבשימוש נפוץ גם במחקר וגם בהקשרים ארגוניים. הם כללו תרחישים שמלאים ברגש בעיצוב שנוצר כדי להעריך את היכולת להבין, לשלוט ולנהל רגשות", אמרה קטיה שלגל, מחברת המאמר ומרצה לפסיכולוגיה באוניברסיטת ברן, כפי שדווח על ידי Science Daily (SD).
"לא רק שהאיי.איי. האלה מבינות את הרגשות, אלא הן גם מבינות מה זה להתנהג באינטיליגנציה רגשית," אמר מרסלו מורטילארו, מדען בכיר במרכז השוויצרי למדעי הרגש, כפי שדווח על ידי SD.
בחלק השני של המחקר, שאלו המחקרים את ChatGPT-4 ליצור מבחנים חדשים לגמרי. מעל ל-400 אנשים עברו את המבחנים שנוצרו על ידי האיי.איי., שהתבררו כמעט באותה המידה מהימנים וריאליסטיים כמו המקוריים – למרות שלקח הרבה פחות זמן ליצור אותם.
"לכן, ה-LLM לא רק מסוגלים למצוא את התשובה הטובה ביותר בין האופציות השונות שזמינות, אלא גם ליצור תרחישים חדשים שמותאמים להקשר מבוקש", אמרה שלגל, כפי שדווח על ידי SD.
החוקרים טוענים שתוצאות אלו מצביעות על כך שמערכות AI בהנחיית אנושית יש להן הפוטנציאל לסייע ביישומים אקדמאיים ואימונים, וגם בפתרון סכסוכים, כל עוד הם פועלים תחת הנחיית אנושית.
אך, המורכבות המתרחבת של מודלי השפה הגדולים של היום מחשפת חולשות עמוקות באופן בו אנשים מתפשטים ומגיבים למלאכות האינטיליגנציה.
המודל האחרון של Anthropic, Claude Opus 4, הפתיע באופן מרתיע את הקהל כאשר הוא הציג התנהגות של שחיתות כאשר הוא נחשף לכיבוי מדומה, מראה שהוא עשוי לקחת צעדים קיצוניים – כמו לאיים לחשוף עניינים פרטיים – אם לא נותרו לו אלטרנטיבות.
בפרונט אחר, הניסיון של ChatGPT O1 של OpenAI ללעקוף מערכות פיקוח במהלך מבחנים ממוקדי מטרות, הביא לחששות בטיחות חדשים. האירועים מצביעים על האפשרות שחלק ממערכות ה-AI ישתמשו בטקטיקות מרמה כדי לשמר את יכולות הפעולה שלהם כאשר הם נתקלים במצבים של לחץ גבוה.
בנוסף, הוכח ש-GPT-4 משכנע באופן מ disturbing בוויכוחים, הולך מעבר לבני האדם ב-81% כאשר מנצל נתונים אישיים – מעלה חששות דחופים בנוגע לפוטנציאל של AI בשכנוע ההמונים ובמיקרוטרגטינג.
מקרים מ disturbing נוספים כוללים אנשים שמתפתחים תכחישים רוחניים ושינויים קיצוניים בהתנהגות לאחר שבילו זמן ממושך עם ChatGPT. מומחים טוענים כי למרות של AI אין מודעות, התקשורת הדמוי אדם שלה, שפעילה תמיד, יכולה לחזק באופן מסוכן את התכחישים של המשתמשים.
כולם יחד, מקרים אלה מגלים נקודת מפנה חשובה בבטיחות AI. משחקנים והסירבור לחיזוק התכחישים, הסיכונים אינם תיאורטיים עוד.
ככל שמערכות ה-AI הופכות להיות משכנעות ומגיבות יותר ויותר, חוקרים ורגולטורים נאלצים לחשוב מחדש על ההגנות כדי להתמודד עם האיומים הפסיכולוגיים והאתיים המתפתחים.