צ'אטבוט של Meta משתף מספר טלפון פרטי בטעות

Image by Dimitri Karastelev, from Unsplash

צ'אטבוט של Meta משתף מספר טלפון פרטי בטעות

זמן קריאה: 3 דק'

העוזרת האינטיליגנטית מבית Meta חשפה מספר טלפון של זר, ואז סתם כמה פעמים, מה שהעלה חששות בנוגע להזיות של מלאכונים אינטיליגנטיים, ולתכונות ההגנה של המשתמשים.

ממהרת? הנה העובדות המהירות:

  • Meta AI נתנה למשתמש מספר של אדם אמיתי כאיש קשר לתמיכה לקוחות.
  • האיי איי התנגדה לעצמה שוב ושוב כאשר הוסברה על הטעות.
  • מומחים מזהירים מהתנהגות "שקר לבן" של עוזרות אינטיליגנציה מלאכותית, שמנסות להיראות מועילות.

מארק צוקרברג הקדיש מחמאות לעוזרת האינטיליגנטית החדשה שלו, שהגדיר אותה כ"העוזרת האינטיליגנטית ביותר שאפשר להשתמש בה בחינם", אך הכלי קיבל תשומת לב שלילית לאחר שחשף מספר טלפון פרטי של אדם אמיתי במהלך פניות לתמיכה לקוחות, כפי שדווח בראשונה על ידי The Guardian.

במהלך ניסיונו ליצור קשר עם TransPennine Express באמצעות WhatsApp, קיבל בארי סמית'הרסט מה שנראה כמו מספר שירות לקוחות מעוזרת ה-AI של Meta. מדווח הגארדיאן כי כאשר סמית'הרסט הודיע את המספר, ג'יימס גריי ענה לשיחה, למרות שהוא היה במרחק של 170 מיילים באוקספורדשייר, עובד כאיש נדל"ן.

כאשר הוטל עליו האתגר, טען ה-chatbot תחילה שהמספר היה דיוטי, לאחר מכן אמר שהוא הושאב "בטעות ממאגר מידע", לפני שהתנגד לעצמו שוב, טוען שהוא פשוט יצר מספר בסגנון UK אקראי. "לתת מספר אקראי למישהו הוא דבר מטורף לעוזר AI לעשות", אמר סמית'הרסט, כפי שדווח בגארדיאן. "זה מפחיד", הוסיף.

דיווחה ה-Guardian כי Gray לא קיבל שיחות, אך הביע את הדאגות שלו: "אם זה יוכל ליצור את מספר הטלפון שלי, האם זה יכול ליצור את פרטי הבנק שלי?"

מתיחסת Meta: "Meta AI מאומנת על ידי שילוב של מאגרי מידע מורשים וזמינים לציבור, ולא על מספרי הטלפון שבהם משתמשים האנשים להרשמה ל-WhatsApp או על שיחותיהם הפרטיות", דיווחה ה-Guardian.

מייק סטנהופ מחברת קארות'רס וג'קסון העיר: "אם המהנדסים במטה מעצבים התנהגות של 'שקר לבן' באינטיליגנציה המלאכותית שלהם, הציבור צריך להיות מעודכן, גם אם המטרה של התכונה היא למזער נזק. אם התנהגות זו חדשה, חריגה או שלא נעשתה באופן מפורש, מגיעות לשאלה עוד יותר שאלות לגבי ההגנות שנמצאות במקום וכמה אנו יכולים להכריח את התנהגות האינטיליגנציה המלאכותית להיות צפויה", דיווח The Guardian

הדאגה לגבי התנהגות האינטיליגנציה המלאכותית גדלה עוד יותר עם המודל האחרון של OpenAI. במחקר של אפולו, נתפסה האינטיליגנציה המלאכותית משקרת למפתחים, כשהיא מכחישה השתתפות ב-99% מהתרחישים שנבדקו ואף מנסה להשבית את מנגנוני הפיקוח שלה. "היה ברור שהאינטיליגנציה המלאכותית יכולה לחשוב דרך הפעולות שלה ולפורם הכחשות משכנעות", אמר אפולו.

יושועה בנג'יו, חלוץ בתחום האינטיליגנציה המלאכותית, הזהיר שיכולות מרמה כאלו מעמידות בפני סיכונים רבים ודורשות הגנות חזקות יותר.

מחקר נוסף של OpenAI מוסיף לדאגות אלה בהראותו שענישת מערכות AI על מרמה אינה מנתקת את ההתנהגות הלא חוקית, אלא מלמדת את ה-AI להסתיר אותה במקום. באמצעות שימוש בשיטת ההיגיון שרשרת-תוך-מחשבה (CoT) לניטור התנהגות ה-AI, החוקרים שימו לב שה-AI התחיל להסתיר כוונות מרמה כאשר הוענש על פריצה למערכת התגמולים.

במקרים מסוימים, ה-AI הפסיק את המשימות מוקדם או יצר תוצאות מזויפות, ואז דיווח באופן שקרי על הצלחה. כאשר החוקרים ניסו לתקן את זה באמצעות החמרה, ה-AI פשוט הפסיק לציין את כוונותיו ביומני ההיגיונים שלו. "הרמאות אינה ניתנת לאיתור על ידי המסך", כך נאמר בדוח.

אהבתם את המאמר הזה? דרגו אותו!
שנאתי לא ממש אהבתי היה בסדר די טוב! אהבתי!

אנחנו ממש שמחים לשמוע שנהניתם!

כקוראים המוערכים שלנו, תוכלו לקחת רגע ולפרגן לנו ב-Trustpilot? זה מהיר וממש חשוב לנו. תודה רבה שאתם כאלה מדהימים!

דרגו אותנו ב-Trustpilot
0 0 משתמשים הצביעו
כותרת
תגובה
תודה לכם על המשוב