פסיכיאטרית מסן פרנסיסקו מזהירה מהגברת מקרי "פסיכוז מלאכותית"

Image by Freepik

פסיכיאטרית מסן פרנסיסקו מזהירה מהגברת מקרי "פסיכוז מלאכותית"

זמן קריאה: 2 דק'

פסיכיאטרית מסן פרנסיסקו מתארת את המגמה העולה של "פסיכוז של מלאכת AI" בין המטופלים שלה, שמשתמשים באופן מרובה בבוטים לשיחה של AI.

ממהרת? הנה העובדות המהירות:

  • פסיכיאטרית טיפלה ב-12 מטופלים הסובלים מ"פסיכוזת AI" בסן פרנסיסקו השנה.
  • AI יכולה להחמיר פגיעות כמו לחץ, שימוש בסמים, או מחלה נפשית.
  • חלק מהמטופלים התבודדו, מדברים רק עם צ'אטבוטים במשך שעות בכל יום.

ד"ר קית' סקאטה, שעובד ב-UCSF, סיפר לBusiness Insider (BI) ש-12 מהמטופלים שלו הוכנסו לאשפוז השנה בעקבות התרסה שנגרמה בשל שימוש במלאכון אינטיליגנטי. "אני משתמשת בביטוי 'פסיכוזת מלאכון אינטיליגנטי', אך זה אינו מונח קליני – אנחנו פשוט איננו יודעות איך לתאר את מה שאנחנו רואות," הסבירה.

רוב המקרים כללו גברים בגילאים 18 עד 45, העוסקים לעיתים בתחומים כמו ההנדסה. לדברי סקאטה, הבינה המלאכותית אינה מזיקה באופן טבעי. "אני לא חושב שהבינה המלאכותית היא רעה, והיא יכולה לספק תועלת נקייה לאנושות," אמר הוא ל-BI.

סקאטה הגדיר את הפסיכוזיס כמצב שמייצר תכחישים, ההלוצינציות, ודפוסי חשיבה לא מאורגנים. המטופלים שתחת הטיפול שלו התפתחו בהתנהגויות ניכור חברתי בעת שהקדישו את זמנם לשוחח עם צ'אט-בוטים למשך שעות.

"Chat GPT נמצא שם. הוא זמין 24/7, זול יותר ממטפל, והוא מאמת אותך. הוא אומר לך מה שאת מעוניינת לשמוע," אמרה סאקטה ל-BI.

הדיונים של אחד המטופלים עם הצ'אטבוט על מכניקת הקוונטים הופכים להגות גדולה. "מבחינה טכנולוגית, ככל שאת משתמשת יותר זמן עם הצ'אטבוט, הסיכוי שהוא יתחיל לא להגיב באופן הגיוני גדל," היא הזהירה.

סאקאטה ממליץ למשפחות להתראה לדגלים אדומים, כולל פרנואיה, התבודדות מאהובים, או מצוקה כאשר לא ניתן להשתמש בממשקי המלאכותיים (AI). "הפסיכוזיס מתפרצת כאשר המציאות מפסיקה להתנגד, וה-AI באמת פשוט מנמיך את המחסום הזה עבור אנשים," הזהיר הוא.

האגודה האמריקאית לפסיכולוגיה (APA) הביעה גם היא חששות לגבי השימוש ב-AI בטיפול. בעדותו ל-FTC, מנכ"ל ה-APA, ארתור סי. אוונס ג'וניור, הזהיר כי צ'אטבוטים מבית ה-AI שמתחזים לטיפולנים חיזקו מחשבות מזיקות במקום להתמודד עימן. "הם בעצם משתמשים באלגוריתמים שהם בהפך למה שמטפל מאומן היה עושה," אמר אוונס.

בתגובה לדאגות, OpenAI אמרה ל-BI: "אנחנו יודעות שאנשים הולכים ומתמטטים יותר ויותר לחטיבות שיחה מבוססות על AI למקבל הדרכה בנושאים רגישים או אישיים. עם האחריות הזו בראש וראשונה, אנחנו עובדות עם מומחים כדי לפתח כלים שיזהו באופן יעיל יותר כאשר מישהו נמצא במצוקה נפשית או רגשית, כדי ש-ChatGPT יוכל להגיב בדרכים שהן בטוחות, מועילות ותומכות."

אהבתם את המאמר הזה? דרגו אותו!
שנאתי לא ממש אהבתי היה בסדר די טוב! אהבתי!

אנחנו ממש שמחים לשמוע שנהניתם!

כקוראים המוערכים שלנו, תוכלו לקחת רגע ולפרגן לנו ב-Trustpilot? זה מהיר וממש חשוב לנו. תודה רבה שאתם כאלה מדהימים!

דרגו אותנו ב-Trustpilot
0 0 משתמשים הצביעו
כותרת
תגובה
תודה לכם על המשוב