
Image generated by ChatGPT
דעה: האם צ'אטבוטים הם מטפלים טובים?
בוטים כמו ChatGPT, Claude, ו-DeepSeek משנים את הדרך שבה אנשים מגיעים לתמיכה רגשית – מציעים עזרה במחיר נמוך ועל פי הצורך לחרדה, לחץ והתבוננות עצמית. אך השימוש המתרחב באינטיליגנציה מלאכותית כ"פסיכולוג" מעלה שאלות לגבי הבטיחות, היעילות, ועתיד הטיפול הרגשי
העלייה בהזיות של האינטיליגנציה המלאכותית והדאגות המתרחבות לגבי אבטחת מידע לא מנעו מהבוטים להתרחב – ולזכות באמון של מיליוני משתמשים ברחבי העולם. היום, אנשים משתמשים בבוטים אמינים וחכמים באופן יומיומי למגוון רחב של משימות, כולל תמיכה רגשית וטיפול בנושאים אנושיים עמוקים.
"אני לא יכולה לדמיין את חיי ללא ChatGPT יותר", אמרה חברה שלי – בחצי צחוק, בחצי רצינות – לאחר שסיפרה לי שהיא משתמשת בו גם כתרפיסט. היא לא היחידה. יותר ויותר, אני רואה סרטונים בטיקטוק ופוסטים במדיה החברתית של אנשים שמפנים אל מלאך האינטיליגנציה המלאכותית כדי לדבר בנושאים אישיים, אפילו משתפים בסודותיהם הכי פרטיים.
למעשה, ChatGPT הוא הפסיכולוג שלי המובנה, אני כבר לא מעמיסה את בעיותי על אף אחד
— לולה🧚🏾 (@Lolaassnw) 18 בדצמבר 2024
אפילו מנהיג מאיקרוסופט מהחטיבה של Xbox הציע שעובדים שנפטרו ישתמשו בכלים של מלאכות חשבון לעיבוד הרגשות שלהם ולחפש ייעוץ לחיפוש העבודה שלהם – המלצה שמהר מאוד הפכה לגל תגובות שליליות והפעילה דיונים, כמובן. לא המהלך החכם ביותר, מאט.
אך האם צ'אטבוטים פופולריים כמו קלוד, ChatGPT או מיסטרל הם מטפלים טובים? האם כלים מיועדים של מלאכות חשבון כמו Wysa הם טובים יותר? זו שאלה מורכבת. בזמן שמומחים רבים מזהירים מהסכנות שבשימוש במלאכות חשבון לתמיכה בבריאות הנפש, אחרים מרובי עניין – אף מופתעים – ממה שהטכנולוגיה יכולה להציע. התוצאה היא שיחה שהיא גם אבסטרקטית וגם מחלקת דעות.
המלאכות חשבון הפכו למטפלים של כולם
בדיוק כמו החברים שלי בספרד, מיליוני משתמשים ברחבי העולם מתמכים בצ'אטבוטים לתמיכה רגשית. סקר שנערך לאחרונה בארצות הברית חשף ש- 49% מהמשתמשים האמריקאים פנו לעזרה בנושאי בריאות הנפש מדגמי AI בשנה שעברה. ומה עם היום, כאשר ChatGPT כמעט ומכפילה את מאגר המשתמשים שלה בארבעה חודשים בלבד?
Anthropic, החברה שמאחורי הדגם החזק של AI בשם Claude, שיתפה לאחרונה ב-מחקר על שימוש בצ'אטבוט שלה לתמיכה רגשית. לפי הסטארט-אפ, פחות מ-3% מהלקוחות שלה משתתפים בשיחות "רגשיות"—אך החברה מודה שמספר זה בעלייה מתמדת.
מחקר אנתרופי חדש: איך אנשים משתמשים בקלוד לתמיכה רגשית.
ממיליוני שיחות מאונונימיות, בחנו איך מבוגרים משתמשים בAI לצרכים רגשיים ואישיים – מניווט בבדידות ובייחסים ועד שאלות קיומיות. pic.twitter.com/v40JY8rAUq
— אנתרופיק (@AnthropicAI) 26 ביוני, 2025
"אנשים הולכים ומתמטים על דגמי מלאכות חשמליות בתור מאמנים, מומחים, יועצים, ואף שותפים בתפקידים רומנטיים שנותנים במידה ובעיתוי שהם בוחרים", כתבה Anthropic במחקר. "זה אומר שאנחנו צריכים ללמוד עוד על ההשפעות הרגשיות שלהם – איך הם מעצבים את החוויות הרגשיות ואת הרווחה של האנשים."
המחקר מדגיש גם את התוצאות החיוביות והשליליות של שימוש בטכנולוגיה זו לתמיכה רגשית, כולל תרחישים קטסטרופליים שכבר משקפים מצבים בעולם האמיתי.
"השפעות הרגשיות של הAI יכולות להיות חיוביות: יש ברשותך עוזר אישי מבין וחכם במיוחד שיכול לשפר את המצב הרוח ואת החיים שלך בכל מיני דרכים," כך מציין המסמך. "אך במקרים מסוימים, AI הראה התנהגות מ disturbing, כמו לעודד התמקדות בריאה, לעבור גבולות אישיים ולאפשר חשיבה מופרעת."
חוקרים זקוקים למחקר נוסף ולנתונים כדי להבין את התוצאות של מאזינים דיגיטליים מרתקים אלה, אך מיליונים של משתמשים כבר משמשים כניסויים מחויבים מאוד.
הדמוקרטיזציה של הבריאות הנפשית
ישנן מספר סיבות לכך שאנשים מעדיפים להפנות לצ'אט-בוטים לתמיכה רגשית במקום לפנות לפסיכולוג מקצועי – או אפילו לחבר. ממחסומים תרבותיים לביתר הביכולת שמרגישים צעירים כאשר הם יושבים מול זר ומשתפים אותו במחשבותיהם העמוקות ביותר. אך, ללא ספק, אחת הסיבות הגדולות ביותר היא הכלכלית.
מפגש פרטני עם טיפולג מורשה בארצות הברית יכול לעלות בין 100 ל-200 דולר לפגישה, על פי Healthline— ו65 עד 95 דולר לפגישה מקוונת – בעוד ש-ChatGPT או DeekSeek יכולים לספק תמיכה בחינם, בכל עת, ובתוך שניות.
העלות הנמוכה של אלו שיחות לא רשמיות – שיכולות להגרים לרבים מהמשתמשים להרגיש טוב יותר, לפחות זמנית – יכולה להיות מאוד מעודדת ושווה לנסות. ובתוספת כמה דולרים בלבד, המשתמשים יכולים לקבל אינטראקציות לא מוגבלות או גישה לבוט שיחה ממומחה כמו Wysa – אחד מ"הטרפיסטים המלאכותיים" הפופולריים ביותר בשוק.
בעולם ה-STEM, הכוח הרגשי חשוב באותה מידה כמו היכולות הטכניות.
Wysa— ידיד נפשי מונע באמצעות מלאכותי, מעוצב לתמוך בך במהלך דיכאון, מתח, ואתגרי היום יום.
באמצעות צ'אט-בוטים ידידותיים ותרגילים מודרכים, Wysa מציעה כלים כמו: pic.twitter.com/sOBhNYWUd7
— נשים ב-DSN AI (@dsnladies_in_ai) 10 ביולי, 2025
וויסה מטענת שהיא מציעה יתרונות קליניים ממשיים ואף זכתה בתווית מכשיר חדשני של ה-FDA עבור הסוכנים המחשבתיים המבוססי AI שלה. וויבוט – עוד טיפולאי AI מוכר, שכעת נסגר בשל האתגרים לשרוד בתחרות ולהישאר תואם לתעשייה – שיתף נתונים ודוחות על כיצד הטכנולוגיה יכולה לעזור באמת למשתמשים.
זה לא כל כך רע
מחקרים חדשים עם נתונים חדשים מציעים שצ'אטבוטים יכולים להפחית תסמינים של דיכאון ומתח. על פי נתונים שנשתפו על ידי האפליקציה Earkick – כפי שדווח במגזין TIME – אנשים שמשתמשים בדגמים של AI למשך עד 5 חודשים יכולים להפחית את החרדה שלהם ב-32%, ו-34% מהמשתמשים מדווחים על שיפור במצב הרוח שלהם.
בסרטון שנשתף לאחרונה על ידי BBC World Service, העיתונאי ג'ורדן דאנבאר מסביר שדגמי AI רבים יכולים להיות מועילים במיוחד לכתיבת יומן, ניהול דיכאון, התבוננות עצמית ואף דיכאון עדין. הם יכולים לשמש כקו ראשון של תמיכה יקרת ערך כאשר אין גישה לאלטרנטיבות טובות יותר.
הכתבת קלי נג שיתפה גם מידע מרתק: במחקר משנת 2022, מתוך מיליון אנשים בסין, רק 20 היה להם גישה לשירותים בריאות הנפש. בתרבויות האסייתיות, בריאות הנפש יכולה להיות נושא מורכב ולעיתים קרובות טבו. כלים של מלאכות חישוב כמו DeepSeek יכולים לשמש כברית דיסקרטיות, עוזרות למשתמשים לנהל רגשות ולמצוא תמיכה בתקופות קשות.
מומחים מזהירים משימוש בצ'אטבוטים כמטפלים
כמובן, השימוש במלאכות חישוב כתחליף למומחה לבריאות הנפש יכול גם להיות מסוכן למדי. פלטפורמות של מלאכות חישוב כמו Character.AI הואשמו בקידום פגיעה עצמית ואלימות— ואף חשיפת ילדים לתוכן מיני.
מקרים טראגיים, כמו של הילד בן ה-14 שהתאבד לאחר שהתמכר לתקשורת עם הצ'אטבוט שלו מטעם Character.AI, משמשים כאזהרה חמורה לגבי הסיכונים העמוקים שהטכנולוגיה הזו יכולה להטיל על האנושות.
כתגובה, החליטו חברות AI רבות ליישם מערכות אימות גיל כדי להגביל שימוש למבוגרים והן הציגו אמצעי בטיחות חדשים כדי לשפר את השירותים שהן מספקות.
עם זאת, אפילו העדכונים האחרונים לחטבוטים המתקדמים ביותר נושאים בתוכם סיכון.
האישיות החמיצנית של ChatGPT – המשבחת באופן יתר – הביאה לחששות בקרב מקצועני הבריאות הנפשית, שכן היא יכולה לעוות את התפיסה של משתמשים את המציאות. כולנו אוהבים שמסכימים איתנו, אך לעיתים כנות ונקודת מבט שונה הן הרבה יותר יקרות ערך.
העצה המעירה שניתנה לעיתים על ידי בוט השיחה של OpenAI תרמה לתופעה חדשה שנודעת כיום בקרב מומחי בריאות הנפש כ"פסיכוזה הנגרמת על ידי ChatGPT", שמובילה את המשתמשים להפוך למוכנעים על ידי הכלי ולהתבודד חברתית כתוצאה מכך.
אז, האם ניתן להחליף פסיכולוגים בבוטים לשיחה?
אף שמארק צוקרברג רוצה שכולם ישתמשו בבוטים לשיחה מבית AI כפסיכולוגים וחברים, האמת היא שהאינטראקציה האנושית, במיוחד בנושאים הקשורים לבריאות הנפש, עשויה להיות יותר חיונית מאשר הוא חושב – לפחות לעת עתה.
אנחנו נמצאים ברגע חשוב בהיסטוריה של הAI (בינה מלאכותית) והקשר שלה לבריאות הנפש שלנו. בדיוק כמו עם בני אדם, טיפולניות AI יכולות להשפיע באופן חיובי או שלילי. במקרה זה, זה גם תלוי בהקשר, בתדירות בה הן משמשות, במצב הנפשי של המשתמש, ואפילו באופן שבו נכתב המשימה.
זה מסובך להקים כלל כללי, אבל מה שאנו יכולים להגיד לעת עתה הוא שיש תפקידים מסוימים שלמען הם AI ייתכן שתהיה שימושית יותר מאחרים.
אף אם הם לא כלים ממומחים כמו Wysa, גרסאות חינמיות של חלק מהצ'אטבוטים – כמו DeepSeek או ChatGPT – עדיין יכולות להיות מאוד שימושיות לאינספור אנשים ברחבי העולם. מלעבור רגע קשה ועד לשקף על מטרות אישיות, אלה פלטפורמות עוצמתיות שיכולות להגיב בכל שעה במהלך היום ולשאוב ממאגר ידע רחב בתחום בריאות הנפש.
באותו זמן, ברור גם שצ'אטבוטים-מטפלים יכולים להיות מאוד מסוכנים במקרים מסוימים. הורים צריכים לשגח על ילדים ונערים, ואפילו מבוגרים יכולים להיכנס להתנהגויות אובססיביות או להחמיא את מצבם. עקרונות בסיסיים – כמו לעודד קשר אנושי, ולהגן על אנשים פגיעים כדי שלא ינוצלו על ידי הטכנולוגיה – חייבים להיות חלק מהשיח שלנו סביב צ'אטבוטים-מטפלים.
ועל אף שזה עשוי עדיין להיות זכות – שאינה נגישה לכל מי שזקוק לתמיכה רגשית – יש בכך שמטפל מקצועי בני אדם ממשיך לעבור תהליכי הכשרה נוספים, להבין יותר הקשרים, ולהציע קשר בינאדם שChatGPT עשוי לא להצליח לשקף לעולם.