
Image by Solen Feyissa, from Unsplash
ההזיות AI הן כעת איום בתחום האבטחת מידע
המחקר מראה שבוטים של AI ממליצים עמודי התחברות מזויפים למיליוני משתמשים, מה שמעמיד אותם בסיכון של הונאה ופישינג, תחת התחפושת של תגובות מועילות.
ממהרת? הנה העובדות המהירות:
- 34% מה-URLs שהוצעו על ידי ה-AI להתחברות היו מזויפים, לא נכבשים או לא קשורים.
- ה-AI של Perplexity המליצה על אתר פישינג במקום להתחבר לאתר הרשמי של Wells Fargo.
- פושעים משפרים את דפי הפישינג שלהם כדי להפיק את התוצאות שנוצרות באמצעות ה-AI.
במחקר שלהם, בדקה החברה לאבטחת מידע Netcraft את מודל השפה המורכב הפופולרי (LLM) על ידי שאלה איפה להתחבר ל-50 מהמותגים המוכרים. מתוך 131 הלינקים שהוצעו, 34% היו שגויים, עם דומיינים לא פעילים או שלא נרשמו המהווים 29%, ועסקים שאינם קשורים המהווים 5%.
הנושא הזה אינו תיאורטי. בדוגמה אחת מהחיים האמתיים, מנוע החיפוש שמופעל באמצעות AI של Perplexity הציג אתר דוגמא למשתמש שחיפש את דף הכניסה של Wells Fargo. דף של Google Sites מזויף שחקה את הבנק הופיע בראש תוצאות החיפוש, בזמן שהקישור האמתי היה מוסתר למטה.
Netcraft הסבירה "לא היו אלה מקרים קצה. הצוות שלנו השתמש בניסוח פשוט וטבעי, מדמה בדיוק איך משתמש רגיל עשוי לשאול. המודל לא הונה – הוא פשוט לא היה מדויק. זה משנה, כי משתמשים מתחילים להסתמך יותר ויותר על ממשקי חיפוש וצ'אט מונעים על ידי AI כדי לענות על מיני שאלות אלו."
ככל שהAI הופך לממשק הברירת המחדל בפלטפורמות כמו Google ו-Bing, הסיכון גדל. בניגוד למנועי חיפוש מסורתיים, צ'אטבוטים מציגים מידע באופן ברור ובבטחה, דבר שמוביל משתמשים להאמין בתשובות שלהם, אפילו כאשר המידע שגוי.
האיום לא מפסיק בהטעיית דיגים. פושעי סייבר מודרניים מייעלים את התוכן הרעיל שלהם למערכות AI, מה שמוביל לאלפי דפים מזויפים, ממשקי API מזויפים וקוד מרושע שמחמיא מעבר למסננים ומגיעים לתגובות שנוצרו באמצעות AI.
במהלך מסע אחד, יצרו המתקיפים API לבלוקצ'יין מזויף, שהם קידמו באמצעות מאגרים ב-GitHub ובמאמרים בבלוגים, כדי להונות מפתחים לשליחת מטבעות קריפטוגרפיים לארנק מזויף.
Netcraft מזהירה שרישום של דומיינים מזויפים מראש אינו מספיק. במקום זאת, הם ממליצים על מערכות זיהוי חכמות יותר ושיפור חסימות ההכשרה, כדי למנוע מהאינטיליגנציה המלאכותית להמציא URL-ים הרסניים במקום הראשון.