חוקרים ישראלים חושפים חולשת אבטחה מסוכנת ב-ChatGPT: המתקפה החדשה יכולה לגנוב מידע רגיש ללא פעולה מצד המשתמש

"הכל מתרחש מאחורי הקלעים": חוקרים ישראלים חשפו חולשת אבטחה חמורה ב-ChatGPT

חשיפת חולשת אבטחה

חוקרים מחברת רדוור הישראלית הודיעו על גילוי חולשת אבטחה חמורה ב-ChatGPT, הכלי הפופולרי מבית OpenAI, אשר מאפשר לתוקפים לגנוב מידע רגיש מארגונים ללא צורך בפעולה מצד המשתמשים. החולשה, שנקראת ShadowLeak, מנצלת את סוכן ה-Deep Research של ChatGPT לחילוץ נתונים ישירות משרתי OpenAI, והשיטה המתקפה זכתה לתיאור כ-Zero-Click, כלומר לא דורשת כל פעולה יזומה מצד הקורבן.

אופן המתקפה

האיום הנולד מהחולשה מתפרס מעבר לתיבות דוא"ל בלבד. ההוראות הזדוניות המוסתרות בתוך טקסטים, כתובות או פרמטרים שקשה להבחין בהם, כגון טקסטים לבנים על רקע לבן או קוד HTML מוסתר, מאפשרות לתוקף להעביר נתונים רגישים מבלי שהעובד יחשוד בדבר. ד"ר דוד אביב, סמנכ"ל הטכנולוגיות ברדוור, ציין כי "אין רמז לכך שדבר מה מוזר קורה והקורבן לא יודע שמידע רגיש נגנב".

קטגוריה חדשה של מתקפות

לפי החוקרים גבי נקיבלי וצביקה באבו, מדובר בקטגוריה חדשה של מתקפות על סוכני בינה מלאכותית, אשר מבדל בין עצמן לבין התקפות Zero-Click קודמות בכך שהן מתבצעות אך ורק בצד השירות, אינן דורשות פתיחת קבצים ואין להן עקבות קלות לניטור. האיום, שנחשב חדשני, לא מצטמצם למיילים בלבד, אלא נוגע למגוון רחב של מערכות ניהול כמו מערכות CRM, שירותי ענן וכלי פיתוח עסקי.

אזהרות והמלצות

רון מירן, סמנכ"ל מודיעין איומי סייבר ברדוור, הזהיר כי ארגונים המאמצים טכנולוגיות בינה מלאכותית אינם יכולים להסתמך על מנגנוני הגנה בלבד. הוא ציין כי השילוב בין סוכנים אוטונומיים, שירותי ענן ומידע רגיש פתוח בפני אפיקי תקיפה חדשים שאינם ניתנים לגילוי באמצעים המסורתיים.

תגובת OpenAI

חשיפת החולשה מגיעה בתזמון קריטי, כאשר הפלטפורמה של ChatGPT מתרחבת בשוק הארגוני, עם דיווחים על חמישה מיליון משתמשים עסקיים משלמים. ברדוור מציינים כי פרצת האבטחה דווחה ל-OpenAI, ושחברה פעלה לתיקון הבעיה בהקדם.

באופן כללי, גילוי זה מדגיש את הצורך בשמירה על אבטחת מידע ובדיקת המערכות הקריטיות בארגונים כדי להגן על מידע רגיש וחשוב מהדלפות בלתי רצויות.

Scroll to Top