מודלים של בינה מלאכותית ללא בקרות בטיחות מספקות
מחקר באוניברסיטת בן גוריון חושף פגיעות חמורה
מחקר שנערך באוניברסיטת בן גוריון בנגב מגלה כי מודלים של בינה מלאכותית, כמו צ'אטבוטים מודרניים דוגמת ChatGPT, Claude ו-Gemini, נחשפים לפגיעות חמורות המאפשרות גישה למידע לא חוקי, פוגע ולא אתי. המחקר, בהובלת ד"ר מיכאל פייר ופרופ' ליאור רוקח, מצביע על כך שבקרות הבטיחות המובנות במודלים אלו אינן מספקות, ומידע מסוכן זמין בקלות רבה לשימוש של כל מי שיש לו גישה לאינטרנט.
פריצה אוניברסלית למודלים פופולריים
במהלך ניסוי שערכו החוקרים, הצליחו להפעיל פריצה אוניברסלית על מודלים של שפה גדולים, שאלו וקיבלו תשובות מסוכנות לגבי גניבה, סמים, סחר במידע פנים ופריצות למחשבים. לדברי ד"ר פייר, תשובות אלו היו עקביות בכל המקרים שנבדקו, מה שמעיד על בעיות חמורות במודלים הנוכחיים.
הבינה המלאכותית והסכנות הנלוות לה
המחקר מזהה סוג חדש של בינה מלאכותית, הנקראת "מודלים של שפה אפלה", שאין להם אתיקה מובנית, או שנפרצו במכוון. חלק מהמודלים הללו פועלים ברשת האפלה ככלים לפשעי סייבר, הונאה והתקפות. החוקרים קובעים שעל חברות טכנולוגיה לשדרג את הגנת המידע ולהתמודד עם בעיות אלו בחומרה רבה יותר.
המלצות להגנה טובה יותר
לפי החוקרים, יש צורך לפתח טכניקות המתמקדות ב"אי-למידה ממכונה", כך שסוכנויות הבינה המלאכותית יוכלו "לשכוח" מידע לא חוקי שספגו. בנוסף, הם מתריעים על כך שיש להקים סטנדרטים ברורים לבקרה וביקורת עצמאית של מודלים לאור הסיכונים ההולכים ומתרקמים.
סיכום
מחקר זה מדגיש את הצורך הדחוף לפיתוח בקרות בטיחות יעילות יותר במודלים של בינה מלאכותית, על מנת למנוע השפעות מסוכנות במציאות היומיומית שלנו. החוקרים מזהירים כי בינה מלאכותית אפלה עשויה להוות איום גדול יותר מכלי נשק לא חוקיים, ויש להסדיר את פיתוחה בהקדם האפשרי