מחקר פורץ דרך של אפל מגלה: "אשליית חשיבה" במודלים של בינה מלאכותית
התקדמות בתחום הבינה המלאכותית
מחקר חדש שערכו חוקרי אפל מציע תובנות מדאיגות לגבי המודלים המתקדמים בתחום הבינה המלאכותית (AI). למרות ההתקדמות המרשימה, המודלים המיועדים להסקת מסקנות (Reasoning Models) מציגים "אשליית חשיבה" בלבד. הממצאים חושפים כי המודלים קורסים לחלוטין כאשר הם מתמודדים עם בעיות מורכבות במיוחד.
סוגי המודלים במוקד המחקר
מודל עם שרשרת הסקה (Chain of Thought)
מודל זה מפרק בעיה מורכבת לסדרה של צעדי חשיבה מסודרים. הוא מסביר שלב אחרי שלב איך הגיע לתשובה, כמו אדם שמסביר את דרך הפתרון שלו. לדוגמה, בשאלות מתמטיות מורכבות, המודל ינתח כל שלב בחישוב לפני שיגיש את הפתרון הסופי.
מודל בלי שרשרת הסקה (Standard Prompting)
בניגוד לכך, מודל זה מציע תשובה ישירה ללא פירוט של תהליך החשיבה שהוביל לתוצאה, ומבצע חיפוש פתרון על סמך דפוסים מהעבר בלבד.
שלושה שלבים בביצועים
החוקרים הציעו מסגרת חדשה לבחינת ביצועי המודלים, הממוקדת בשלושה שלבים:
שלב הפשטות
במטלות פשוטות, מודלים ללא שרשרת הסקה מצליחים לעיתים יותר טוב, שכן המודלים המתקדמים נוטים "להסתבך" בחיפוש אחר פתרונות שגויים.
שלב הביניים
בשלב זה, מודלים עם שרשרת הסקה מציגים יתרון ברור בזכות תהליך החשיבה המובנה.
שלב המורכבות הגבוהה
כאשר המורכבות גוברת, כל המודלים קורסים ולא מצליחים לספק תשובות, גם עם משאבים חישוביים זמינים.
תופעת "הוויתור"
אחת התגליות המפתיעות היא תופעת "הוויתור" (Giving Up Phenomenon). כאשר המשימות מורכבות מדי, המודלים מצמצמים באופן דרמטי את כמות ה"טוקנים" המושקעת בהיגיון. כלומר, במקום להשקיע יותר מאמץ, הם פשוט מוותרים.
סביבת ניסוי חדשנית
במהלך המחקר, החוקרים יצרו סביבות ניסוי מבוקרות כמו מגדלי האנוי, חציית נהר, צעדים בדמקה ועולם הקוביות. מהניסויים עלה כי המודלים מתבססים באופן משמעותי על זיהוי תבניות מהעבר, ולא על הסקה אמיתית.
מסקנות מרחיקות לכת
הממצאים מעלים ספקות כבדים לגבי היכולת של המודלים הללו להוביל לפריצת דרך בתחום הבינה המלאכותית הכללית (AGI). החוקרים מציעים כי יש צורך בגישות חדשניות להתמודדות עם בעיות חשיבה והסקה, בדומה לאדם, כדי לפתח מערכות בינה מלאכותית אמיתיות