ثغرة أمنية في Copilot من مايكروسوفت تسلط الضوء على مخاطر الذكاء الاصطناعي
اكتشاف ثغرة حرجة
أثار اكتشاف جديد قلقًا كبيرًا في مجال أمان المعلومات، حيث كشف باحثون من شركة السايبر الإسرائيلية “ورونيس” عن ثغرة أمنية خطيرة في أداة الذكاء الاصطناعي “Copilot” من مايكروسوفت، مما دعا إلى تساؤلات حول أمان مساعدي الذكاء الاصطناعي الشائعين.
تفاصيل الثغرة
آلية العمل
أطلق على الثغرة اسم “Reprompt”، وهي سمحت للمهاجمين بتجاوز آليات الحماية التي وضعتها مايكروسوفت من خلال روابط تبدو شرعية تمامًا. أدت ضغطة واحدة من المستخدم إلى إتاحة السيطرة على جلسة العمل، حتى بعد إغلاق نافذة الأداة. وبذلك، تمكن المهاجمون من استخراج معلومات حساسة من حساب المستخدم دون أي إشارات خارجية تدل على وجود نشاط ضار.
كيفية تنفيذ الهجوم
أوضحت “ورونيس” أن الهجمات التي تعتمد على هذه الثغرة لا تتطلب من المستخدم تحميل أي ملحقات أو الموافقة على أذونات غير معتادة، مما يجعل من الصعب اكتشافها. إذ كانت الأوامر الضارة تُدخل مباشرة من الخادم بعد الإشارة الأولية، مما زاد من صعوبة تعقبها حتى في سجلات المحادثات.
المخاطر المحتملة
من خلال هذه الثغرة، كان بإمكان المهاجمين استخدام “Copilot” لأداء عدة مهام ضارة، مثل تلخيص مستندات، وكشف تفاصيل الموقع، والمعلومات الشخصية، وحتى استرجاع السجل الكامل للمحادثات. وهذا يعني أن أي معلومات شاركها المستخدم مع المساعد الرقمي في السابق قد تكون عرضة للاختراق من قبل جهة غير موثوقة.
استجابة مايكروسوفت
بعد التقرير عن هذه الثغرة، أصدرت مايكروسوفت تصحيحًا بهدف إصلاح المشكلة، وأكدت أنه لا حاجة لاجرا ءات إضافية من قبل المستخدمين الأفراد أو المؤسسات. ومع ذلك، ذكر خبراء الأمن المعلوماتي أن الحادثة تسلط الضوء على المخاطر الجديدة التي تأتي مع ثورة الذكاء الاصطناعي، وضرورة التحلي باليقظة أثناء استخدام الخدمات الموثوقة.
الختام
تبقى ثغرة “Copilot” بمثابة جرس إنذار حول الحاجة إلى الحذر في التعامل مع أدوات الذكاء الاصطناعي، ونؤكد جميعًا على أهمية اتخاذ الاحتياطات اللازمة لضمان سلامة معلوماتنا الشخصية.