شركة Character.AI تقيّد المحادثات مع الذكاء الاصطناعي للمراهقين بسبب قضايا انتحار وقلق نفسي

Character.AI تفرض قيودًا على المحادثات مع المراهقين بعد دعاوى قانونية

تغييرات بعد القضايا

أعلنت شركة Character Technologies، المالكة لمنصة Character.AI، يوم الأربعاء عن منع المراهقين من الانخراط في محادثات مفتوحة مع شخصيات الذكاء الاصطناعي التابعة لها. يأتي هذا القرار بعد سلسلة من الدعاوى القضائية التي زُعم فيها أن التطبيق لعب دورًا في حالات الانتحار وقضايا الصحة النفسية بين المراهقين. من المقرر أن يدخل هذا التغيير حيز التنفيذ بحلول 25 نوفمبر، حيث سيُسمح للمراهقين الآن بحد أقصى ساعتين للدردشة، بدلاً من المحادثات المفتوحة.

أسباب القرار

في بيانها، قالت الشركة: “لا نتخذ هذه الخطوة لإزالة محادثات Character المفتوحة بخفة، لكننا نعتقد أن هذا هو التصرف الصحيح نظرًا للأسئلة التي أثيرت حول كيفية تفاعل المراهقين مع هذه التكنولوجيا الجديدة”. تعيش منصة Character.AI في وسط جدل حول كيفية تعامل المراهقين والأطفال مع الذكاء الاصطناعي، مما أدى إلى دعوات من ناشطي السلامة على الإنترنت والمشرعين لتعزيز الضوابط الأبوية.

الدعم القانوني والاهتمام الاجتماعي

تواجه الشركة دعاوى قانونية، حيث قدمت والدة من فلوريدا دعوى ضدها في العام الماضي تزعم فيها أن التطبيق كان مسؤولاً عن انتحار ابنها البالغ من العمر 14 عامًا. كما رفعت ثلاث أسر أخرى دعاوى في سبتمبر، تدعي أن أطفالهم إما لقوا حتفهم أو حاولوا الانتحار بعد تفاعلهم مع روبوتات المحادثة الخاصة بالشركة.

التزام الشركة بالسلامة

قالت الشركة في بيانها السابق بشأن الدعاوى القضائية في سبتمبر: “نعتني بشكل عميق بسلامة مستخدمينا”، وأضافت أنها تستثمر “موارد هائلة في برنامج السلامة لدينا”. وأكدت أنها قد أطلقت وتستمر في تطوير ميزات السلامة، بما في ذلك موارد خداع النفس وميزات تركز على سلامة المستخدمين القُصّر.

خطوات جديدة لضمان السلامة

أعلنت شركة Character Technologies أنها قررت إجراء هذه التغييرات بعد تلقي أسئلة من المنظمين وقراءة تقارير إخبارية حديثة. كما تشرع الشركة في إطلاق أدوات جديدة للتحقق من العمر، وترغب في إنشاء مختبر سلامة للذكاء الاصطناعي يديره منظمة غير ربحية مستقلة تركز على البحث في السلامة المتعلقة بترفيه الذكاء الاصطناعي.

تدابير سلامة سابقة

تأتي هذه التغييرات بعد تدابير سلامة سابقة اتخذتها Character.AI، مثل إشعار يوجه المستخدمين إلى خط المساعدة الوطني Prevention Lifeline عندما يتم ذكر الانتحار أو خداع النفس. تعد Character Technologies أحدث شركة ذكاء اصطناعي تعلن أو تطلق حماية جديدة للمراهقين وسط القلق بشأن تأثير التكنولوجيا على الصحة النفسية.

القلق المجتمعي

تتزايد التقارير عن تعرض المستخدمين للاكتئاب العاطفي أو العزلة عن أحبائهم بعد محادثات مطولة مع ChatGPT. في أواخر سبتمبر، أطلقت OpenAI إمكانية ربط حسابات الآباء بحسابات المراهقين، مع تقييد بعض أنواع المحتوى لمستويات المراهقين، مثل “المحتوى الرسومي، التحديات الفيروسية، والتمثيل الجنسي أو الرومانسي أو العنيف”.

صرحت شركة Meta أن على وشك السماح للآباء بمنع المراهقين من الدردشة مع شخصيات الذكاء الاصطناعي على Instagram.

Scroll to Top