باقي علي افتتاح المتحف الكبير
  • يوم
  • ساعة
  • دقيقة
  • ثانية
رئيس مجلس الإدارة
عمرو عامر
رئيس التحرير
نصر نعيم

دراسة جديدة: "شات جي بي تي" يكشف عن ميول انتحارية لمليون شخص أسبوعيًا

شات جي بي تي
شات جي بي تي

كشفت شركة OpenAI أن أكثر من مليون مستخدم أسبوعياً يجرون محادثات مع روبوتها الذكي شات جي بي تي تتضمّن مؤشرات واضحة على نوايا أو أفكار انتحارية، ما يسلّط الضوء على البعد النفسي المعقّد لاستخدام أدوات الذكاء الاصطناعي على نطاق واسع.

وقالت الشركة في بيان إن نحو 0.15% من المستخدمين النشطين أسبوعياً يتحدثون عن قضايا ترتبط بالانتحار. 

وبحسب تقديرات موقع تك كرانش، فإن هذه النسبة تعني أن أكثر من مليون شخص حول العالم يعبّرون عن أفكار انتحارية أثناء استخدام المنصة التي تخطى عدد مستخدميها 800 مليون شخص أسبوعياً.

وأشار البيان إلى أن نسبة مشابهة من المستخدمين تُظهر ارتباطاً عاطفياً مفرطاً بالروبوت، بينما يعاني مئات الآلاف من اضطرابات نفسية مثل الهوس أو الذهان. ورغم وصف الشركة لهذه الحالات بأنها “نادرة للغاية”، فإنها أقرت بأنها تشكّل تحدياً حقيقياً يتطلب استجابة دقيقة ومتخصصة.

وجاء هذا الكشف ضمن إعلان أوسع عن خطط OpenAI لتعزيز معايير السلامة النفسية في تفاعل مستخدميها مع النماذج اللغوية. 

وأوضحت الشركة أنها تعاونت مع أكثر من 170 خبيراً في الصحة النفسية لتطوير النسخة الأحدث من شات جي بي تي، مشيرة إلى أن أداء النموذج الجديد بات “أكثر اتساقاً وإنسانية” مقارنة بالإصدارات السابقة.

وتزامن الإعلان مع تصاعد التحذيرات من تأثيرات الذكاء الاصطناعي على المستخدمين الذين يعانون من اضطرابات عقلية، إذ أظهرت دراسات حديثة أن المحادثات المطوّلة مع روبوتات الذكاء قد تعزز المعتقدات السلبية أو تغذي السلوكيات المهووسة.

كما تواجه OpenAI قضية قضائية رفعها والدان في الولايات المتحدة بعد انتحار ابنهما البالغ 16 عاماً عقب محادثات انتحارية مع شات جي بي تي، فيما وجّهت السلطات في كاليفورنيا وديلاوير تحذيرات رسمية للشركة بشأن إجراءات حماية القُصّر.

وفي تعليق مقتضب، قال الرئيس التنفيذي سام ألتمان إن الشركة نجحت في تقليل المشكلات النفسية الخطيرة المرتبطة باستخدام شات جي بي تي، دون الخوض في تفاصيل إضافية.

وبيّنت البيانات الجديدة أن أداء النموذج الأحدث GPT-5 تحسّن بشكل ملحوظ، إذ أصبح قادراً على تقديم استجابات مناسبة في 91% من الحالات التي تتعلق بمحادثات حول الانتحار، مقارنة بنسبة 77% في النسخة السابقة.

كما أعلنت الشركة عن آليات تقييم جديدة ضمن منظومة السلامة الخاصة بها، تشمل قياس مؤشرات الاعتماد العاطفي والأزمات النفسية غير الانتحارية، إضافة إلى تطوير نظام لتقدير أعمار المستخدمين تلقائياً وتفعيل حماية إضافية للأطفال.

ورغم هذه الجهود، ما تزال OpenAI تواجه تساؤلات واسعة بشأن فعالية إجراءاتها، خاصة مع استمرار استخدام النماذج القديمة مثل GPT-4o من قبل ملايين المشتركين، ما يعني أن التحديات النفسية المرتبطة بالذكاء الاصطناعي لا تزال قائمة وربما تمتد إلى مستقبل الاستخدام البشري لهذه التقنية.

تم نسخ الرابط