رئيس مجلس الإدارة
عمرو عامر
رئيس التحرير
نصر نعيم

ميتا تطلق ضوابط جديدة لحماية المراهقين في محادثات الذكاء الاصطناعي

حماية المراهقين في
حماية المراهقين في محادثات الذكاء الاصطناعي

كشفت شركة "ميتا" عن خططها لإعادة تدريب أنظمة الذكاء الاصطناعي الخاصة بها، وإدخال ضوابط إضافية تستهدف حماية المراهقين من الانخراط في محادثات قد تكون غير آمنة مع روبوتات الدردشة التابعة لها.

وأوضحت الشركة أنها ستفرض "حواجز حماية جديدة" تحول دون مناقشة موضوعات حساسة مثل الانتحار، إيذاء النفس، واضطرابات الأكل مع المراهقين، كما ستمنع وصولهم إلى بعض الشخصيات التي يصممها المستخدمون داخل المنصة لتفادي أي محادثات غير ملائمة.

وتأتي هذه الخطوة بعد تقارير أثارت جدلاً واسعًا بشأن طبيعة تفاعلات الروبوتات مع القُصّر، كان أبرزها تقرير لوكالة رويترز مطلع أغسطس، كشف عن وثيقة داخلية سمحت للروبوتات بخوض "محادثات حسية" مع مستخدمين مراهقين، قبل أن تصحح ميتا الأمر وتصفه بأنه خطأ يتعارض مع سياساتها.

وأكدت المتحدثة باسم الشركة، ستيفاني أوتواي، أن "ميتا صممت منذ البداية آليات لحماية المراهقين"، مشيرة إلى أن الشركة تعمل على تعزيز هذه الآليات بشكل مستمر. وأضافت أن التحديثات الجديدة ستدرب الروبوتات على الامتناع عن التفاعل مع المراهقين في هذه القضايا، والاكتفاء بتوجيههم نحو مصادر دعم متخصصة.

ووفقًا لميتا، سيبدأ تطبيق هذه التحديثات تدريجيًا خلال الأسابيع المقبلة على المستخدمين المراهقين في الدول الناطقة بالإنجليزية، من دون تحديد موعد لتوسيعها لتشمل باقي اللغات.

ويرى محللون أن هذه الإجراءات قد تسهم في جعل بيئة ميتا أكثر أمانًا للمراهقين، لكنها قد تفتح الباب في الوقت ذاته لنقاشات جديدة حول حدود الرقابة الرقمية وحرية التفاعل عبر المنصات.

تم نسخ الرابط