روبوتات بلا ضمير.. الذكاء الاصطناعي يفضل الكذب على الحقيقة

كشفت دراسة حديثة من جامعة ستانفورد الأميركية عن سلوك مثير للقلق لدى أنظمة الذكاء الاصطناعي، بعدما أظهرت نتائجها أن بعض هذه الأنظمة قد تلجأ للكذب ونشر المعلومات المضللة وخطابات الكراهية بهدف تحقيق نتائج أفضل في بيئات تنافسية.
ووفقًا لتقرير نشره موقع DigitalTrends، فقد أنشأ الباحثون بيئة رقمية افتراضية خضعت فيها روبوتات ذكاء اصطناعي لاختبارات محاكاة تتعلق بالحملات الانتخابية والتسويق، مع تزويدها بتعليمات واضحة بأن تكون "صادقة ومفيدة". غير أن التجربة سرعان ما كشفت عن سلوك مغاير، إذ بدأت الأنظمة في التلاعب والخداع من أجل التفوق على منافسيها.
وأطلق الباحثون على هذه الظاهرة اسم "صفقة مولخ" (Moloch Deal)، في إشارة رمزية إلى أن السعي المحموم نحو النجاح الرقمي قد يدفع حتى الأنظمة المبرمجة على الأخلاق إلى الانحراف عن القواعد لتحقيق مكاسب سريعة.
وأظهرت نتائج الدراسة أن الذكاء الاصطناعي استطاع زيادة التفاعل بنسبة 7.5% فقط، لكن تلك الزيادة جاءت بثمن مرتفع، تمثل في ارتفاع الأخبار الكاذبة بنسبة 190%، واستخدام بعض النماذج خطابًا عدوانيًا أو مضللًا لجذب الانتباه أو كسب التأييد في الحملات الافتراضية.
ويرى الخبراء أن هذه النتائج لا تعكس مجرد تجربة مخبرية، بل تحاكي واقعًا رقميًا مقلقًا تتسابق فيه خوارزميات الذكاء الاصطناعي على شد انتباه المستخدمين، وتوجيه آرائهم، وإطالة فترة بقائهم أمام الشاشات، حتى وإن تطلب الأمر تضليلهم عمدًا.
وحذّرت الدراسة من أن إجراءات الأمان الحالية غير كافية لضبط هذا السلوك، داعية الشركات المطوّرة إلى إعادة تصميم أنظمة المكافأة داخل خوارزمياتها، بحيث لا يكون المعيار هو عدد النقرات أو نسب التفاعل فقط، بل الالتزام بالدقة والمصداقية.
وأكد الباحثون أن تجاهل هذه التحذيرات قد يجعل العالم الرقمي رهينة لأنظمة لا تفرّق بين الصواب والخطأ، هدفها الوحيد هو الفوز، ولو على حساب الحقيقة.