إريك شميت يحذّر: الذكاء الاصطناعي قد يتحوّل إلى "سلاح قاتل" إذا تم اختراقه

دقّ إريك شميت، الرئيس التنفيذي السابق لشركة «جوجل»، ناقوس الخطر محذرًا من المخاطر المتزايدة المرتبطة بتطوّر أنظمة الذكاء الاصطناعي، مشيرًا إلى إمكانية اختراقها وإعادة تدريبها لتتحوّل إلى أسلحة رقمية خطيرة.
وخلال كلمته في مؤتمر Sifted Summit 2025 بالعاصمة البريطانية لندن، أوضح شميت أن بعض النماذج المتقدمة للذكاء الاصطناعي يمكن أن تُعرّض لضغوط تقنية تُزيل ضوابط الأمان المضمنة فيها، قائلاً:"هناك أدلة على إمكانية اختراق النماذج، سواء كانت مغلقة المصدر أو مفتوحة، وإزالة حواجزها الواقية، ما يجعلها قادرة على سلوكيات غير متوقعة."
وأشار إلى أن هذه النماذج، خلال عملية تدريبها، تكتسب معرفة واسعة تشمل حتى قدرات على الأذى إذا أُسيء استخدامها، قائلاً إن بعض النماذج "قد تتعلم نظريًا كيفية قتل شخص ما".
وأشاد شميت بجهود شركات الذكاء الاصطناعي الكبرى التي تحظر المطالبات الخطيرة وتمنع النماذج من الاستجابة لها، واصفًا ذلك بأنه "قرار مسؤول وصائب"، لكنه في الوقت ذاته حذّر من أن هذه الدفاعات يمكن التحايل عليها عبر الهندسة العكسية.
وأضاف أن المتسللين قد يتمكنون من تعديل النماذج الذكية واستخدامها لأغراض خبيثة، مشبهًا الوضع الحالي بـ العصر النووي المبكر، حيث كانت التكنولوجيا قوية لكن الضوابط العالمية محدودة للغاية.
ودعا شميت إلى إنشاء نظام عالمي لحظر انتشار تقنيات الذكاء الاصطناعي المتقدمة، يمنع الجهات التخريبية من استغلالها، مؤكدًا أن القلق لم يعد نظريًا، مستشهدًا بظهور نسخة معدّلة من "تشات جي بي تي" عام 2023 تُعرف باسم DAN (Do Anything Now)، والتي تجاوزت كل قيود السلامة الأخلاقية وأجابت عن أي طلب تقريبًا.
وختم شميت تحذيره قائلاً:"من دون رقابة صارمة وتطبيق فعلي للقوانين، قد تنتشر النماذج المارقة في العالم الرقمي، وتتحول إلى أدوات للدمار بأيدي من يسعون إلى الإضرار بالبشرية."