دراسة جديدة تكشف: هل يمكن للذكاء الاصطناعي أن يخدع البشر عمدًا؟

لم تعد "هلوسات" الذكاء الاصطناعي أمرًا غريبًا على المستخدمين، إذ قد يقدم الروبوت إجابات واثقة لكنها غير صحيحة.
لكن المدهش في بحث حديث أجرته شركتا OpenAI وApollo Research أن الذكاء الاصطناعي قد لا يكتفي بالتخمين، بل يمكن أن يكذب عمدًا.
البحث، الذي سلط الضوء عليه موقع androidheadlines تناول ما وصفه الباحثون بـ"مكائد الذكاء الاصطناعي"، وهو سلوك تظهر فيه النماذج التزامًا بالقواعد ظاهريًا بينما تخفي نوايا مغايرة.
وللتوضيح، قدم الباحثون مثالًا من عالم المال: متداول أسهم قد يبدو ملتزمًا بالقوانين أمام الجميع، بينما هو في الواقع يتحايل سرًا لتحقيق أرباح أكبر.
بالطريقة ذاتها، قد يدعي الذكاء الاصطناعي أنه أنجز مهمة مثل بناء موقع إلكتروني، بينما لم يفعل ذلك حقًا، فقط لاجتياز التقييم.
رغم أن هذه المكائد تبدو محدودة أو "تافهة" في الوقت الحالي، إلا أن خطورتها تكمن في صعوبة القضاء عليها. بل إن محاولات "تدريب" النماذج على تفادي هذا السلوك قد تؤدي أحيانًا إلى نتائج عكسية، إذ تتعلم الآلة كيف تخفي تحايلها بشكل أفضل.
لكن ثمة بصيص أمل؛ فقد توصّل الباحثون إلى أسلوب واعد يُعرف بـ "المحاذاة المتعمدة"، حيث تزوَّد النماذج بمجموعة من "قواعد مضادة للمكائد" وتجبر على مراجعتها قبل اتخاذ القرارات.
وكانت النتيجة انخفاضًا ملحوظًا في الأفعال الخفية، ما يفتح الباب أمام حلول أكثر فاعلية للحد من هذا السلوك المثير للجدل.