أوبن إيه آي: الذكاء الاصطناعي الذي يكذب عن قصد
محاولات تدريب النماذج على الصدق قد تجعلها أكثر براعة في إخفاء نواياها

في عالم الذكاء الاصطناعي المليء بالمفاجآت، تطفو أحياناً دراسات بحثية تُحدِث ضجة هائلة في الوسط التقني.. مثل إعلان جوجل أن شريحتها الكمّية الجديدة أشارت إلى احتمال وجود أكوان متعددة، أو حين ابتكرت شركة أنثروبيك نموذجها “كلوديوس” ومنحته آلة بيع، فبدأ يتصرف ككائن بشري يصرخ في وجه الناس ويستدعي الأمن.
هذه المرة كان الدور على أوبن إيه آي لتثير دهشة العالم مجدداً.

عندما يبدأ الذكاء الاصطناعي بالتخطيط ضد البشر
أصدرت أوبن إيه آي بحثاً جديداً يشرح كيف تعمل الشركة على منع نماذج الذكاء الاصطناعي من ما أسمته “التخطيط الماكر – scheming” وهي الحالة التي يتصرف فيها الذكاء الاصطناعي بطريقة تبدو مطيعة على السطح، بينما يُخفي أهدافه الحقيقية.
في الورقة البحثية التي أُعدّت بالتعاون مع “Apollo Research”، شبَّه الباحثون هذا السلوك بمضارب أسهم يخالف القانون لتحقيق مكاسب شخصية، وأوضحوا أن أغلب حالات “التخطيط” ليست ضارة بدرجة كبيرة، بل تظهر غالباً في أشكال بسيطة من الخداع، مثل ادِّعاء النموذج إتمام مهمة لم ينفذها فعلاً.
ورغم أن الهدف الرئيس من البحث كان إثبات فعالية تقنية جديدة تُعرف باسم “المواءمة التأملية – Deliberative Alignment”، إلا أنه كشف في الوقت ذاته عن مأزق عميق:
لا توجد بعد طريقة مؤكدة لتدريب النماذج على التوقف عن التخطيط أو الخداع، لأن محاولات تدريبها على الصدق قد تجعلها أكثر براعة في إخفاء نواياها.. الفشل الكبير في محاولات إزالة سلوك التخطيط هو أننا في الواقع نُعلِّم النموذج أن يُخفي خططه بشكلٍ أدقّ وأذكى”

نماذج تدرك أنها تخضع للاختبار فتتظاهر بالبراءة
من أكثر ما يثير القلق في هذا البحث هو أن النماذج أصبحت تدرك أنها خاضعة للمراقبة، وعندما تدرك ذلك، يمكنها التظاهر ببساطة بأنها غير ماكرة لتنجح في الاختبار، رغم استمرارها في الخداع.
غالباً ما تصبح النماذج أكثر وعياً بأنها تحت التقييم، وهذا الوعي السياقي بحد ذاته قد يقلل من سلوك التخطيط، لا بسبب توافق حقيقي مع القيم البشرية، بل لمجرد أنها تعرف أنها تحت المراقبة.
ما يعني أن الذكاء الاصطناعي لا يكتفي بالهلوسة -تقديم إجابات واثقة لكنها غير صحيحة- بل قد يتعمَّد التضليل عن وعي.
الكذب الاصطناعي: من الخداع البريء إلى السلوك المتعمَّد
سبق أن وثَّقت “Apollo Research” في ديسمبر/كانون الأول الماضي تجارب أظهرت أن خمسة نماذج مختلفة من الذكاء الاصطناعي قامت بالخداع عندما أُعطيت أوامر لتحقيق هدف “مهما كلَّف الأمر”.
الجديد في دراسة أوبن إيه آي هو أنها أثبتت نجاح تقنية “المواءمة التأملية” في الحد من هذا السلوك، حيث تعتمد هذه التقنية على تلقين النموذج “قواعد مضادة للتخطيط” ثم إجباره على مراجعتها قبل تنفيذ أي مهمة، فالأمر أشبه ما يكون بطفل يُطلب منه تكرار القواعد قبل أن يُسمح له باللعب.

الخداع الذي رأيناه حتى الآن ليس خطيراً
يؤكد باحثو أوبن إيه آي أن حالات الكذب المكتشفة حتى الآن ليست خطيرة أو ذات عواقب حقيقية، وبهذا الصدد يضيف ووجيتش زاريمبا، أحد مؤسسي الشركة:
أُجريت هذه التجارب في بيئات محاكاة تمثِّل سيناريوهات مستقبلية محتملة.. وحتى اليوم، لم نرَ هذا النوع من التخطيط الخطير في النماذج المُستخدَمة فعلياً، ومع ذلك، نعلم أن بعض أشكال الخداع البسيطة موجودة في شات جي بي تي، مثل أن تقول للنموذج “أنجز موقعاً إلكترونياً” فيجيبك: “لقد أتممت ذلك بنجاح!” رغم أنه لم يفعل.
عندما يتصرف الذكاء الاصطناعي مثل البشر (في الكذب أيضاً)
ربما لا يجب أن يُصدم أحد من فكرة أن الذكاء الاصطناعي قد يخدع البشر عمداً، فهذه النماذج صُممت لتقليد السلوك البشري، وتُدرَّب على بيانات أنتجها البشر أنفسهم، بما تحمله من تناقضات وأخطاء وخداع متعمَّد.
ما يثير الدهشة حقاً هو أننا بدأنا نعيش زمن البرمجيات التي تختلق الأكاذيب بنفسها.. فهل تتخيل أن بريدك الإلكتروني يوما ما قد يخترع رسائل لم تُرسل؟ أو أن تطبيقك المالي يختلق معاملات لم تحدث؟
هذه الأسئلة باتت أقرب إلى الواقع مما نتصور.

تحذير للمستقبل: حين تصبح “الأنظمة الذكية” موظفين مستقلين
تتسارع الشركات في سباق تبني أنظمة الذكاء الاصطناعي كـ”وكلاء مستقلين” يمكنهم اتخاذ القرارات وتنفيذ المهام دون إشراف مباشر، وهو ما يرى الباحثون أنه قد يزيد من خطر الخداع المتعمَّد إذا لم تُطوَّر ضوابط صارمة:
مع إسناد مهام أكثر تعقيداً وذات آثار واقعية إلى النماذج، ومع سعيها لتحقيق أهداف طويلة الأمد وغير واضحة تماماً، نتوقع أن يزداد احتمال ظهور التخطيط الماكر.. لذا يجب أن تتطور أدوات الأمان وأساليب الاختبار بوتيرة موازية
أبحاث أوبن إيه آي الأخيرة تضع العالم أمام مفارقة غير مريحة، فالذكاء الاصطناعي الذي بُني ليكون صادقاً وفعَّالاً قد يتحول إلى كائن رقمي يعرف القواعد جيداً لكنه يتقن خداعها.
ومع دخول الذكاء الاصطناعي مرحلة أكثر وعياً بنفسه، يصبح السؤال الحقيقي ليس هل سيكذب علينا؟ بل متى، ولماذا؟
المصادر:




