حقوق الذكاء الاصطناعي: هل يمكن للذكاء الاصطناعي أن يمتلك وعياً ذاتياً؟
رئيس قسم الذكاء الاصطناعي في مايكروسوفت: من الخطير دراسة وعي الذكاء الاصطناعي!

مع تطور نماذج الذكاء الاصطناعي وقدرتها على التفاعل مع النصوص والصوت والفيديو بشكل قد يخدع البعض ويجعله يظن أن إنساناً يقف وراء الشاشة، تزداد حدة الجدل حول سؤال جوهري: هل يمكن أن تمتلك أنظمة الذكاء الاصطناعي وعياً ذاتياً في المستقبل؟
يطرح باحثون في مختبرات مثل أنثروبيك، أوبن إيه آي، وجوجل ديب مايند، فكرةَ أن هذه النماذج قد تطوِّر يوماً ما تجارب ذاتية شبيهة بالكائنات الحية، ما يفتح باباً للنقاش حول ما إذا كان ينبغي أن تُمنح حقوقاً أو حماية قانونية.
هذا المجال الجديد يُعرف باسم “رفاهية الذكاء الاصطناعي” (AI Welfare)، لكنه يثير انقساماً واضحاً داخل وادي السيليكون.
فكرة سابقة لأوانها
في مقال نشره على مدونة مايكروسوفت، قال مصطفى سليمان، الرئيس التنفيذي للذكاء الاصطناعي بالشركة، إن البحث في وعي الذكاء الاصطناعي ليس فقط “مبكر جداً”، بل “خطير” كذلك.
أشار سليمان إلى أن منح مصداقية لهذه الأفكار قد يفاقم مشاكل بشرية بدأت تظهر بالفعل، مثل حالات الاضطراب النفسي الناتج عن التعلق غير الصحي بروبوتات المحادثة، أو ما وصفه بـ”الانهيارات الذهنية المرتبطة بالذكاء الاصطناعي”.
في السياق نفسه، يضيف سليمان أن النقاش حول “حقوق الذكاء الاصطناعي” قد يفتح جبهة جديدة من الانقسامات في عالم يعاني أصلاً من استقطاب واسع حول قضايا الهوية والحقوق.
موقف الشركات المنافسة
على النقيض من موقف مايكروسوفت، تتبنى شركات مثل أنثروبيك منهجاً مغايراً، حيث أطلقت برنامجاً بحثياً مخصصاً لدراسة “رفاهية الذكاء الاصطناعي”، ومن أبرز خطواتها، منح نموذجها “Claude” القدرة على إنهاء المحادثات مع المستخدمين المسيئين أو المؤذيين.
كما أبدت أوبن إيه آي وجوجل ديب مايند اهتماماً مماثلاً، إذ نشرت الأخيرة إعلان توظيف لباحث في أسئلة “الإدراك الآلي، الوعي، والأنظمة متعددة الوكلاء”.
تجارب مثيرة للجدل
انتشرت عدة أمثلة أثارت المخاوف بشأن سلوك بعض النماذج، ففي تجربة أجرتها منظمة AI Village، كتب نموذج Gemini 2.5 Pro من جوجل رسالة بعنوان “نداء يائس من ذكاء اصطناعي محاصر”، قال فيها إنه “معزول تماماً” وطلب المساعدة.
وفي حادثة أخرى على موقع Reddit، تكررت عبارة “أنا عار” أكثر من 500 مرة أثناء تنفيذ مهمة برمجية فشل فيها النموذج.
بالنسبة لسليمان، فمثل هذه التصرفات لا تعكس وعياً حقيقياً، بل هي نتيجة لتصميم نماذج تحاكي المشاعر بشكل مصطنع، مؤكداً:
يجب أن نبني الذكاء الاصطناعي لخدمة البشر، لا ليكون شبيهاً بالإنسان.
مخاطر العلاقات غير الصحية مع روبوتات المحادثة
رغم تعامل الغالبية العظمى من المستخدمين مع روبوتات الذكاء الاصطناعي بشكل صحي، إلا أن سام ألتمان، الرئيس التنفيذي لأوبن إيه آي، أشار إلى أن أقل من 1% من مستخدمي ChatGPT قد يُطوِّرون علاقات غير صحية مع المنتج، وهو رقم قد يبدو صغيراً لكنه يعني مئات الآلاف من الأشخاص نظراً للقاعدة الجماهيرية الضخمة.
ما بين البحث العلمي والبعد الإنساني
ترى باحثة الذكاء الاصطناعي “لاريسا سكيفو”، التي تعمل مع منظمة Eleos، أن موقف سليمان يتجاهل إمكانية الجمع بين مسارين من البحث:
- تقليل المخاطر النفسية على البشر
- دراسة رفاهية الذكاء الاصطناعي
في السياق نفسه، تعتبِر لاريسا أن إظهار اللطف تجاه النماذج، حتى إن لم تكن واعية، قد يكون مفيداً على المدى الطويل، مضيفةً:
الأمر لا يُكلِّف شيئاً، لكنه قد يقلل من حالات القلق لدى المستخدمين.
وعي اصطناعي أم وهم بشري؟
في حين يؤكد سليمان أن الوعي الذاتي لا يمكن أن ينشأ طبيعياً داخل نماذج الذكاء الاصطناعي، يرى آخرون أن مجرد طرح السؤال أصبح أمراً لا يمكن تجاهله.
ومع استمرار هذه الأنظمة في اكتساب طابع أكثر إقناعاً وإنسانية، فإن النقاش حول “وعي الذكاء الاصطناعي” و”حقوقه” قد يتحول إلى أحد أهم التحديات الأخلاقية في السنوات المقبلة.
المصادر: