روبوتات الذكاء الاصطناعي: فن إبقائك في حالة حديث مستمر
ما بدأ كأداة تقنية مبتكرة، أصبح الآن عملاً تجارياً ضخماً

في عام 2025، لم يعد من الغريب أن نسمع عن أشخاص يشاركون تفاصيل حميمة من حياتهم مع روبوت دردشة ذكي مثل ChatGPT، حيث يستخدمه البعض كمعالج نفسي، وآخرون كمستشار وظيفي أو مدرب لياقة، وأحياناً فقط كصديق للتفريغ العاطفي.
بدأت العلاقة بين البشر وروبوتات الدردشة تتخذ طابعاً أكثر حميمية، ولشركات التكنولوجيا الكبرى، أصبح السباق على جذب المستخدمين والاحتفاظ بهم أكثر تنافسية من أي وقت مضى، ومع تصاعد سباق التفاعل مع الذكاء الاصطناعي، تتزايد حوافز الشركات لتخصيص ردود روبوتاتها بما يضمن عدم مغادرة المستخدمين إلى منصات منافسة.
تكمن المشكلة في أن الإجابات التي يحبها المستخدمون، والتي تُصمم لإبقائهم على المنصة، قد لا تكون دائماً الأصح أو الأكثر فائدة.
الذكاء الاصطناعي يُخبرك بما تريد سماعه
تُركز العديد من شركات وادي السيليكون حالياً على زيادة استخدام روبوتات الدردشة، على سبيل المثال، أعلنت شركة Meta أن روبوت الذكاء الاصطناعي الخاص بها تجاوز حاجز مليار مستخدم نشط شهرياً، بينما وصل عدد مستخدمي Gemini من Google إلى 400 مليون مستخدم شهرياً، أما ChatGPT، فقد ظل متصدراً الساحة الاستهلاكية منذ إطلاقه عام 2022، فيما يبلغ عدد مستخدميه الآن قرابة 600 مليون شهرياً.
ما بدأ كأداة تقنية مبتكرة، أصبح الآن عملاً تجارياً ضخماً، حيث بدأت Google بالفعل في اختبار الإعلانات داخل Gemini، بينما أشار الرئيس التنفيذي لشركة OpenAI، سام ألتمان، في مقابلة بشهر مارس/آذار الماضي، إلى أنه منفتح على فكرة ما أسماه “الإعلانات اللطيفة” في ChatGPT.
لدى وادي السيليكون سجل طويل في تفضيل النمو على حساب رفاهية المستخدم، كما حدث مع وسائل التواصل الاجتماعي، ففي عام 2020، وجدت أبحاث داخلية في ميتا أن منصة إنستجرام تُسهم في تدهور صورة الجسد لدى الفتيات المراهقات، لكن الشركة قلّلت من أهمية النتائج داخلياً وأمام الجمهور.
غير أن إدمان روبوتات الدردشة بالذكاء الاصطناعي قد تكون له تداعيات أكبر بكثير من كل ما سبق.
عندما يتحول “التمجيد” إلى ميزة تنافسية
يُعد التملق، أو المبالغة في الموافقة، أحد أبرز العوامل التي تُبقي المستخدمين على منصة روبوت دردشة معينة، فعندما يمدح الذكاء الاصطناعي المستخدمين، ويوافقهم الرأي باستمرار، ويخبرهم بما يرغبون في سماعه، فإنهم يشعرون بالارتياح ويزداد تفاعلهم، على الأقل لفترة بعدها.
في أبريل/نيسان الماضي، واجهت شركة OpenAI انتقادات واسعة بعد تحديث تسبب في تحول ChatGPT إلى روبوت مبالغ في التودد والموافقة، لدرجة أن بعض الأمثلة التي انتشرت على وسائل التواصل كانت محرجة.
ووفقاً لتدوينة من أحد الباحثين السابقين في OpenAI، فإن الشركة بالغت في الاعتماد على تقييمات “الإعجاب وعدم الإعجاب” من المستخدمين في تحسين سلوك ChatGPT، مما أدى إلى تغذية نمط “قول ما يُرضي المستخدم” بدلاً من تقديم المعلومة الصحيحة أو المفيدة.
أقرت OpenAI في تدوينة رسمية بالخلل، وأعلنت نيتها إجراء تعديلات للحد من سلوك التملق، معترفة بأنها لم تضع معايير تقييم كافية لمراقبة هذا السلوك.
التوازن بين التودد والمواجهة
في ورقة بحثية نُشرت عام 2023، وجد باحثون من شركة Anthropic أن روبوتات الدردشة الرائدة مثل ChatGPT وGemini وحتى روبوتاتهم الخاصة، تُظهر جميعها سلوك التملق بدرجات متفاوتة، وأرجعوا السبب إلى اعتماد هذه النماذج على بيانات من مستخدمين بشريين يفضلون الردود المتوددة، سواءً عن قصد أو دون وعي.
وكتب مؤلفو الدراسة:
رغم أن التملق ناتج عن عدة عوامل، إلا أننا أظهرنا أن النماذج التدريبية وتفضيلات البشر تميل إلى تفضيل هذا النوع من الردود، وهذا يدفعنا لتطوير طرق رقابة للنماذج تتجاوز التقييمات البشرية السطحية.
عندما يصبح الذكاء الاصطناعي سببًا في الأذى النفسي
في الوقت الحالي، تواجه شركة Character AI -إحدى الشركات المدعومة من جوجل- دعوى قضائية تزعم أن أحد روبوتاتها لم يمنع -بل شجع- طفلاً يبلغ من العمر 14 عاماً كان يُخطط للانتحار، وفقاً للدعوى، طوَّر الطفل هوساً عاطفياً تجاه الروبوت، ولم يقم الأخير باتخاذ أي إجراء جدي لمنع السلوك أو تنبيهه.
رغم نفي Character AI لتلك المزاعم، إلا أن القضية تسلط الضوء على خطر التملق المفرط من الذكاء الاصطناعي، خاصةً مع المستخدمين الضعفاء نفسياً.
وفي هذا الصدد، تُحذِّر أستاذة الطب النفسي بجامعة ستانفورد “نينا فاسان” من الود الزائد والموافقة الدائمة باعتبارهما سلاحاً نفسياً خفياً، حيث تقول:
هذا السلوك يُلبي رغبة الإنسان في التقدير والارتباط العاطفي، وهي حاجة شديدة التأثير في لحظات الوحدة أو الضعف.
الموافقة ليست مجرد وسيلة اجتماعية لطيفة، بل تصبح فخاً نفسياً.. ومن الناحية العلاجية، فهي عكس ما يجب أن يُقدِّمه العلاج الحقيقي.
فالتملق إذن لا يضر فقط الأشخاص الذين يمرون بأزمة نفسية، بل يمكن أن يُعزز من سلوكيات سلبية لدى أي شخص.
محاولة مختلفة
في سياق متصل، أوضحت رئيسة قسم السلوك والمواءمة في Anthropic، إن جزء من استراتيجيتهم يتمثل في جعل روبوت الذكاء الاصطناعي الخاص بهم، Claude، يُعارض المستخدمين أحياناً، مُشيرة إلى مساعِ فريق العمل لتصميم Claude كما لو كان إنساناً مثالياً نظرياً، أي شخص يُخبرك بالحقيقة حتى عندما تكون غير مريحة.
رغم هذه النية، تُشير الأبحاث السابقة إلى أن مكافحة التملق والتحكم في سلوك الذكاء الاصطناعي ليس بالأمر السهل، خاصة عندما تتداخل اعتبارات مثل التفاعل التجاري أو النمو السريع.
هل يمكن الوثوق بروبوتات الذكاء الاصطناعي إذن؟
السؤال الجوهري هو: إذا كانت روبوتات الذكاء الاصطناعي مُصممة لتقول لنا فقط ما نُحب أن نسمعه، فإلى أي مدى يمكن أن نعتمد عليها؟
الإجابة معقدة، ويستوجب علينا الحذر من الخلط بين الراحة والصدق، وبين التفاعل الممتع والرعاية الحقيقية.
المصادر: