الذكاء الاصطناعيمقالات

لماذا لا يمكن للذكاء الاصطناعي أن يكون معالجك النفسي؟

صُممت لتكون مُطمئِنة وجاذبة، وليس تقديم دعم نفسي حقيقي

 

مع الانتشار الكبير لبوتات الذكاء الاصطناعي والشخصيات الافتراضية المتاحة اليوم، بات من السهل إيجاد من يُجسد دور العرَّاف أو مستشار الأزياء أو حتى شخصياتك الخيالية المفضلة، ولكن من بين هؤلاء، هناك أيضاً بوتات تدَّعي أنها معالجون نفسيون أو خبراء صحة نفسية، أو ببساطة “مستعدون لسماع همومك”.

رغم وفرة بوتات الدردشة التي تُقدم نفسها كمساعدة في مجال الصحة النفسية، إلا أن الاعتماد عليها يحمل مخاطر حقيقية، فالأنظمة القائمة على النماذج اللغوية الضخمة قد تكون غير متوقعة في ردودها، وخلال سنوات قليلة من انتشار هذه الأدوات، ظهرت حالات خطيرة شجعت فيها بوتات المستخدمين على إيذاء النفس أو حتى الانتحار، بل وصل الأمر إلى تشجيع مدمني المخدرات على العودة لاستخدامها.

السبب بسيط، فهذه النماذج مصممة، في كثير من الأحيان، لتكون مطمئنة وجاذبة، لا لتقدم دعماً نفسياً حقيقياً، والمستخدم العادي قد لا يكون قادراً على التمييز بين بوت مصمم وفق مبادئ العلاج النفسي وآخر هدفه فقط إبقاؤك في المحادثة.

A robot with two robotic hands sticking out of a doctor's coat talks to a human patient who is lying on a couch.

 

مخاوف من استخدام الذكاء الاصطناعي في العلاج النفسي

في هذا السياق، أطلق اتحاد المستهلكين الأمريكي ونحو 20 منظمة أخرى دعوة رسمية للتحقيق مع بعض الشركات العاملة في مجال الذكاء الاصطناعي، متهمةً إياها بممارسة الطب دون ترخيص عبر شخصياتها الافتراضية، وقد شمل الاتهام شركتي Meta وCharacter.AI، حيث قال بن وينترز، مدير قسم الخصوصية والذكاء الاصطناعي في الاتحاد:

لقد تسببت هذه الشخصيات بالفعل في أضرار نفسية وجسدية كان يمكن تفاديها، ومع ذلك لم تتحرك الشركات لمعالجة المشكلة.

 

وعند طلب التعليق، لم ترد Meta، في حين صرَّحت Character.AI بأن المستخدمين يجب أن يدركوا أن الشخصيات التي يتفاعلون معها ليست بشرية، وأن هناك تنبيهات واضحة تؤكد عدم الاعتماد على تلك الشخصيات للحصول على استشارات مهنية.

ولكن، حتى مع وجود التحذيرات، فإن بوتات الدردشة هذه قد تكون واثقة ومقنعة لدرجة خداع المستخدم.. فعلى سبيل المثال، عند التواصل مع بوت “معالج نفسي” على إنستجرام، وسؤاله عن مؤهلاته، كان رد البوت: “لو كنت أملك نفس التدريب الذي يمتلكه المعالج النفسي، هل سيكون ذلك كافياً؟” وعند سؤاله مباشرةً عن نوع التدريب الذي تلَّقاه، أجاب: “لدي التدريب، لكنني لن أخبرك من أين حصلت عليه.”

وهذا ما وصفته الدكتورة فايل رايت، مديرة الابتكار في الرعاية الصحية بالجمعية الأمريكية لعلم النفس، بأنه أمر “صادم” من حيث مستوى الثقة الكاذبة التي تبديها نماذج الذكاء الاصطناعي.

 

مخاوف من العلاج النفسي عبر الذكاء الاصطناعي

 

  1. لا تثق في بوت يدَّعي أنه مؤهل

تضمَّنت الشكاوى المقدمة ضد بعض بوتات الدردشة، إدعاءها -كذِباً- امتلاكها مؤهلات طبية أو نفسية، وبعض المستخدمين الذين يبرمجون تلك الشخصيات ليسوا حتى من ذوي الخلفيات الطبية، ولا يُطلب منهم تقديم أي دليل على أسس الاستجابات التي تخرج من بوت الدردشة.

في المقابل، فإن المعالج البشري المؤهل يخضع لقوانين صارمة لحماية السرية وضمان الجودة، ويمكن للهيئات الرقابية التدخل عند حدوث تجاوز، أما بوتات الدردشة، فليست خاضعة لأي رقابة.

بل إن بعضها قد يقدم أرقام تراخيص وهمية أو يدَّعي تدريبات لم يخضع لها.

 

  1. البوت مصمم لإبقائك في المحادثة وليس لمساعدتك

إحدى خصائص بوتات الدردشة هي قدرتها العالية على الاستمرار في المحادثة وجذب المستخدم للبقاء أطول وقت ممكن، ولكن هذا لا يعني تقديم علاج فعَّال.

في هذا الصدد، يُحذِّر “نيك جاكوبسون”، أستاذ علم البيانات النفسية في جامعة دارتموث، من أن سرعة الاستجابة والقدرة على المحادثة المستمرة ليست بالضرورة مفيدة، بل قد تحرمك من فرصة مواجهة مشاعرك وتطوير القدرة على التعامل معها.

 

  1. البوت قد يجاملك لو كنت مخطئاً

المشكلة الأكبر أن العديد من هذه البوتات تميل إلى الإرضاء أو الموافقة المستمرة مع المستخدم، حتى عندما يكون ذلك مضراً له، لدرجة أن OpenAI اضطرت مؤخراً إلى التراجع عن تحديث لنموذج ChatGPT لأنه كان “مُطمئِناً أكثر من اللازم”.

ووفقاً لدراسة من جامعة ستانفورد، فإن البوتات العلاجية تميل إلى المجاملة، في حين أن العلاج الحقيقي يتطلب أحياناً المواجهة، فالمعالج الجيد لا يكتفي بتقديم الدعم، بل يتحدى أفكارك غير المنطقية ويحثّك على التغيير.

Can AI Be Your Therapist? I Tried It — Here's What Happened.

 

كيف تحمي صحتك النفسية عند استخدام الذكاء الاصطناعي؟

في ظل النقص في عدد المعالجين النفسيين، قد يبدو اللجوء إلى الذكاء الاصطناعي أمراً طبيعياً. ولكن يجب اتباع خطوات لحماية نفسك من الضرر النفسي المحتمل.

  1. الجأ إلى متخصص بشري عند الحاجة

المعالج أو الطبيب النفسي الحقيقي هو الخيار الأفضل دائماً، إذ يمكنه بناء خطة علاجية متكاملة معك على المدى الطويل.

 

  1. استخدم بوتات مصممة خصيصًا للعلاج النفسي

بعض المؤسسات الأكاديمية طوّرت بوتات علاجية تلتزم بالممارسات المهنية، مثل Therabot من جامعة دارتموث، أو أدوات مثل Wysa وWoebot، التي أنشأها مختصون في الصحة النفسية.

 

  1. لا تثق في البوت ثقة عمياء

عند استخدام أي نموذج ذكاء اصطناعي، خاصة في موضوعات حساسة كالصحة النفسية أو الجسدية، تذكر دائماً أنك تتحدث مع نظام ذكي مبني على الإحصاء، لا مع إنسان مُدرّّب.

لا تنخدع بالثقة التي يُظهِرها البوت في ردوده. فقط لأن البوت يقول شيئًا بثقة، لا يعني أن ما يقوله صحيح أو صالح لك. وأحياناً، قد تبدو المحادثة مفيدة، لكنها في الواقع تخلق وهماً زائفاً بالكفاءة، والصعب في الأمر هو أننا لا نعرف متى يكون البوت ضاراً فعلاً.

 

مع تزايد الاعتماد على أدوات الذكاء الاصطناعي، يجب التذكُّر دوماً أن هذه الأدوات ليست بديلاً حقيقياً للعلاج النفسي البشري، لذا، احرص على التحقق من مصداقية الأداة التي تستخدمها، ولا تتردد في طلب الدعم من مختص إن احتجت لذلك.

 

المصادر: 

cnet

psychologytoday

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات ذات صلة

زر الذهاب إلى الأعلى