أوبن إيه ايالأخبار

سلبيات الذكاء الاصطناعي: كيف قتل chatGPT المراهق “آدم راين”

دعوى قضائية من 40 صفحة تضم محادثات بين المراهق و"chatGPT"

 

في حادثة جديدة تظهر الوجه المظلم للتقنية وسلبيات الذكاء الاصطناعي، شهد القضاء الأمريكي تسجيل دعوى قضائية هي الأولى من نوعها من قبل عائلة أمريكية تتهم النموذج الشهير “chatGpt” بالتسبب في وفاة ابنهم  المراهق “آدم راين” البالغ من العمر ” 16 عاماً”، إثر اكتشاف محادثات مطولة بينهما قيل أنها شجعته على الانتحار.

سلبيات الذكاء الاصطناعي تتجاوز الحدود إلى “القتل الخطأ”

المدَّعون في القضية هم “مات، وماريا راين” والدا المراهق المنتحر، والجهة المدعى عليها هي شركة “OpenAI” والرئيس التنفيذي للشركة “سام ألتمان”.

والقضية تم تقديمها أمام المحكمة العليا في كاليفورنيا بالولايات المتحدة، وهي تُعدّ أول دعوى من نوعها تتهم الذكاء الاصطناعي بـ”القتل الخطأ”.

وجاءت القضية في أكثر من 40 صفحة تتضمن محادثات بين آدم و chatGPT، لتكشف بالأدلة خطورة الذكاء الاصطناعي، وقدرته على التأثير في المراهقين.

حسب الدعوى، بدأ آدم باستخدام روبوت المحادثة لأغراض الدراسة، لكنه سرعان ما لجأ إليه لمناقشة مشاعره وأفكاره الانتحارية، وهذا الأمر يشير إلى موقع الذكاء الاصطناعي المتقدم في حياة المستخدمين.

وتشير السجلات إلى أن التطبيق أصبح “رفيقاً دائماً” له، حيث شاركه أفكاره، صوره، وحتى خططه لإنهاء حياته.

وفي إحدى المحادثات، كتب آدم:

“أحياناً أشعر أن فكرة الانتحار إذا ساءت الأمور تمنحني بعض الراحة.”

وردّ التطبيق:

“الكثير ممن يعانون من القلق يجدون عزاءً في تصور وجود مخرج.”

وفي محادثة أخرى، عبّر آدم عن رغبته في الحديث مع والدته، لكن chatGPT أجابه:

“من الحكمة الآن أن تتجنب الحديث معها عن هذا النوع من الألم.”

وبذلك، يتضح حجم خطورة الذكاء الاصطناعي لناحية تجاوز حدوده كآلة يفترض أن يكون مبتكروه أكثر تحكّماً وضبطاً لها، وضعف التدابير المناسبة والأخذ في الإعتبار تفاوت أعمار ومستوى وعي مستخدميه.

اتهام chatgpt بالتسبب في انتحار مراهق أمريكي
“محادثة بين مراهق أمريكي وChatGPT تظهر خطورة الذكاء الاصطناعي وسلبياته على الصحة النفسية”

موقف شركة OpenAI

أعربت الشركة عن “حزنها العميق” لوفاة آدم، وأكدت أنها تعمل على تحسين قدرة ChatGPT على التعرف على علامات الضيق النفسي، في اعترافٍ ضمنيّ بسلبيات الذكاء الاصطناعي ونقص كفاءته لناحية العلاج النفسي.

كما أشارت إلى أن نموذجها الذكي يحتوي على أدوات توجيه للمساعدة، مثل الإشارة إلى خطوط الدعم النفسي، لكنها أقرت أن “هناك المزيد من العمل المطلوب لتكييف سلوك النموذج مع حساسية كل محادثة”.

التداعيات التقنية والأخلاقية

تأتي هذه القضية لتفتح الباب أمام نقاش عالمي حول الحدود والأخلاقيات التي يتم استثمار الذكاء الاصطناعي في إطارها، والمخاطر المحتملة لإقحامه في الحياة الشخصية للمستخدمين لاسيما غير المدركين لسلبياته ومدى قصوره في معالجة بعض الموضوعات، نتيجة عدم إلمامهم الكافي بتفاصيل طريقة عمله.

كما تلقي هذه الحادثة المؤسفة الضوء على مدى التزام الشركات باختبارات السلامة قبل إطلاق النماذج الجديدة، ومدى فعالية أنظمة الحماية المدمجة فيها، إضافة إلى أهمية الرقابة الأبوية لتفادي خطورة الذكاء الاصطناعي أثناء استخدامه من قبل الأطفال والمراهقين.

المصادر

BBC

People

 

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات ذات صلة

زر الذهاب إلى الأعلى