الذكاء الاصطناعي والهلوسات: إلى أيِّ حدٍّ يمكن الاعتماد على ChatGPT؟
مسؤولٌ في OpenAI: شات جي بي تي لا يزال غير دقيق

عند بدء محادثةٍ مع ChatGPT، قد تلاحظ سطراً أسفل الشاشة يقول: «قد يُخطئ ChatGPT. تحقّق من المعلومات المهمّة». وما يزال ذلك صحيحاً مع نموذج GPT-5 الجديد، وفق ما أكّده هذا الأسبوع مسؤولٌ رفيع في OpenAI.
بهذا الصدد، قال نيك تورلي، رئيس منتج ChatGPT في OpenAI:
المشكلة في الموثوقيّة أن هناك فجوةً كبيرة بين أن تكون موثوقاً جداً وأن تصل إلى 100% موثوقية، من حيث تصور المنتج نفسه.. إلى أن نصبح -بشكلٍ مُثبت- أكثر موثوقيّة من خبيرٍ بشري في جميع المجالات، لا بعضها فقط، سنواصل نصحكم بمراجعة الإجابات مرَّتين.
يأمل تورلي بتحسّنٍ مستمر على هذه الجبهة، حيث يقول:
أظنُّ أن الناس سيواصلون استخدام ChatGPT كرأيٍ ثانٍ، وليس كمصدرهم الأوّل للحقيقة.
من المُغرٍ جدّاً أخذ رد الدردشة، أو خلاصات الذكاء الاصطناعي في نتائج البحث، على أنّها حقيقةٌ مُسلَّمٌ بها.. لكن أدوات التوليد، وليس ChatGPT وحده، تميل إلى «الهلوسة»، أي اختلاق معلومات.
يحدث ذلك لأنَّها مُصمَّمة أساساً لتوقُّع الإجابة المرجّحة اعتماداً على بيانات التدريب، لا لاختبار صدقها.
يقدم لك الطبيب، أو المعالِج، أو المستشار المالي إجابةً صحيحة لحالتك، لا الأكثر احتمالاً فحسب، أمّا الذكاء الاصطناعي فيُرجِّح ما يراه أقرب للصواب، بدون خبرةٍ تخصصيّةٍ تُدقّقه.
يرى تورلي أن الأداء يصبح أفضل حين تُقرَن النماذج بمصادر حقيقية مثل محرك بحثٍ تقليدي أو بياناتٍ داخليّةٍ موثوقة للشركات، حيث يقول:
لا شك عندي أن المنتج الصحيح هو نماذج لغويّة موصولة بالحقيقة، لهذا جلبنا البحث إلى ChatGPT، وهو يُحدِث فارقاً كبيراً.
لا تتوقّع من شات جي بي تي أن يُصيب كلّ مرّةٍ الآن
يقول تورلي إن GPT-5 يُمثّل قفزة كبيرة في تقليل الهلوسة، لكنه لا يزال بعيداً عن الكمال:
أنا واثقٌ من أنّنا سنحلّ الهلوسة في النهاية، وواثقٌ أيضاً أنّ ذلك لن يحدث في الربع القادم.
لذا، تحقق مما تقرؤه من أي دردشةٍ ذكية عبر مصدرٍ موثوق مثل طبيب، خبير، أو مصدرٍ رقمي موثوق، وحتى إن قدَّم لك الروبوت رابطاً، لا تفترض أنّه لخَّص المصدر بدقة، فقد يُشوِّش الحقائق في الطريق إليك.. وإن كنت ستتخذ قراراً بناءً على هذه المعلومات، راجِع ما يقوله الذكاء الاصطناعي مرتين.
المصادر: