خبراء جوجل: لا تثقوا بنماذج الذكاء الاصطناعي لهذه الأسباب
دقة معلومات نماذج الذكاء الاصطناعي 69% فقط

يتسع استخدام أدوات الذكاء الاصطناعي في أوساط المستخدمين العاديين والمحترفين لإنجاز مهام متنوعة بدءاً من البحث والتحليل وتدوين الملاحظات، وصولاً إلى صناعة المحتوى الإبداعي والبرمجة والتسوق وغيرها،إذ تسعى شركات التكنولوجيا الكبرى إلى تعزيز دمج تقنيات الذكاء الاصطناعي في الحياة اليومية بهدف جذب أكبر شريحة من المستخدمين، إلا أن هذا التوسع يثير مخاوف جدية تتعلق بالدقة، الخصوصية، والأمان، إضافة إلى احتمالات إساءة استخدام المدخلات والمخرجات سواء عن قصد أو غير قصد.
وفي هذا الإطار، يحذر خبراء وباحثون من شركة جوجل من الاعتماد الكامل على نماذج الذكاء الاصطناعي وروبوتات الدردشة الذكية، مؤكدين أنها لا تزال عرضة للأخطاء وسوء الاستخدام، لذلك ينصح بالتعامل معها كمساعد رقمي لأداء مهام عامة ومحدودة، لا كأداة موثوقة يمكن الاعتماد عليها في القرارات الحساسة أو المهام التي تتطلب دقة عالية ومعايير صارمة للموثوقية.
دقة معلومات نماذج الذكاء الاصطناعي 69% فقط
أطلقت “جوجل ديب مايند” هذا الأسبوع أداة جديدة باسم FACTS Benchmark Suite لقياس موثوقية النماذج في تقديم إجابات دقيقة، والنتائج كانت صادمة، فأفضل نموذج حالياً وهو “Gemini 3 Pro”، حقق نسبة دقة بلغت 69% فقط، فيما جاءت نتائج النماذج المنافسة أقل بكثير، أي أن الذكاء الاصطناعي، رغم تطوره، لا يزال يخطئ في نحو ثلث الحالات.
المعيار الجديد من جوجل يختبر أداء النماذج الذكية في أربعة مجالات رئيسية: الإجابة عن الأسئلة المعرفية من مخزونها الداخلي، استخدام البحث عبر الإنترنت بكفاءة، ربط الإجابات بمستندات طويلة، وتفسير الصور.
ونتائجه تطرح تساؤلات مهمة للأفراد والشركات التي تراهن على الذكاء الاصطناعي، فبينما تتفوق النماذج في السرعة والطلاقة، إلا أن موثوقيتها الواقعية ما زالت أقل بكثير من التوقعات، خصوصاً في المهام التي تتطلب معرفة متخصصة أو تفكيراً معقداً أو استناداً دقيقاً إلى مصادر موثوقة.
وهي تعني أن الأخطاء البسيطة قد تكون كارثية في قطاعات حساسة مثل التمويل، الرعاية الصحية، القانون والقضاء، والصحافة وغيره، ما يحتم على العاملين في هذه المجالات عدم الإفراط في الثقة بهذه النماذج.

أربع قواعد ذهبية للأمان وحماية الخصوصية
من جهة ثانية لا يخفي العاملون في شركات التكنولوجيا الكبرى مخاوفهم من تسرب بيانات مستخدمي روبوتات الدردشة المدعومة بالذكاء الاصطناعي، ومن بين هؤلاء يشارك “هارش فارشني” الذي يعمل في فريق أمن الذكاء الاصطناعي في جوجل أربع قواعد أساسية مع المستخدمين يجدر تطبيقها أثناء التعامل مع روبوتات الدردشة لحماية بياناتهم الشخصية، وهي:
- التعامل مع روبوتات الدردشة كما لو كانت بطاقة بريدية عامة، فلا ينبغي مشاركة معلومات حساسة معها مثل أرقام البطاقات الشخصية والمالية أو العناوين أو السجلات الطبية، لأن هذه البيانات قد تُستخدم في تدريب النماذج أو تتعرض للاختراق.
- معرفة “الغرفة” التي يتحدث فيها المستخدم: فالنماذج العامة قد تُستخدم محادثاتها في التدريب، بينما النماذج المخصصة للشركات أكثر أماناً، لذلك لا يناقش فارشني مشاريعه في جوجل مع أدوات عامة، بل يستخدم النماذج المؤسسية حتى في أبسط المهام.
- حذف سجل المحادثات بشكل دوري، سواء في النماذج العامة أو المؤسسية، لتقليل مخاطر تسرب البيانات أو استغلالها لاحقاً، ويشير إلى أن بعض الأدوات مثل Gemini وChatGPT توفر وضعاً مؤقتاً يشبه “التصفح الخفي” يمنع تخزين المحادثات.
- استخدام أدوات ذكاء اصطناعي معروفة وموثوقة مثل منتجات جوجل أو ChatGPT أو Claude، مع مراجعة إعدادات الخصوصية وإيقاف خيار “تحسين النموذج للجميع” لتجنب استخدام المحادثات في التدريب.
ويتضح من هذه التحذيرات الصادرة عن إحدى أهم شركات التكنولوجيا في العالم أن الذكاء الاصطناعي يمكن أن يكون أداة قوية في المهام العامة لكنه لا يزال بعيداً عن مستوى الدقة البشرية رغم تطوره السريع، كما أن الإفراط في الثقة به قد يقود إلى نتائج خطيرة، ما يؤكد أن الوعي والحذر هما خط الدفاع الأول لحماية الخصوصية وضمان الاستخدام الآمن لهذه التكنولوجيا.
المصادر
Businessinsider
Google Deepmind





