مقالات

هل أصبحت بياناتك مكشوفة؟ كيف تنشر Meta AI عمليات البحث دون علم المستخدمين

حوادث حقيقية وقعت لتكشف حجم التهديدات الأمنية وتحديات الخصوصية

في عصر الذكاء الاصطناعي والاتصال الرقمي، تبرز قضايا الخصوصية كأحد أكبر التحديات التي تواجه المستخدمين، ومع التوسع المستمر في استخدام أدوات الذكاء الاصطناعي يصبح السؤال الأهم: هل فعلاً بياناتنا الشخصية في مأمن، وهل هي المحك؟

تقرير جديد أجرته “بي بي سي” البريطانية قبل أيام أثار تساؤلات جدية حول أمن المعلومات الشخصية والتجربة الرقمية، حيث كشف أن بعض المستخدمين يشاركون طلباتهم مع الذكاء الاصطناعي، بكل ما تحمله تجربة الاستخدام الشخصية من خصوصية، دون معرفة أنها تُعرض للجميع.

وسلطت بي بي سي الضوء في تقريرها على طريقة عمل محرك “Meta AI” تحديداً، كاشفة أن طلبات بعض المستخدمين ونتائج الذكاء الاصطناعي تظهر على “موجز Discover العام” علناً، دون أن يدرك أصحابها ذلك.


حوادث حقيقية كشفت المشكلة

تمكنت BBC من تتبع عدد من المستخدمين ومعرفة هوياتهم من خلال طلباتهم على Meta AI، حيث وجدت منشورات حقيقية لأشخاص استخدموا محرك الذكاء الاصطناعي لحل مسائل رياضية، والإجابة على أسئلة أكاديمية، وحتى استفسارات شخصية عميقة، إضافة إلى طلبات لإنشاء صور غير ملائمة، وعند تتبع أحد الطلبات ونتائجه استطاعت الوصول إلى حساب المستخدم صاحب الطلب على إنستغرام.

كما اشارت تقارير إعلامية أخرى لاحقاً إلى أن بعض الطلبات تضمنت مشاكل صحية ونفسية، استفسارات قانونية، تفاصيل مالية وعناوين شخصية، محادثات حول العلاقات الشخصية.

وأوضحت أنه تم في بعض الحالات ربط هذه المنشورات بحسابات المستخدمين على إنستغرام وفيسبوك، ما كشف عن هوياتهم الحقيقية، وهو ما يثير تهديدات أمنية جدية.


كيف يعمل تطبيق Meta AI؟ هل يمكن أن تصبح المحادثات الخاصة علنية؟

لمعرفة ما يحصل تماماً لابد من فهم آلية عمل هذا المحرك الذي أطلقته الشركة في نيسان أبريل 2025 ليكون مزيجاً بين روبوت دردشة ومنصة تواصل اجتماعي، حيث يمكن للمستخدمين طلب النصائح، مناقشة المشكلات الشخصية، والاستفسار عن مواضيع قانونية أو صحية.

ويمكن الوصول إليه من خلال منصات التواصل الاجتماعي (Facebook، Instagram، Whatsapp)، وهو متاح أيضاً كمنتج مستقل.

لكن الميزة المثيرة للجدل هي الموجز العام (Discover)، التي تتيح مشاركة المحادثات مع الذكاء الاصطناعي علناً، ما يسمح لأي شخص بمشاهدة تلك الطلبات والردود.

ورغم أن ذلك قد يبدو فرصة لتبادل الأفكار، فإن بعض المحادثات تشمل معلومات شخصية جداً قد لا يدرك المستخدمون أنها متاحة للجميع.

على الرغم من أن Meta تؤكد أن المحادثات خاصة “بشكل افتراضي” يرى خبراء أن التطبيق يشجع المشاركة بطرق قد تكون غير واضحة للمستخدمين، حيث يوجد زر “مشاركة” يجعل نشر المحادثة سهلاً على الموجز العام، دون وجود تحذيرات واضحة بشأن مدى علنية المنشورات.

المخاطر الأمنية وتحديات الخصوصية

عند إعلانها عن ميزة الموجز العام، حرصت Meta على التأكيد أن المستخدم هو “المتحكم”، وأن لا شيء يُشارك علناً إلا باختياره ما يعكس إدراك الشركة لاحتمال وقوع أخطاء في تجربة الاستخدام.

وفي هذا الصدد يثير بعض الخبراء تساؤلات حول ما إذا كان تصميم Meta AI ناتجاً عن سوء تخطيط أم أنه جزء من استراتيجية متعمدة لجعل الذكاء الاصطناعي أكثر تفاعلية واجتماعية؟ مشيرين أن في كلتا الحالتين، تبقى المخاطر واضحة وكبيرة، إذ يمكن استغلال المعلومات المنشورة علناً في الاحتيال الإلكتروني أو اختراق البيانات الشخصية وهو أمر يشكل تهديداً خطيراً.

وتقول راشيل توباك، الرئيسة التنفيذية لشركة Social Proof Security في منشور على منصة X تعليقاً على هذا الكشف الخطير “إذا كانت توقعات المستخدم حول كيفية عمل الأداة لا تتطابق مع الواقع، فهذا يعني أنك ستواجه مشكلة كبيرة فيما يتعلق بتجربة المستخدم والأمان.”


كيف يمكن حماية البيانات؟

عملياً يؤكد الخبراء ضرورة أن تكون هناك تحذيرات أكثر وضوحاً من الشركات للمستخدمين في تطبيقات الذكاء الاصطناعي ومعها ميتا لمنع المشاركة غير المقصودة مع بقية المستخدمين.

من جهة ثانياً ينصح الخبراء المستخدمين بتوقع المخاطر في أي تجربة استخدام، واتباع الإجراءات التالية للمحافظة على خصوصيتهم:

· مراجعة إعدادات الخصوصية الخاصة بالحسابات الشخصية عموماً وداخل التطبيقات ومنها Meta AI خصوصاً.
· التحقق من خيارات المشاركة قبل نشر أي محتوى.
· تجنب مشاركة معلومات حساسة مع الذكاء الاصطناعي، مؤكدين أن الذكاء الاصطناعي لا يصلح لأن يكون معالجك النفسي أو مساعدك الشخصي.

BBC
Analytic Insight

 

تعليق واحد

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات ذات صلة

زر الذهاب إلى الأعلى