ميتا ترفض التوقيع على مدونة قواعد السلوك الأوروبية الخاصة بالذكاء الاصطناعي
تُعد المدونة إطاراً طوعياً، بهدف مساعدة الشركات على الامتثال للقوانين الأوروبية

رفضت شركة ميتا التوقيع على مدونة قواعد السلوك التي أطلقها الاتحاد الأوروبي في إطار قانون الذكاء الاصطناعي، وذلك قبل أسابيع من دخول القواعد الجديدة حيز التنفيذ لمطوري نماذج الذكاء الاصطناعي ذات الاستخدامات العامة.
قال جويل كابلن، الرئيس التنفيذي للشؤون العالمية في ميتا، في منشور على لينكدإن:
أوروبا تسلك الطريق الخطأ في تنظيم الذكاء الاصطناعي.. لقد قمنا بمراجعة مدونة المفوضية الأوروبية الخاصة بنماذج الذكاء الاصطناعي ذات الاستخدام العام (GPAI)، وقررنا عدم التوقيع عليها.. المدونة تفرض التزامات قانونية غير واضحة وتحتوي على بنود تتجاوز بكثير نطاق قانون الذكاء الاصطناعي نفسه.
ما هي مدونة قواعد السلوك الأوروبية؟
تُعد المدونة التي نُشرت هذا الشهر إطاراً طوعياً، وتهدف إلى مساعدة الشركات على الامتثال للقوانين الأوروبية المتعلقة بالذكاء الاصطناعي.. ومن أبرز متطلباتها:
- تقديم وتحديث وثائق شاملة عن أدوات الذكاء الاصطناعي وخدماته.
- حظر تدريب النماذج على محتوى مقرصن.
- الاستجابة لطلبات مالكي المحتوى بعدم استخدام أعمالهم ضمن بيانات التدريب.
لكن ميتا ترى أن هذه الإجراءات تمثل تجاوزاً تشريعياً خطيراً، قد يؤدي إلى إبطاء الابتكار وتعطيل تطوير نماذج الذكاء الاصطناعي المتقدمة في أوروبا.
بهذا الصدد، قال كابلن:
هذا النهج سيخنق تطوير ونشر نماذج الذكاء الاصطناعي الرائدة داخل أوروبا، ويقيد الشركات الأوروبية الساعية للبناء على هذه التكنولوجيا.
ما الذي يتضمنه قانون الذكاء الاصطناعي الأوروبي؟
يصنف القانون التطبيقات بحسب درجة المخاطر:
- حظر نهائي لتطبيقات “عالية الخطورة” مثل التلاعب السلوكي أو تصنيف الأشخاص اجتماعياً.
- قيود صارمة على استخدام الذكاء الاصطناعي في القياسات البيومترية، التعليم، والتوظيف.
- إلزام الشركات بتسجيل نماذجها والتقيد بإجراءات صارمة لإدارة المخاطر والجودة.
ورغم الضغوط من كبرى شركات التكنولوجيا العالمية مثل ميتا، مايكروسوفت، جوجل، وأنثروبيك لتأجيل التطبيق، أكدت المفوضية الأوروبية التزامها بموعد التنفيذ دون أي تأجيل.
قواعد جديدة تدخل حيز التنفيذ في أغسطس
كما نشرت المفوضية يوم الجمعة إرشادات جديدة لمزودي نماذج الذكاء الاصطناعي، تمهيداً لتطبيق القواعد في 2 أغسطس/آب 2025، والتي ستطال النماذج التي تمثل “مخاطر نظامية”، مثل تلك التي تطورها:
- OpenAI
- Meta
- Anthropic
أما الشركات التي كانت قد طرحت هذه النماذج قبل أغسطس، فستكون مطالبة بالامتثال الكامل بحلول أغسطس/آب 2027.
المصادر: