OpenAI تحذر: الذكاء الاصطناعي قد يسهل تصنيع أسلحة بيولوجية
النماذج الذكية قد تفتح الباب لاستخدامات خطرة إذا لم تضبط آليات الأمان مبكراً

أطلقت شركة اوبن ايه أي “Open AI” تحذيراً لافتاً بشأن المخاطر المستقبلية المرتبطة بتطور نماذج الذكاء الاصطناعي، مشيرة إلى أن الجيل القادم من هذه النماذج قد يمتلك قدرات تقنية يمكن أن تُستخدم لتطوير أسلحة بيولوجية معقّدة.
وفي بيان رسمي نشرته على موقعها الالكتروني، أوضحت Open AI أن النماذج الذكية تساهم حالياً في تسريع الاكتشافات العلمية، خصوصاً في مجالات مثل علم الأحياء، إلا أنها قد تفتح الباب لاستخدامات خطرة إذا لم تضبط آليات الأمان مبكراً.
وقالت الشركة: “نحن نأخذ هذا التهديد على محمل الجد، ونتخذ خطوات استباقية للتعامل معه من خلال استثمارات طويلة الأمد في أبحاث السلامة، والعمل مع الخبراء، وإجراء تقييمات عملية”.

تهديد غير مباشر .. لكن محتمل
رغم أن النماذج الحالية لم تظهر حتى الآن قدرة مباشرة على تسهيل إنتاج تهديدات بيولوجية، تعترف Open AI بإمكانية حدوث تحول في ذلك مع تطور الجيل التالي في تنصل مسبق من مسؤولية إساءة استخدام أنظمتها في المستقبل من قبل أي طرف.
وأضافت في بيانها: “حتى اليوم، لم نجد دليلاً على أن أنظمتنا تقدم معلومات أكثر خطورة من تلك المتاحة عبر محركات البحث أو المصادر العامة، ومع ذلك نتوقع تغيّراً كبيراً في قدرات النماذج القادمة، ولهذا نبدأ الاستعداد من الآن”.
خطة عمل لمواجهة الأسوأ
ومن بين الإجراءات الوقائية التي ستتخذها الشركة حسب البيان: إنشاء فريق بيولوجيا داخل Open AI لاختبار قدرة النماذج على تقديم “مساعدة ضارة” وتقييم السلامة بشكل عملي من خلال منهج لمحاكاة الهجمات و “سيناريوهات الإساءة”.
إلى جانب ذلك ستطور الشركة مجموعة من بروتوكولات أمان مثل القيود على استخدام النماذج في التطبيقات البيولوجية، و “تتبع سلوكيات المستخدمين المشبوهين مع احترام الخصوصية” حسب قولها.
إضافة إلى ذلك ستعمل على بناء شراكة عالمية للتعامل مع التهديدات البيولوجية الناتجة عن الذكاء الاصطناعي.
خبير Open AI: المعرفة أخطر من التطبيق
وفي تصريح لموقع Axios، حذر يوهان هايديكي، رئيس قسم السلامة في Open AI من أن النماذج القادمة لن تكون قادرة على تصنيع أسلحة بيولوجية بشكل مستقل، لكنها ستوفر أدوات معرفية كافية لتمكين أفراد غير متخصصين من تنفيذ مثل هذه المهام الخطيرة.
وأضاف هايديكي أن القلق الأكبر لا يتمحور حول ابتكار تهديدات بيولوجية جديدة غير مسبوقة، بل حول إمكانية هذه النماذج في إعادة إنتاج تهديدات معروفة بالفعل لدى الخبراء.
يأتي هذا التحذير في وقت تتسارع فيه قدرات الذكاء الاصطناعي بشكل يفوق قدرة الأنظمة الأخلاقية والتنظيمية على المواكبة.
كما يأتي في وقت تتكرر الأخطاء الكارثية لمحركات الذكاء الاصطناعي في توجيه المستخدمين والتي تدل على قصوره العميق في إدراك السياقات الإنسانية ومفهوم العواقب.
المصادر