تستعد وزارة الدفاع الأمريكية لتوسيع استخدام أنظمة الذكاء الاصطناعي داخل أكثر شبكاتها سرية، في خطوة قد تغيّر موازين المنافسة بين شركات التكنولوجيا في قطاع الدفاع. ويأتي ذلك في ظل توجه لتقليل الاعتماد على مزود واحد للتقنيات الحساسة.وأفادت تقارير بأن شركة xAI التابعة لرجل الأعمال إيلون ماسك وقّعت اتفاقا يسمح بتشغيل نموذجها «غروك» داخل البيئات الأمنية المغلقة التابعة للبنتاغون.
توتر متصاعد مع شركة «أنثروبيك»
حتى وقت قريب، كان نموذج «كلود» التابع لشركة Anthropic هو الوحيد المصرّح باستخدامه في الأنظمة المصنفة سرية، والتي تشمل تحليل المعلومات الاستخباراتية، تطوير الأسلحة المتقدمة، والعمليات العسكرية في ساحات القتال.وقد منح هذا الاحتكار الشركة دورا محوريا في أهم المهام العسكرية، إلا أن وزارة الدفاع بدأت مراجعة هذه العلاقة في ظل خلافات متزايدة.
الخلاف حول قيود استخدام الذكاء الاصطناعي
يتركز الخلاف بين الطرفين على نطاق استخدام أنظمة الذكاء الاصطناعي المتقدمة. إذ يسعى مسؤولو الدفاع إلى الوصول الكامل للنماذج في جميع الاستخدامات القانونية، بما في ذلك المراقبة والأنظمة القتالية الذاتية.في المقابل، رفضت «أنثروبيك» إزالة بعض القيود الأخلاقية المفروضة على نموذج «كلود»، حتى عند تشغيله داخل أنظمة حكومية، وهو ما أدى إلى تصاعد التوترات.وحذر مسؤولون من إمكانية إعادة تقييم مكانة الشركة كمورد موثوق إذا لم تخفف تلك القيود، رغم أن إزالة النموذج من الأنظمة السرية قد تكون معقدة ومكلفة تقنيا، نظرا لاندماجه العميق في عمليات الاستخبارات والتخطيط الاستراتيجي.
دور الذكاء الاصطناعي في العمليات الحساسة
تشير تقارير إلى أن نموذج «كلود» شارك في دعم عمليات استخباراتية معقدة، منها عملية في فنزويلا تضمنت إجلاء الرئيس نيكولاس مادورو وزوجته، وذلك عبر شراكة مع شركة Palantir.وتبرز هذه الحوادث مدى اعتماد المؤسسات العسكرية على تقنيات الذكاء الاصطناعي في المهام الحساسة.
دخول «غروك» إلى الشبكات المصنفة
وافقت شركة «إكس إيه آي» على شروط وزارة الدفاع التي تسمح باستخدام نموذجها في جميع الأغراض القانونية. وهذا الاتفاق يمهّد لانتقال «غروك» من الأنظمة غير المصنفة إلى الشبكات العسكرية الأكثر تقييدا.ورغم ذلك، يشكك بعض المسؤولين في قدرة النموذج على منافسة «كلود» من حيث النضج التقني والخبرة في بيئات الدفاع الحساسة، ما يجعل عملية استبداله تتطلب اختبارات دقيقة ودمجا تدريجيا.
منافسة متزايدة بين شركات التكنولوجيا
تعمل نماذج أخرى مثل «جيميناي» من شركة Google و«تشات جي بي تي» من شركة OpenAI بالفعل في أنظمة غير سرية داخل وزارة الدفاع.كما تجري مناقشات لتوسيع استخدامها في البيئات السرية، بالتوازي مع استعداد البنتاغون لتنويع موردي الذكاء الاصطناعي.وكان البيت الأبيض قد وافق العام الماضي على استخدام عدة نماذج، منها «غروك» و«تشات جي بي تي» و«جيميناي» و«كلود» في المؤسسات الحكومية، إلا أن «كلود» وحده حصل حينها على إذن للعمل في أكثر الأنظمة سرية.
جدل سابق حول «غروك»
أطلقت شركة «إكس إيه آي» نسخة حكومية من «غروك» في يوليو 2025، لكنها أثارت جدلا بعد أن أنتجت محتوى متطرفا ومعاديا للسامية في إحدى الحالات، وهو ما أدى إلى تدقيق إضافي في إجراءات الموافقة الحكومية.وجاء ذلك بعد خلاف علني بين ماسك والرئيس دونالد ترامب حول تشريعات الإنفاق الفيدرالي، ما انعكس على وتيرة اعتماد النموذج.
قرار استراتيجي يحدد مستقبل الذكاء الاصطناعي العسكري
تواجه وزارة الدفاع الأمريكية الآن قرارا استراتيجيا معقدا، إذ يتعين عليها الموازنة بين الأداء التقني، والسيطرة التشغيلية، والمخاطر الأخلاقية مع توسع دور الذكاء الاصطناعي في البنية الدفاعية.ومن المتوقع أن تحدد هذه الخيارات مسار تبني التقنيات الذكية في الجيش الأمريكي خلال السنوات المقبلة.