بقلم الكاتب محمد معاذ
باحث في مجال الذكاء الاصطناعي. كاتب تقني. يرتكز عمله المهني على توفير المهارات الإستراتيجية لدعم وفهم تقنية الذكاء الاصطناعي في منطقة الشرق الأوسط وشمال أفريقيا. أنجز العديد من الدراسات والمقالات العلمية في الذكاء الاصطناعي، وتركّز أبحاثه على التأثير الحقيقي لهذه التقنية في مختلف المجالات.
عندما نتحدث عن استخدام الذكاء الاصطناعي في الحرب، فإننا نميل إلى افتراض أنه ينتج مخرجات إما تكون صحيحة أو خاطئة. لكن عملياً، قول إن الأنظمة الذكية “فاشلة” ليس دقيقاً. فطالما لم يتم اختراقها أو تعرضها لعطلٍ تقني كبير، فإن البرمجيات تنتج مخرجاتها وفقًا للخوارزميات وبيانات التدريب. وإذا قُتل طفل على يد البشر مثلاً بناءً على توصية من النظام، فإن الذكاء الاصطناعي بطبيعة الحال كان يقوم بعمله تماماً كما تم تصميمه؛ وهنا، الخطأ يقع على عاتق البشر أنفسهم.
طبعاً، هذا ليس انتقاءً للأخطاء. فالجيوش قد أقرّت بأنّ الآلات لا يمكن اعتبارها كيانات مسؤولة بموجب قوانين الحرب. لذلك، إذا جزمنا بأن الآلات لا تطبق القانون بشكلٍ إيجابي من خلال كونها على صواب، فعلينا أن نقبل أيضاً أنها لا يمكن أن تفشل في تطبيقه من خلال كونها مخطئة.
ومن جهةٍ أخرى، يمكن للبشر أن يخطئوا، وهم يفعلون ذلك. وعندما يرتكبون خطأ ما، فإنهم يتحملون المسؤولية (على الأقل نظرياً). وفي المثال الذي طرحناه أعلاه حول الطفل، يجب على الإنسان أن يكتشف خطأ الذكاء الاصطناعي في التعرف على الطفل ويوقف الهجوم. وإذا لم يجرِ ذلك، ينبغي محاسبة الشخص المسؤول.
بمعنى آخر، لا بدّ أن يكون لدى الجنود البشر دائماً القدرة على اتخاذ القرار الصحيح، بغض النظر عما تخبرهم به مخرجات الذكاء الاصطناعي لفعله. وهذا يعني أن الإنسان عليه أن يكون قادراً على معرفة مدى ارتباط أي مخرجات بالسياق الخاص للقرار. وبالتالي، فهذا يتطلب معرفةً وفهماً لعدم اليقين، والافتراضات، والتحيزات التي يمكن أن تكون في المخرجات.
الذكاء الاصطناعي في الحرب: الأبجديات
إنّ مخرجات الذكاء الاصطناعي التي تمر على صانع القرار تنطوي على عدم اليقين وافتراضات وتحيزات يجب أخذها بعين الاعتبار عند اتخاذ القرار:
أولاً، هناك أوجه عدم اليقين أو التي نطلق عليها الشكوك. وهنا، يحتاج الإنسان الذي يستخدم نظام الذكاء الاصطناعي إلى أن يكون قادراً على تقييم وقياس مقدار ما لا يعرفه بشكلٍ دقيق. وعلى سبيل المثال، لا تتضمن التغذية من قمر صناعي يعمل بالأشعة تحت الحمراء بيانات عن لون الأجسام. وبالمثل، فإنّ تغذية القمر الصناعي لنظام تحديد المواقع العالمي (GPS) لا تكون دقيقة أبداً حول موقع الأجسام بالضبط. وإذا كان لون الجسم أو موقعه الدقيق يمكن أن يوضح الفرق بين كونه مدنياً أو عسكرياً، فسيتعين النظر بعنايةٍ في أوجه عدم اليقين هذه قبل أن يتخذ الإنسان قرارات بناءً على المخرجات المحوسبة التي تستخدم تلك البيانات.
ثانياً، تعمل جميع النظم الحاسوبية الداعمة للقرارات في ظل افتراضاتٍ معينة. وذلك لأن الافتراضات هي التي تحول البيانات الخام (على سبيل المثال، مجموعة متنوعة من البكسلات في مقطع فيديو) إلى معلومات (تلك البكسلات تشير إلى تشخيص شخص، وأنه يحمل سلاحاً).
وفي أنظمة الحاسوب التقليدية، يتم تدوين هذه الافتراضات بشكلٍ مسبق عن طريق قواعد محددة. وعلى سبيل المثال، قد تكون القاعدة: “في حال كان جسم ما يتحرك بسرعة تزيد عن100 كلم في الساعة ويتجه نحوك، يجب تحديده على أنه تهديد قادم ووضع مؤشر أحمر عليه”. أمّا في الأنظمة القائمة على التعلم الآلي، يتم إنشاء هذه الافتراضات بواسطة الحاسوب نفسه أثناء عملية التدريب على البيانات. وإذا كان هناك عدد مهم إحصائيًا من أمثلة التدريب التي تم تصنيفها على أنها “تهديد قادم” تشمل الأشياء التي تتحرك بسرعة أكثر من 100 كلم في الساعة، فمن المحتمل أن يصنف النظام أي أمثلة مماثلة يواجهها على أنها “تهديد قادم”.
وتلعب هذه الافتراضات دورًا مهمًا في الحرب القائمة على البيانات. ففي عمليات تحديد المقاتلين مثلاً – حيث الهدف هو تحديدهم من بين السكان المدنيين – تستند العديد من أنظمة الكشف المحوسبة، بما في ذلك بعض تلك المستخدمة حاليًا في الحرب الإسرائيلية على غزة، إلى افتراضات حول أنماط سلوك معينة. ووفقاً للتقارير الأخيرة، إذا قام شخص ما في غزة بتغيير رقم هاتفه بانتظام مثلاً، يمكن أن يستخدَم ذلك – إلى جانب مؤشراتٍ أخرى – لتصنيف مدنيين على أنهم “مقاتلون”.
ولا يمكن أن نغفل على أن الافتراضات تلعب أيضاً دوراً مختلفاً في السياقات الثقافية أو العملية المختلفة. ففي غزة مثلاً غالباً ما لجأ المدنيون إلى تغيير أرقام هواتفهم بسبب فقدانهم هواتفهم بفعل الهجمات الإسرائيلية ضدهم.
وثالثاً، بخصوص التحيز يمكن أن تكون الأنظمة متحيزة. والتحيز هو تمييز غير مقصود يتم تضمينه في نتائج نظام الذكاء الاصطناعي، والذي قد يقود إلى قرارات غير عادلة أو غير متوازنة. وهو ينشأ بفعل تناقضاتٍ منهجية بين بيانات خصائص العالم النظري التي تم تدريب الحاسوب عليها، وبين الخصائص الواقعية للبيئة. فالنظام الذي يحدد الأشخاص كتهديدات بناءً على حملهم للسلاح مثلاً سُيظهر تحيزًا ضد الأشخاص الذين قد يحملون أسلحة لأسبابٍ لا علاقة لها بالأعمال العدائية مثل حارس أمن أو راعٍ يحمل بندقية ليحمي القطيع.
عملياً، لا يوجد نظام ذكاء اصطناعي غير متحيز، لكن ذلك يبقى تبعاً لسياقات معينة. وأفضل ما يمكن فعله هو الحد من استخدام النظام على الحالات التي تقل فيها احتمالية ظهور التحيزات. وهذا يتطلب معرفة عميقة بماهية تلك التحيزات والسياق المادي والثقافي والديموغرافي الذي ستستخدم فيه الأنظمة.
ما الذي ينبغي فعله؟
يلمّح “الإعلان السياسي بشأن الاستخدام العسكري المسؤول للذكاء الاصطناعي والاستقلالية” الصادر العام الماضي والذي أقرته 52 دولة – إلى مشكلات الذكاء الاصطناعي التي ذكرناها أعلاه. حيث ينص الإعلان على أن أفراد الخدمة الذين يستخدمون الذكاء الاصطناعي يجب أن يكونوا قادرين على “إصدار أحكام مناسبة تستنير بالسياق”. لكن هذا لا يعكس حجم المهمة الحقيقية التي تنتظرنا: حيث من الصعب تعليم أنظمة الذكاء الاصطناعي التمييز بين العصي والبندقية، فيما تعليم البشر الحكم بشكل موثوق ومسؤول حول ما النقاط أعلاه، يعدّ تحدياً هائلاً.
ويقول العسكريون إن البشر سيكونون دائماً “في الحلقة” عندما يتعلق الأمر بالذكاء الاصطناعي. وإذا كان الأمر كذلك، فعليهم أن يكونوا صادقين بشأن حقيقة أنه على الرغم من البحوث العلمية الجادة لعقود حول هذه المسألة، فإن العديد من الأسئلة المتعلقة بعدم اليقين والافتراضات والتحيزات، لا تزال بلا إجابة. وغالبًا ما تتحدث الحكومات عن التحيزات في أنظمة الذكاء الاصطناعي، لكنها لا تتحدث أبدًا عن أوجه عدم اليقين والافتراضات. لذلك، تحتاج الدول أيضاً إلى أن تكون واضحة في تبيان أن الدروس المستفادة من الاستخدامات المدنية للذكاء الاصطناعي لن تفيد كثيراً في الحروب. ذلك أن أحد الدوافع العسكرية الأساسية لاعتماد هذه التقنية هو السرعة. فعندما يُتوقع من البشر أن يقيموا الإشكالات الثلاث في الحرب، فإن التحديات تتضاعف حتماً.
وفي ظل غياب الإجابات الشافية، سيبقى السؤال الكبير أيضاً دون جواب: من الذي ينبغي أن يتحمل المسؤولية عن الضرر الناجم عن التفاعلات غير الكاملة بين البشر والآلات؟ فلا يمكن إلقاء اللوم على المشغل البشري بالكامل إذا لم يكونوا على دراية بالافتراضات الإحصائية الخاطئة للنظام، أو تحيزاته غير المعلنة، أو أوجه عدم اليقين غير المرئية. وفي هذه الحالة، هل من المرجح أن يتعرض الأشخاص الذين صمموا النظام للمساءلة؟ على الأرجح لا، فإما أن يتم إعفاؤهم من المسؤولية، أو أن تلك الإشكاليات لم تظهر أبدًا في الاختبار. وماذا أيضاً عن القادة الذين قرروا أن استخدام الذكاء الاصطناعي سيكون فكرة جيدة في المقام الأول – هل يمكن تقديمهم للمحاسبة؟ من غير المحتمل حدوث ذلك. وهذا ما يشار إليه بـ “فجوة المساءلة”. ويمكن أن تنشأ مثل هذه الفجوات حتى عندما تعمل التكنولوجيا بشكل جيد للغاية. إذا أكد لك الجيش أن أنظمته البشرية – الآلية تعمل بشكل صحيح بنسبة 99.9 % من الحالات، ولكن لا يمكنها إخبارنا كيف يتم تطبيق القانون في نسبة 0.01، وهذا أيضاً نفترض أنه لن يكون أيضاً جيدًا بما يكفي.
وبالمحصلة، ونظرًا للاهتمام الشديد بالذكاء الاصطناعي في الحرب، إلا أن الخطاب العام حول وصف الأخطاء في الحروب لا يزال بحاجة للكثير من الجهود والبحث للتوفيق بين القانون والأخلاق على القرار البشري. لكن لا يمكن أن ننفي وجود تطور ملحوظ في الوسط العلمي حول هذا الموضوع من خلال بحث ومناقشة الأسئلة الصحيحة. ولا يبقى لنا، سوى أن نتوقف عن القول بأن الآلة أخطأت.
المقالة تعبّر عن رأي كاتبها فقط.