أصدر خبراء في الذكاء الاصطناعي تحذيراً بشأن استخدام التكنولوجيا الحديثة في صنع أسلحة بيولوجية. وخلال جلسة استماع في الكونغرس، حذروا من أن التسارع في تطوير الذكاء الاصطناعي يمكن أن يؤدي إلى أضرار جسيمة خلال السنوات القليلة المقبلة، تضاهي الإرهابيين الذين يستخدمون التكنولوجيا لصنع أسلحة بيولوجية.
الذكاء الاصطناعي والأسلحة البيولوجية
وقد أشار الخبراء إلى أن الذكاء الاصطناعي يمكن استخدامه لصنع فيروسات خطيرة وغيرها من الأسلحة البيولوجية في غضون سنتين فقط، مما يشكل تهديدًا خطيرًا للبشرية.
تنظيم التكنولوجيا الحديثة
وعلى الرغم من أن التكنولوجيا الحديثة توفر فرصًا كبيرة للتقدم في مجالات مثل الطب والتعليم والاتصالات، إلا أنها تشكل أيضًا تحديًا كبيرًا فيما يتعلق بالتحكم فيها وتنظيم استخدامها. ولذلك، يجب على الحكومات والمنظمات الدولية، مثل الأمم المتحدة، التعاون لتنظيم استخدام التكنولوجيا الحديثة وتحديد الحدود الأخلاقية للاستخدام العسكري والمدني.
وفي الأشهر الستة الماضية، بدأ عدد من الباحثين البارزين في مجال الذكاء الاصطناعي، بما في ذلك بنغيو، بالتحرك لتحذير العالم من مخاوف المصاحبة لاستخدام التكنولوجيا الحديثة، وحث السياسيين على ضرورة الانتباه لهذه التهديدات باعتبارها أحد الأسباب التي تجعل الحكومات بحاجة إلى إصدار تشريعات تضمن تنظيم استخدام التكنولوجيا بشكل أفضل وضمان عدم استخدامها في أغراض شريرة أو غير أخلاقية.
وقد أعربت بعض الشركات الكبرى في مجال التكنولوجيا، مثل "أوبن إيه أي" و"ألفابيت" التابعة لشركة "غوغل"، عن التزامها بتنفيذ تدابير مثل وضع علامة مائية على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي للمساعدة في جعل التكنولوجيا أكثر أماناً.
وبشكل عام، يجب على المجتمع الدولي التحرك بسرعة لتنظيم استخدام التكنولوجيا الحديثة وتضمين تدابير أمنية قوية لمنع استخدامها في صنع أسلحة بيولوجية أو في غير أغراض سلمية. ويجب أن يكون هذا العمل تعاونياً بين الحكومات والقطاع الخاص والمنظمات الدولية، لضمان المسؤولية والتزام الجميع بالتصدي لهذا التحدي العالمي.
وفي النهاية، يجب أن يكون الهدف الأساسي لاستخدام التكنولوجيا الحديثة هو تحسين جودة الحياة وتحقيق التقدم العلمي والتكنولوجي، ولا يجب أن يتم على حساب الأمن والسلامة العامة. لذلك، يجب على الجميع العمل بجدية وتعاون لتحقيق هذا الهدف بشكل أفضل وأكثر أماناً ومسؤولية.