بفضل التطورات السريعة في مجال الذكاء الاصطناعي، تتسارع وتيرة الأسلحة التي يمكنها تحديد العدو بشكل ذاتي ومستقل ثم تتخذ قرارا ميدانيا -قد يتضمن قتل البشر- دون وجود ضابط يوجه الهجوم أو جندي يسحب الزناد.

ومن المتوقع أن تصبح تلك الآلات بمرور الوقت أساس الحروب والعمليات العسكرية الجديدة، ويُطلق عليها اسم أنظمة الأسلحة المميتة الذاتية/ المستقلة، لكن مناهضيها يسمونها “الروبوتات القاتلة”.

واستثمرت العديد من الدول، بما في ذلك الولايات المتحدة والصين والمملكة المتحدة والهند وإيران وإسرائيل وكوريا الجنوبية وروسيا وتركيا، بشكل كبير في تطوير مثل هذه الأسلحة في السنوات الأخيرة.

يقول توبي والش، خبير الذكاء الاصطناعي في جامعة “نيو ساوث ويلز” في سيدني بأستراليا، إنه قلق من إمكانية أن تؤدي الأسلحة الذاتية/ المستقلة إلى إطلاق سلسلة من الأحداث والخطوات التصاعدية التي لا يمكن التنبؤ بعواقبها.

ويقارن الوضع بعالم البورصة والسوق المالية، حيث يتم إغلاق التداول لفترة عندما تنشأ فوضى، باستخدام آلية المكابح أو “قواطع التيار”، لكن بالنسبة لمخاطر التصعيد الناجم عن استخدام آلات مستقلة ذاتية في الحرب “لا يمكننا فعل ذلك، للتراجع عن بدء الحرب العالمية الثالثة”، كما قال.

ولا يعني ذلك أن يتوقف الباحثون عن تطوير التكنولوجيا الخاصة بأنظمة الأسلحة الآلية، بحسب والش، الذي يشير إلى أن هذه التكنولوجيا قد تجلب فوائد في مجالات أخرى.

لا شك أن أنظمة الأسلحة الذاتية/ المستقلة التي تعمل بالذكاء الاصطناعي لها فوائد من منظور عسكري، فهي يمكن أن تنفذ بعض المهام في ساحة المعركة دون الاستعانة بالجنود، مما يقلل من مخاطر الخسائر البشرية.

ويقول المؤيدون إن التكنولوجيا العالية المستخدمة في هذه الأنظمة يمكن أن تتفادى الأخطاء البشرية في صنع القرارات أو تقلل منها ومن التحيزات أيضا، ويمكن أن تؤدي دقة التوجيه في المستوى الأعلى إلى تقليل الخسائر البشرية غير المقصودة.

يمكن أيضًا نشر أنظمة الأسلحة الذاتية/ المستقلة لتعزيز القدرات الدفاعية، حيث يمكن لخوارزميات الكشف السريعة اكتشاف وتحييد التهديدات المحتملة بكفاءة ودقة أكبر من البشر.

ومع ذلك، يعتقد العديد من الخبراء والجماعات الحقوقية أن المخاطر المترتبة على هذه الأنظمة تفوق أي مزايا محتملة، وتتراوح بين احتمال وجود أعطال تقنية دون رقابة إلى انتهاكات للقانون الدولي والمخاوف الأخلاقية المتعلقة بآلات خالية من المشاعر تتخذ قرارات الموت والحياة.

وفي قلب كل هذه المخاوف يكمن سؤال المسؤولية، فمن المسؤول حين يرتكب نظام قتالي بالذكاء الصناعي خطأ عسكريا أو أخلاقيا فادحا.

في عام 2019، وافقت 126 دولة على معاهدة الأمم المتحدة بشأن بعض الأسلحة التقليدية (CCW) تقوم على 11 مبدأ توجيهيا أوصت بها مجموعة من الخبراء المعينة من الأمم المتحدة للتعامل مع المخاوف المتعلقة بالأسلحة الذاتية.

من بين هذه المبادئ الاتفاق على تطبيق القانون الإنساني الدولي على تطوير ونتائج هذه الأسلحة الجديدة، لكن الخبراء يقولون إنه ليس من الواضح كيف سيتم تطبيق هذا المبدأ في أتون الحرب. فعلى سبيل المثال، إذا ارتكب الروبوت جريمة حرب، هل سيعتبر ضابط القيادة في ساحة الصراع مسؤولًا؟ أم أن المسؤولية ستتوقف عند المسؤولين الذين قرروا نشر الآلة العسكرية في المقام الأول؟ وهل سيكون مصنّع السلاح مسؤولًا هو الآخر أم لا؟

ولا يوجد حتى الآن “تعريف رسمي أو متفق عليه دوليا” لأنظمة الأسلحة الذاتية/ المستقلة، كما قال للجزيرة الباحث في معهد ستوكهولم الدولي لأبحاث السلام (SIPRI)، فينسنت بولانين، على الرغم من أن معظم الدول تتفق على أن “العنصر الحاسم هو أن النظام الذاتي المستقل يكون قادرًا على التعرف واختيار ومهاجمة الهدف دون تدخل بشري”.

ويضيف بولانين، مدير برنامج حوكمة الذكاء الاصطناعي في (SIPRI)، أن هذا الوصف ينطبق على أنظمة الأسلحة المستخدمة حاليا، مثل نظام صواريخ باتريوت الأميركي المضاد للطائرات، والذي تستخدمه العديد من الدول.

وبدلاً من الحظر الشامل، يرى بولانين أن مجموعة مزدوجة من اللوائح ستكون حلا أكثر واقعية، حيث يتم حظر بعض أنظمة الأسلحة، والسماح بالبعض الآخر إذا استوفت مجموعة صارمة من المتطلبات، لكنه يتساءل عن حدود هذا التصنيف الثنائي، وهو سؤال لم تتوصل الدول المختلفة بعد إلى اتفاق حوله.