ما هي سياسة البنتاغون المحدثة بشأن الروبوتات القاتلة؟

أصدر البنتاغون التحديث إلى التوجيه الخاص به رقم 3000.09، والتي تغطي ما يسمونه الحكم الذاتي في أنظمة الأسلحة وآخرون يتصلونالروبوتات القاتلة". الطائرات بدون طيار الحالية مثل سلاح الجو ووكالة المخابرات المركزية آلات حصادة MQ-9 تعمل بجهاز التحكم عن بعد: إنسان الجلوس أمام شاشة الفيديو يحدد الأهداف على الأرض على بعد آلاف الأميال ، ويضعها في مرمى التصويب ويطلق a صاروخ هيلفاير أو أي سلاح آخر. تختلف الأسلحة المستقلة: فهي تختار أهدافها دون أي تدخل بشري. هناك حاجة إلى قواعد واضحة بشأن متى وكيف يمكن استخدامها ، ويقربها التوجيه الجديد خطوة أقرب.

قبل عشر سنوات عندما تم إصدار الإصدار الأول من 3000.09 ، بدت الأسلحة المستقلة مثل الخيال العلمي. الآن هم حقيقيون جدا. زعمت الأمم المتحدة ذلك هاجمت الطائرات بدون طيار التركية الأهداف بشكل مستقل في ليبيا في عام 2020 ، وتنشر روسيا الآن ذخائر تسكع في أوكرانيا باستخدام القدرة الذاتية.

العديد من النشطاء ، مثل حملة لوقف الروبوتات القاتل، تريد حظرًا تامًا على الأسلحة المستقلة ، وتصر على بقاء أي سلاح بعيد تحكم بشري هادف في كل الأوقات. كانت الأمم المتحدة تناقش كيفية القيام بذلك السيطرة على هذه الأسلحة لسنوات عديدة.

ومع ذلك ، كما يوضح التوجيه الجديد ، فإن البنتاغون يتمسك بخط مختلف.

"عارضت وزارة الدفاع باستمرار معيار سياسة" التحكم البشري الهادف "عندما يتعلق الأمر بكل من الأنظمة المستقلة وأنظمة الذكاء الاصطناعي ،" غريغوري ألين، مدير مشروع حوكمة الذكاء الاصطناعي في مركز الدراسات الاستراتيجية والدولية، اخبرني. "المصطلح الفني المفضل لوزارة الدفاع هو" المستويات المناسبة للحكم البشري "، والذي يعكس حقيقة أنه في بعض الحالات - طائرات المراقبة المستقلة وبعض أنواع الأسلحة السيبرانية المستقلة ، على سبيل المثال - قد يكون المستوى المناسب للتحكم البشري قليلًا أو لا شيء . "

ما هي الأسلحة المستقلة التي يُسمح بها في ظل أي ظروف؟ يعتقد ألين أن الإصدار السابق من التوجيه كان غير واضح لدرجة أنه لم يشجع أي تطوير في هذا المجال.

يقول ألين: "انتشر الارتباك على نطاق واسع - بما في ذلك بين بعض كبار قادة وزارة الدفاع - لدرجة أن المسؤولين امتنعوا عن تطوير بعض الأنظمة التي لم تسمح بها السياسة فحسب ، ولكنها أيضًا مستثناة صراحةً من متطلبات المراجعة العليا".

لم يتم تقديم أي سلاح لعملية المراجعة للأسلحة المستقلة المنصوص عليها في الإصدار الأصلي 3000.09 في السنوات العشر التي تلت نشرها.

كتب ألين مقال عن هذا بالنسبة لـ CSIS العام الماضي ، الذي يصف أربعة مجالات تحتاج إلى العمل - تحديد أنظمة الأسلحة المستقلة رسميًا ، مع ذكر معنى "تمكين الذكاء الاصطناعي" للسياسة ، وكيف ستتعامل عملية المراجعة مع إعادة تدريب نماذج التعلم الآلي ، وتوضيح أنواع الأسلحة التي تتطلب تمر بعملية المراجعة الشاقة.

يقول ألين: "قامت وزارة الدفاع بتنفيذها جميعًا".

من حيث المبدأ إذن ، يجب أن يضمن هذا ما تصفه وزارة الدفاع بأنه "التزام قوي ومستمر بأن تكون رائدًا عالميًا يتسم بالشفافية في وضع سياسات مسؤولة فيما يتعلق بالاستخدامات العسكرية للأنظمة المستقلة."

ومع ذلك ، هناك بعض الإضافات التي قد يُنظر إليها على أنها ثغرات ، مثل الإعفاء من المراجعة العليا للأسلحة المستقلة التي تدافع عن الطائرات بدون طيار التي لا تستهدف الأشخاص (`` الأسلحة المضادة للمواد '') والتي يُسمح لها باستهداف الصواريخ والطائرات بدون طيار الأخرى وربما أنظمة أخرى.

"كلمة" دفاع "تقوم بالكثير من العمل ،" زاك كالينبورنأخبرني زميل السياسة في كلية شار للسياسة والحكومة بجامعة جورج ميسون. "إذا كانت طائرة بدون طيار تعمل في أراضي العدو ، فيمكن تفسير أي سلاح تقريبًا على أنه" دفاع "عن المنصة."

يشير كالينبورن أيضًا إلى أنه في حين أن الأسلحة المستقلة بشكل فعال مثل الألغام الأرضية مستخدمة لأكثر من قرن ، فإن المشهد يتغير بسرعة بسبب التقدم في الذكاء الاصطناعي والتعلم الآلي الخاص. أدت هذه إلى ظهور أنظمة قادرة للغاية ، ولكن هش من الناحية الفنية - عندما يفشلون ، يفشلون بشكل مذهل بطرق لا يمكن لأي إنسان ، على سبيل المثال الخلط بين سلحفاة وبندقية.

يقول كالينبورن: "إن الاستقلالية من خلال الذكاء الاصطناعي تستحق بالتأكيد مزيدًا من الاهتمام ، نظرًا لهشاشة ونقص قابلية التفسير للمقاربات السائدة حاليًا".

التحديث ليس كبيرا. لكنه يُظهر التزام البنتاغون المستمر بتطوير أسلحة فعالة ذاتية التشغيل والاعتقاد بأنه يمكنهم الامتثال له القانون الإنساني الدولي - التمييز بين المدنيين والعسكريين ، والسعي إلى تجنب إيذاء المدنيين ، والاكتفاء باستخدام القوة المتناسبة والضرورية.

يعتقد النشطاء أن الذكاء الاصطناعي لن يمتلك الفهم اللازم لإصدار أحكام أخلاقية في زمن الحرب ويخاطر بخلق عالم تكون فيه الحرب آلية ولم يعد البشر مسيطرين عليها. يعتقد البعض الآخر أن الجيش الأمريكي سيكون كذلك يتفوق عليه المعارضون بأسلحة مستقلة ما لم يتم دمج الذكاء الاصطناعي على مستوى تكتيكي ، وهذا الكثير من المشاركة البشرية يبطئ الروبوتات العسكرية.

من المرجح أن يستمر الجدل حتى مع ظهور الأسلحة المستقلة ، وسيتم متابعة النتائج عن كثب. في كلتا الحالتين ، يبدو أن الروبوتات القاتلة قادمة.

المصدر: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/