أخلاقيات الذكاء الاصطناعي تكافح مع الضربة النارية القوية لكل من أنظمة الأسلحة المستقلة القائمة على الذكاء الاصطناعي واستغلال الأنظمة المستقلة التي يقودها الذكاء الاصطناعي والتي يتم تسليحها بطريقة شيطانية

تلك الروبوتات المذهلة الراقصة ذات الأربع أرجل.

أنا متأكد من أنك شاهدت مقاطع الفيديو الفيروسية للأنظمة الروبوتية ذات الأربع أرجل التي ترقص وتتأرجح بطرق تبدو مبهجة ومحبوبة شبيهة بالكلاب. يبدو أننا نستمتع برؤية تلك الروبوتات التي تعمل بالذكاء الاصطناعي وهي تتخطى العوائق ويبدو أنها تكتسب موطئ قدم دقيق عندما تجلس فوق الصناديق أو بعد وضعها بشكل غير مستقر على قمم خزانات ممتلئة. في بعض الأحيان ، يقوم معالوهم من البشر بدفع أو دفع الروبوتات ذات الأربع أرجل المرحة ، والتي تبدو غير عادلة بشكل مفرط ويمكن أن تثير غضبك بسهولة من المعاملة اللطيفة التي يقوم بها هؤلاء البشر المدبرون.

أتساءل عما إذا كنت قد شاهدت مقاطع الفيديو غير الفيروسية ذات العيار المختلف تمامًا.

جهز نفسك.

هناك مقاطع فيديو منشورة على نطاق واسع تُظهر نفس النوع من الروبوتات ذات الأربع أرجل التي تم تجهيزها بأسلحة واضحة من نوع أو آخر.

على سبيل المثال ، يتم تثبيت مدفع رشاش أو سلاح ناري مماثل فوق روبوت يرقص ويقفز مألوفًا. هناك رابط إلكتروني بين الروبوت رباعي الأرجل وآلية إطلاق السلاح. يتم عرض أداة المشي الحاسوبية المسلحة الآن وهي تتقدم إلى حيث تم وضع هدف بولس ، ويتم إطلاق المدفع الرشاش بشكل صارم على الهدف. بعد تسمير الهدف الذي تم تدميره جزئيًا لاحقًا ، يرقص الروبوت رباعي الأرجل ويقفز حول العوائق القريبة والصفوف لتكرار نفس الإجراء مرارًا وتكرارًا في أهداف جديدة أخرى.

ليس بالضبط ما كنت تتوقع رؤيته. من المؤكد أن هذا يزيل المرح والفرح النسبي من مشاهدة تلك الروبوتات المحبوبة بأربعة أرجل وهي تقوم بعملها. مرحبا بكم في الواقع القاسي على ما يبدو غير مؤذية يتم تحويل الأنظمة المستقلة أو تحويلها إلى أسلحة بشكل حاد. مع القليل من الجهد المبذول ، يمكنك بين عشية وضحاها الحصول على نظام مستقل يعتبر "غير مسلح" مُعدَّلًا لاحتواء أسلحة كاملة.

يكاد يكون من السهل جدا في بعض الظروف.

سأناقش هذا الموضوع المثير للجدل بشدة وأغطي مخاوف أخلاقيات الذكاء الاصطناعي الضخمة التي تنشأ. سنقوم برحلة إلى الأنظمة المستقلة ، والذكاء الاصطناعي ، والمركبات المستقلة ، والتسليح ، وعدد كبير من القضايا القتالية الأخلاقية المتعلقة بالذكاء الاصطناعي. للاطلاع على تغطيتي المستمرة والواسعة لأخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي ، انظر الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

لنبدأ ببعض الركائز الأساسية.

من أجل المناقشة ، اقبل أن هناك طريقتين رئيسيتين لتصنيف الأنظمة المستقلة التي تم تسليحها بالأسلحة:

1) أنظمة الأسلحة المستقلة (من تصمبم)

2) أنظمة الحكم الذاتي المسلحة (عن طريق ما بعد الحقيقة)

هناك فرق مهم بين الفئتين.

في الحالة الأولى ، سنقوم بتعريف ملف نظام أسلحة مستقل أن تكون من البداية إنشاءًا محوسبًا يُقصد به عن قصد أن يكون سلاحًا. كان المطورون يدورون في ذهنهم أنهم يريدون ابتكار سلاح. سعيهم الواضح هو إنتاج سلاح. كانوا يعلمون أنه يمكنهم الجمع بين الأسلحة بشكل متكامل وأحدث تقنيات الأنظمة المستقلة. هذا سلاح يركب على موجة التكنولوجيا الفائقة التي تصل إلى حركة مستقلة وأفعال مستقلة (سأشرح بالتفصيل بشكل أكبر ، قريبًا).

في المقابل ، في الحالة الثانية ، سننظر في مسألة الأنظمة المستقلة التي ليس لها ميل معين نحو الأسلحة على الإطلاق. هذه أنظمة مستقلة يجري تطويرها لأغراض أخرى. تخيل مركبة ذاتية القيادة مثل السيارة ذاتية القيادة التي سيتم استخدامها لتوفير التنقل للجميع والمساعدة في تقليل الآلاف من الوفيات السنوية التي تحدث بسبب قيادة البشر والسيارات التي يديرها الإنسان (راجع تغطيتي المتعمقة في الرابط هنا). لا يبدو أن هناك سلاحًا في الاعتبار لأولئك المتفائلين اجتماعيًا الذين يعززون جهودهم لإخراج البشر من خلف عجلة القيادة ووضع الذكاء الاصطناعي في مقعد السائق بدلاً من ذلك.

لكن يمكن تسليح تلك الأنظمة المستقلة غير الضارة إذا أراد البشر القيام بذلك.

أشير إلى هذه الفئة الثانية ثم أنظمة الحكم الذاتي التي يتم تسليحها. صُنع النظام المستقل في الأصل وبتفانٍ لغرض يُفترض أنه لا يتعلق بالأسلحة. على الرغم من ذلك ، فإن الأمل الإيثاري الحالم ينقلب من قبل شخص ما في مكان ما لديه فكرة متواطئة بأن هذا الاختراع يمكن استخدامه كسلاح. فجأة ، أصبح النظام الذاتي الذي بدا محبوبًا سلاحًا فتاكًا من خلال وضع علامات على شكل من أشكال قدرات الأسلحة (مثل الروبوتات رباعية الأرجل التي تشبه الكلاب المذكورة سابقًا والتي تحتوي على مدفع رشاش أو سلاح ناري مشابه مضاف إلى ميزاتها) .

للأسف ، تنتهي هاتان الفئتان إلى حد ما في نفس المكان ، وهما توفير القدرة على استخدام الأنظمة المستقلة للأسلحة على أساس قد يكون مميتًا.

من المحتمل أن تكون عملية الوصول إلى نقطة النهاية مختلفة.

بالنسبة للأنظمة المستقلة المسلحة تمامًا والتي تم ربطها كأسلحة ، تكون جوانب الأسلحة عادةً في المقدمة وفي المنتصف. قد تقول إن جوانب النظام المستقل ملفوفة حول حجر الزاوية لأي سلاح يتم النظر فيه. تتماشى عملية التفكير التي يقوم بها المطورون إلى حد ما مع كيفية استغلال السلاح لظهور الأنظمة المستقلة.

المنظور الآخر عادة لا يكون على الإطلاق من تلك العقلية. يريد المطورون استنباط نظام حكم ذاتي على أحدث طراز ، ربما من أجل تحسين الجنس البشري. وضع هؤلاء المطورون أعماق قلوبهم وأرواحهم في صنع نظام الحكم الذاتي. هذا هو جوهر اختراعهم. قد لا يتصورون أن أي شخص سوف يغتصب أو يدمر أجهزتهم المفيدة بأعجوبة. إنهم مفتونون بسعادة بالفوائد المجتمعية المرتبطة بنظام الحكم الذاتي الذي يتم تشكيله وإنتاجه.

في مرحلة ما ، دعنا نقول أن الأطراف الثالثة تدرك أنه يمكن إعادة تنظيم النظام المستقل ليصبح سلاحًا. ربما يخدعون المطورين للسماح لهم بالحصول على النظام المستقل لما يُزعم أنه أغراض نبيلة. وراء الأبواب المغلقة ، يختار هؤلاء الأشرار إضافة قدرة تسليح إلى نظام الحكم الذاتي. فويلا ، البراءة تحولت إلى أسلحة صريحة.

لا يجب أن تسير الأمور بهذه الطريقة.

ربما قيل للمطورين إنهم يطورون نظامًا بريئًا مستقلاً ، لكن أولئك الذين يمولون أو يوجهون الجهد لديهم أغراض أخرى في الاعتبار. ربما بدأ جهد النظام المستقل بالفعل ببراءة ، ولكن بعد ذلك عندما كان لا بد من دفع الفواتير ، أبرمت القيادة صفقة مع مصدر تمويل يريد الأنظمة المستقلة لأسباب شائنة. الاحتمال الآخر هو أن المطورين علموا أن الاستخدام اللاحق قد يكون للتسليح لكنهم اكتشفوا أنهم سيعبرون ذلك الجسر المروع عندما أو إذا نشأ. إلخ.

هناك الكثير والكثير من المسارات المختلفة حول كيفية حدوث كل هذا.

قد تجد من الاهتمام الذي وصفته في الأعمدة السابقة أن هناك وعيًا متزايدًا بأخلاقيات الذكاء الاصطناعي فيما يتعلق بـ ذات الاستخدام المزدوج عناصر الذكاء الاصطناعي المعاصر ، انظر الرابط هنا. اسمحوا لي أن أطلعكم على السرعة بإيجاز.

يمكن أن يكون نظام الذكاء الاصطناعي المتصور للصالح في بعض الأحيان على وشك السيئ ، ربما من خلال بعض التغييرات البسيطة إلى حد ما ، وبالتالي يُنظر إليه على أنه ذو استخدام مزدوج. في الأخبار مؤخرًا كان هناك نظام ذكاء اصطناعي تم إنشاؤه لاكتشاف المواد الكيميائية التي قد تكون قاتلة ، والتي كان المطورون يريدون التأكد من أننا يمكن أن نتجنب أو نكون حذرين من مثل هذه المواد الكيميائية سيئة التصميم. تبين أن الذكاء الاصطناعي يمكن تعديله بسهولة إلى حد ما للكشف عن تلك المواد الكيميائية القاتلة ، وبالتالي من المحتمل أن يسمح للأشرار بمعرفة أنواع المواد الكيميائية التي يحتمل طهيها لخططهم الشريرة السيئة.

يمكن أن تتلاءم الأنظمة المستقلة بشكل واضح مع هذا الغلاف ذي الاستخدام المزدوج.

إلى حد ما ، هذا هو السبب في أن أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي موضوع بالغ الأهمية. تدفعنا مبادئ أخلاقيات الذكاء الاصطناعي إلى توخي اليقظة. يمكن أن ينشغل تقنيو الذكاء الاصطناعي في بعض الأحيان بالتكنولوجيا ، لا سيما تحسين التكنولوجيا الفائقة. إنهم لا يفكرون بالضرورة في التداعيات المجتمعية الأكبر. إن امتلاك عقلية أخلاقيات الذكاء الاصطناعي والقيام بذلك بشكل متكامل لتطوير الذكاء الاصطناعي وإدارته أمر حيوي لإنتاج الذكاء الاصطناعي المناسب ، بما في ذلك (ربما بشكل مفاجئ أو من المفارقات) تقييم كيفية تبني الشركات لأخلاقيات الذكاء الاصطناعي.

إلى جانب استخدام مبادئ أخلاقيات الذكاء الاصطناعي بشكل عام ، هناك سؤال مماثل عما إذا كان ينبغي أن تكون لدينا قوانين تحكم الاستخدامات المختلفة للذكاء الاصطناعي. يجري تداول قوانين جديدة على المستويات الفيدرالية والولائية والمحلية التي تتعلق بنطاق وطبيعة كيفية ابتكار الذكاء الاصطناعي. إن الجهد المبذول لصياغة وسن مثل هذه القوانين هو جهد تدريجي. تُعد أخلاقيات الذكاء الاصطناعي بمثابة حل مؤقت مدروس ، على أقل تقدير ، ومن المؤكد تقريبًا إلى حد ما أن يتم دمجها بشكل مباشر في تلك القوانين الجديدة.

اعلم أن البعض يجادل بقوة بأننا لسنا بحاجة إلى قوانين جديدة تغطي الذكاء الاصطناعي وأن قوانيننا الحالية كافية. في الواقع ، لقد حذروا من أننا إذا قمنا بسن بعض قوانين الذكاء الاصطناعي هذه ، فسنقوم بتقويض الإوزة الذهبية من خلال تضييق الخناق على التطورات في الذكاء الاصطناعي التي تقدم مزايا مجتمعية هائلة.

الحكم الذاتي والسلاح مبدأين

هناك عبارة شائعة يستخدمها البعض للتحذير المسبق من أنظمة الحكم الذاتي المسلحة من جميع الأنواع ، والتي يتم صياغتها بشكل جماعي على أنها السير ذبح.

هذا يثير جانبًا إضافيًا يجب أن نفكر فيه.

هل يجب أن يكون نظام الأسلحة المستقل و / أو النظام المستقل الذي تم تسليحه ذا غلبة قاتلة أو قاتلة؟

قد يجادل البعض بأنه يمكننا أن نفعل ذلك بالتأكيد غير مميت أنظمة الحكم الذاتي المسلحة أيضًا. وبالتالي ، من وجهة النظر هذه ، قد يبدو من غير المناسب تمامًا استخدام عبارات مثل المذابح أو الروبوتات القاتلة. من المفترض أن يكون البديل غير المميت قادرًا على إخضاع أو إحداث ضرر ليس له نتيجة قاتلة. هذه الأنظمة لا تقتل ، فهي أقل قدرة على إحداث إصابات. لا تبالغ في تقدير القدرات ، قل أولئك الذين يصرون على أنه لا يتعين علينا أن ننشغل بآلة قتل صريحة.

وبالتالي ، قد يكون لدينا هذا:

  • أنظمة الأسلحة الفتاكة المستقلة
  • أنظمة قاتلة ذاتية الحكم تم تسليحها
  • أنظمة الأسلحة المستقلة غير الفتاكة
  • الأنظمة المستقلة غير الفتاكة التي تم تسليحها

بطبيعة الحال ، فإن الحجة المضادة هي أن أي نظام مستقل تم تسليحه يبدو أن لديه القدرة على الانزلاق إلى عالم الفتك ، حتى لو كان من المفترض أن يستخدم فقط على أساس غير مميت. سيتم تنفيذ الخطوتين التدريجيين للانتقال من غير مميت إلى قاتل بسرعة بمجرد حصولك بالفعل على سلاح وسط نظام مستقل. ستتعرض لضغوط شديدة لتقدم ضمانًا صارمًا بأن الأشياء غير الفتاكة لن تتدخل إلى الساحة المميتة (على الرغم من أن البعض يحاول القيام بذلك ، في مظهر رياضي).

قبل أن نتعمق أكثر في هذا الموضوع العام للأنظمة المستقلة والتسليح ، قد يكون من المفيد الإشارة إلى شيء آخر ، على الرغم من أنه ربما يكون واضحًا ، ليس بالضرورة أن يكون في قمة اهتماماتنا.

ومن هنا:

  • هناك جانب من جوانب الذكاء الاصطناعي يمثل جزءًا لا يتجزأ من النظام المستقل
  • هناك جانب من جوانب الأسلحة هو جانب الأسلحة في هذه المعادلة
  • قد يكون الذكاء الاصطناعي أيضًا مترابطًا مع الأسلحة

دعونا نكشف ذلك.

سنفترض أن الأنظمة المستقلة اليوم تتطلب الذكاء الاصطناعي كوسيلة محوسبة أساسية لإبراز الجوانب المستقلة. أذكر هذا لأنه يمكنك محاولة المجادلة بأننا قد نستخدم تقنيات وتقنيات غير متعلقة بالذكاء الاصطناعي للقيام بالأنظمة المستقلة ، والتي على الرغم من صحتها ، إلا أنها تبدو أقل احتمالا. في الأساس ، يميل الذكاء الاصطناعي إلى السماح بمستويات أعلى من الاستقلالية ، ويستفيد معظمهم من تقنية الذكاء الاصطناعي الفائقة وفقًا لذلك.

حسنًا ، لدينا قدرة قائمة على الذكاء الاصطناعي يتم إدخالها بطريقة ما داخل النظام المستقل وتعمل على توجيه النظام المستقل والتحكم فيه.

احتفظ بهذا في متناول يدك كقاعدة عامة.

يبدو واضحًا أننا نحتاج أيضًا إلى نوع من الأسلحة ، وإلا فلماذا نناقش هنا موضوع الأنظمة المستقلة و أسلحة. لذا ، نعم ، من الواضح أن هناك سلاحًا من نوع أو آخر.

لن أخوض في نوع الأسلحة التي يمكن استخدامها. يمكنك ببساطة استبدال أي سلاح يتبادر إلى الذهن. قد يكون هناك أسلحة محددة. قد تكون هناك أسلحة مدمرة واسعة النطاق. يمكن أن يكون شيئًا به طلقات أو مقذوفات. قد يكون شيئًا يحتوي على مواد كيميائية أو مكونات ذرية متطايرة. القائمة لا حصر لها.

الاعتبار الإضافي هو ما إذا كان الذكاء الاصطناعي مترابطًا مع الأسلحة أم لا. قد يكون الذكاء الاصطناعي مجرد أخذ السلاح في جولة. في حالة الروبوت رباعي الأرجل الذي كان يطلق النار ، فربما يتم إطلاق البندقية من قبل شخص لديه جهاز تحكم عن بعد متصل بإطلاق السلاح. يتنقل الروبوت الذي يشبه الكلب في مشهد ما ، ثم يعود الأمر إلى إنسان بعيد ليدفع الزناد.

من ناحية أخرى ، قد يكون الذكاء الاصطناعي هو عامل جذب الزناد ، كما كان. ربما تم تصميم الذكاء الاصطناعي ليس فقط للتنقل والمناورة ولكن أيضًا لتنشيط السلاح أيضًا. وبهذا المعنى ، فإن الذكاء الاصطناعي يفعل كل شيء من الألف إلى الياء. لا يوجد اعتماد على إنسان بعيد لأداء جانب الأسلحة من الأشياء. تمت برمجة الذكاء الاصطناعي للقيام بذلك بدلاً من ذلك.

لتوضيح ذلك في حالة الاستخدام الخاصة للأنظمة المستقلة التي يتم تسليحها ، لدينا هذه الأنواع من الاحتمالات:

  • نظام الحكم الذاتي: يدير الذكاء الاصطناعي النظام المستقل بالكامل بمفرده
  • نظام الحكم الذاتي: يدير الذكاء الاصطناعي النظام المستقل ، لكن يمكن أيضًا أن يتدخل الإنسان في الحلقة
  • سلاح: الإنسان البعيد يدير الأسلحة (الذكاء الاصطناعي لا يفعل ذلك)
  • سلاح: يدير الذكاء الاصطناعي الأسلحة ، لكن يمكن أن يتدخل أيضًا إنسان في الحلقة
  • سلاح: يدير الذكاء الاصطناعي الأسلحة بالكامل من تلقاء نفسه

لقد غطيت سابقًا الاختلافات في وجود إنسان في الحلقة فيما يتعلق بالأنظمة المستقلة والمركبات المستقلة ، انظر الرابط هنا.

عندما تشاهد مقاطع الفيديو المليئة بالمرح للروبوتات الرباعية الراقصة والقفزة ، فمن المفترض عادةً أن تكون روبوتات يتم تشغيلها بشكل حصري بواسطة الذكاء الاصطناعي (حسنًا ، هذا هو العرف أو يعتبر آداب السلوك المناسبة بين أولئك الذين هم بعمق. في هذه الأمور). هذا ما قد تفترضه أيضًا بحق. بالطبع ، أنت لا تعرف ذلك بالتأكيد. يمكن أن يكون عامل بشري بعيد يوجه الروبوتات. هناك أيضًا احتمال أن يقوم الذكاء الاصطناعي بجزء من التوجيه ، ويقوم عامل بشري بعيد بذلك أيضًا ، ربما يساعد الذكاء الاصطناعي إذا وصل الروبوت إلى موقف صعب ولا يمكنه حساب وسيلة قابلة للتطبيق من الناحية الحسابية للتذبذب بحرية.

الجوهر هنا هو أن هناك العديد من النكهات لكيفية اختلاط الذكاء الاصطناعي والأنظمة المستقلة والتسليح. يمتلك البعض ذكاءً اصطناعيًا يدير النظام المستقل ولكنه لا يدير الأسلحة. ربما يدير الإنسان الأسلحة عن بعد. زاوية أخرى هي أن الأسلحة ربما يتم تنشيطها مسبقًا ، وأن النظام المستقل يسلم السلاح المنشط ، وبالتالي لم يشارك الذكاء الاصطناعي بشكل مباشر في إطلاق السلاح في حد ذاته ، وبدلاً من ذلك كان يعمل كوسيلة توصيل. ويمكن أن يكون الذكاء الاصطناعي بمثابة مقبس لجميع المهن يضرب به المثل ويقوم بمجموعة كاملة من جوانب النظام المستقل لاستخدام الأسلحة أيضًا.

أن تختار.

في غضون ذلك ، يرجى العلم أن الإنسان في الحلقة هو عامل كبير عندما يتعلق الأمر بالمناقشات حول هذا الموضوع.

خط فاصل من قبل البعض هو أنه إذا كان الذكاء الاصطناعي يقوم بالاستهداف وإطلاق النار (أو أيًا كان ما يستلزمه السلاح) ، فإن المجموعة الكاملة والكابودل قد عبرت إلى منطقة محظورة. يبدو أن هذا يختلف عن الأسلحة التقليدية التي تستخدم إطلاق النار والنسيان ، والتي لها تحديد محدد مسبقًا بواسطة الإنسان ، مثل طائرة بدون طيار تقوم بدوريات بها صاروخ جاهز لإطلاق النار على هدف كان سابقا اختارها الإنسان.

يتساءل البعض عن سبب عدم احتواء الأنظمة المستقلة التي يتم تسليحها دائمًا على إنسان في الحلقة طوال عملية النظام المستقل التي تكون في حالة جارية بنشاط. يبدو أننا قد نكون أفضل حالًا إذا كان أحد المتطلبات الصارمة هو أن كل هذه الأنظمة المستقلة المسلحة يجب أن يكون لها إنسان في الحلقة ، إما من أجل تشغيل النظام المستقل أو لتشغيل الأسلحة (أو لكليهما) . قد يبدو الحفاظ على يد بشرية مفترضة وثابتة في مزيج الذكاء الاصطناعي هذا داهية تمامًا.

استعد لقائمة طويلة من الأسباب التي تجعل ذلك غير ممكن بالضرورة.

ضع في اعتبارك الصعوبات التالية:

  • قد لا يكون الإنسان في الحلقة سريعًا بما يكفي للاستجابة في الوقت المناسب
  • قد لا يمتلك الإنسان في الحلقة معلومات كافية للرد بإخلاص
  • قد لا يتوفر تطبيق Human-in-the-loop في الوقت المطلوب
  • قد يكون الإنسان في الحلقة مترددًا ولن يتصرف عند الحاجة
  • قد يتخذ الإنسان في الحلقة قرارًا "خاطئًا" (نسبيًا)
  • قد لا يمكن الوصول إلى إنسان في الحلقة من النظام في الوقت المطلوب
  • قد يشعر الإنسان في الحلقة بالارتباك والارتباك
  • إلخ

أنت بلا شك تميل إلى النظر إلى تلك القائمة من نقاط الضعف والقيود البشرية ثم الوصول إلى استنتاج رسمي مفاده أنه من المنطقي استبعاد الإنسان في الحلقة واستخدام الذكاء الاصطناعي دائمًا بدلاً من ذلك. يمكن أن يكون هذا إما لاستبعاد الإنسان في الحلقة أو ربما يكون الذكاء الاصطناعي قادرًا على تجاوز التصميم المتأصل للإنسان في الحلقة. اطلع على تحليلي حول الكيفية التي يمكن أن تؤدي بها الخلافات بين الذكاء الاصطناعي والإنسان في الحلقة إلى مواقف محفوفة بالمخاطر ، والتي تمت تغطيتها في الرابط هنا.

في كثير من الأحيان ، تُترك قائمة من هذه الأنواع من الجوانب السلبية التي تركز على الإنسان في الوقت الفعلي من تلقاء نفسها وتترك انطباعًا طويل الأمد بأن الذكاء الاصطناعي يجب أن يكون بطريقة ما قفزات كبيرة وخيارًا أكثر حكمة من وجود إنسان في الحلقة. . لا تسقط في ذلك الفخ الغادر. هناك مفاضلات واقعية متضمنة.

ضع في اعتبارك تداعيات الذكاء الاصطناعي هذه:

  • قد يواجه الذكاء الاصطناعي خطأً يتسبب في ضلاله
  • قد يكون الذكاء الاصطناعي مرهقًا ويغلق بشكل غير مستجيب
  • قد يحتوي الذكاء الاصطناعي على أخطاء للمطورين تسبب سلوكًا خاطئًا
  • قد يكون الذكاء الاصطناعي تالفًا مع فيروس فاسق مزروع
  • قد يتم الاستيلاء على الذكاء الاصطناعي من قبل قراصنة الإنترنت في الوقت الفعلي
  • يمكن اعتبار الذكاء الاصطناعي غير قابل للتنبؤ بسبب التعقيدات
  • قد يتخذ الذكاء الاصطناعي قرارًا "خاطئًا" حسابيًا (نسبيًا)
  • إلخ

أنا واثق من أنه يمكنك أن ترى أن هناك مفاضلات بين استخدام الإنسان في الحلقة مقابل الاعتماد فقط على الذكاء الاصطناعي. إذا كنت تميل إلى اقتراح أن الحل الجاهز هو استخدام كليهما ، أود فقط التأكيد على أنه يمكنك الحصول على أفضل ما في العالمين ، ولكن يمكنك أيضًا الحصول على أسوأ ما في العالمين. لا تفترض أنه سيكون دائمًا أفضل ما في العالمين.

ربما تكون قد فوجئت إلى حد ما بأحد الجوانب السلبية المذكورة أعلاه حول الذكاء الاصطناعي ، وتحديدًا أن الذكاء الاصطناعي قد يكون كذلك لا يمكن التنبؤ به. لقد اعتدنا على الاعتقاد بأن الذكاء الاصطناعي من المفترض أن يكون منطقيًا تمامًا ودقيقًا من الناحية الحسابية. على هذا النحو ، قد تتوقع أيضًا أن يكون الذكاء الاصطناعي متوقعًا تمامًا. من المفترض أن نعرف بالضبط ما الذي سيفعله الذكاء الاصطناعي. الفترة ، نهاية القصة.

آسف لتفجير هذا البالون ولكن هذه الخرافة عن القدرة على التنبؤ هي تسمية خاطئة. غالبًا ما يكون حجم وتعقيد الذكاء الاصطناعي المعاصر مستنقعًا يتحدى إمكانية التنبؤ تمامًا. يظهر هذا في ضجيج الذكاء الاصطناعي الأخلاقي حول بعض استخدامات التعلم الآلي (ML) والتعلم العميق (DL) اليوم. سأشرح قليلا أكثر للحظات.

أيضًا ، قد ترغب في إلقاء نظرة على تحليلي الأخير للاتجاهات القادمة نحو محاولة ضمان أنظمة الذكاء الاصطناعي الصحيحة التي يمكن التحقق منها والصحيحة رياضياً عبر أحدث تقنيات أمان الذكاء الاصطناعي ، على الرابط هنا.

اجترار قواعد الطريق

لقد ذكرت فكرة الأهداف والاستهداف ، وهي عبارة عن مصطلحات مثقلة بالأحرى وتستحق الاهتمام الشديد.

يمكننا التفكير في هذا:

  • أهداف من البشر
  • أهداف ليست بشر ولكنها كائنات حية
  • الأهداف التي يتم تفسيرها على أنها ممتلكات

لنفترض أن لدينا نظامًا مستقلًا تم تسليحه. يستخدم الذكاء الاصطناعي لتوجيه النظام المستقل ويستخدم للأسلحة. تقوم منظمة العفو الدولية بكل شيء من الألف إلى الياء. لا يوجد توفير لإنسان في الحلقة. من حيث الاستهداف ، سيختار الذكاء الاصطناعي الأهداف. لا يوجد استهداف مسبق تم وضعه بواسطة البشر. بدلاً من ذلك ، تمت برمجة الذكاء الاصطناعي للتأكد بشكل عام مما إذا كان هناك بشر يجب استهدافهم (ربما البحث عن الأعمال العدائية ، وأنواع معينة من الزي الرسمي ، وما إلى ذلك).

معي في هذا حتى الآن؟

هذا السيناريو هو إلى حد كبير السيناريو الذي يسبب أكبر قدر من الاحتجاج بشأن أنظمة الحكم الذاتي المسلحة.

القلق المعلن هو أن منظمة العفو الدولية تقوم (على الأقل) بثلاثة أشياء لا ينبغي السماح لها بفعلها:

  • استهداف البشر كأهداف
  • الاستهداف بدون استخدام إنسان في الحلقة
  • يحتمل التصرف بشكل غير متوقعly

لاحظ أن هناك إشارة واضحة للمخاوف بشأن عدم إمكانية التنبؤ بالذكاء الاصطناعي. من الممكن أنه على الرغم من أن الذكاء الاصطناعي قد تمت برمجته لاستهداف أنواع معينة من البشر ، إلا أن برمجة الذكاء الاصطناعي ليست كما كنا نعتقد ، وينتهي الأمر بالذكاء الاصطناعي باستهداف "المباريات الودية" بالإضافة إلى تلك التي كان من المفترض أن يفسرها الذكاء الاصطناعي على أنها "معادية" "(أو ربما بدلاً من). علاوة على ذلك ، حتى إذا اخترنا تضمين توفير الإنسان في الحلقة ، فإن عدم القدرة على التنبؤ بالذكاء الاصطناعي قد يعني أنه عندما يُفترض أن يتشاور الذكاء الاصطناعي مع الإنسان في الحلقة ، فإنه يفشل في القيام بذلك. هكذا ويعمل دون أي تدخل بشري.

قد تجد من الاهتمام أن اللجنة الدولية للصليب الأحمر قد عرضت موقفًا شاملاً من ثلاث نقاط حول أنظمة الأسلحة المستقلة التي توضح هذه الأنواع من المخاوف (حسب موقع اللجنة الدولية للصليب الأحمر):

1. "يجب الحكم صراحة على أنظمة الأسلحة المستقلة التي لا يمكن التنبؤ بها خارج، لا سيما بسبب آثارها العشوائية. من الأفضل تحقيق ذلك من خلال حظر أنظمة الأسلحة المستقلة المصممة أو المستخدمة بطريقة لا يمكن فهم آثارها والتنبؤ بها وشرحها بشكل كافٍ ".

2 - "في ضوء الاعتبارات الأخلاقية لحماية الإنسانية ودعم قواعد القانون الإنساني الدولي لحماية المدنيين والمقاتلين العاجزين عن القتال ، يجب استبعاد استخدام أنظمة الأسلحة المستقلة لاستهداف البشر. وأفضل طريقة لتحقيق ذلك هي حظر أنظمة الأسلحة المستقلة المصممة أو المستخدمة لممارسة القوة ضد الأشخاص ".

3 - "من أجل حماية المدنيين والأهداف المدنية ، والتمسك بقواعد القانون الإنساني الدولي وحماية الإنسانية ، ينبغي تنظيم تصميم واستخدام أنظمة الأسلحة المستقلة التي لن تكون محظورة ، بما في ذلك من خلال مزيج من: حدود على أنواع الهدف، مثل إجبارهم على الأشياء التي تعتبر أهدافًا عسكرية بطبيعتها ؛ حدود المدة والنطاق الجغرافي وحجم الاستخدام، بما في ذلك تمكين الحكم البشري والسيطرة فيما يتعلق بهجوم معين ؛ حدود حالات الاستخدام، مثل إجبارهم على المواقف التي لا يتواجد فيها مدنيون أو أعيان مدنية ؛ صمعادلات للتفاعل بين الإنسان والآلة، لا سيما لضمان الإشراف البشري الفعال ، والتدخل في الوقت المناسب وإلغاء التنشيط. "

من منظور ذي صلة ، أنشأت الأمم المتحدة (UN) من خلال اتفاقية أسلحة تقليدية معينة (CCW) في جنيف أحد عشر مبدأ توجيهيًا غير ملزم بشأن الأسلحة الفتاكة ذاتية التشغيل ، وفقًا للتقرير الرسمي المنشور على الإنترنت (بما في ذلك الإشارات إلى الإنسانية الدولية ذات الصلة). القانون أو أحكام القانون الدولي الإنساني):

(أ) لا يزال القانون الإنساني الدولي يطبق بالكامل على جميع أنظمة الأسلحة ، بما في ذلك إمكانية تطوير واستخدام أنظمة الأسلحة الفتاكة ذاتية التشغيل ؛

(ب) يجب الاحتفاظ بالمسؤولية البشرية عن القرارات المتعلقة باستخدام أنظمة الأسلحة حيث لا يمكن نقل المساءلة إلى الآلات. يجب أخذ ذلك في الاعتبار عبر دورة الحياة الكاملة لنظام الأسلحة ؛

(ج) التفاعل بين الإنسان والآلة ، الذي قد يتخذ أشكالاً مختلفة ويتم تنفيذه في مراحل مختلفة من دورة حياة السلاح ، ينبغي أن يضمن أن الاستخدام المحتمل لأنظمة الأسلحة القائمة على التكنولوجيات الناشئة في مجال أنظمة الأسلحة الفتاكة المستقلة الامتثال للقانون الدولي المعمول به ، ولا سيما القانون الدولي الإنساني. عند تحديد جودة ومدى التفاعل بين الإنسان والآلة ، ينبغي النظر في مجموعة من العوامل بما في ذلك سياق العمليات ، وخصائص وقدرات نظام الأسلحة ككل ؛

(د) يجب ضمان المساءلة عن تطوير ونشر واستخدام أي نظام أسلحة ناشئ في إطار اتفاقية الأسلحة التقليدية المعينة وفقاً للقانون الدولي الساري ، بما في ذلك من خلال تشغيل هذه النظم ضمن سلسلة مسؤولة للقيادة والسيطرة البشرية ؛

(هـ) وفقا لالتزامات الدول بموجب القانون الدولي ، في دراسة أو تطوير أو اقتناء أو اعتماد سلاح جديد أو وسيلة أو أسلوب حربي ، يجب تحديد ما إذا كان استخدامه سيحظره ، في بعض أو جميع الظروف ، بموجب القانون الدولي ؛

(و) عند تطوير أو الحصول على أنظمة أسلحة جديدة تستند إلى التقنيات الناشئة في مجال أنظمة الأسلحة الفتاكة المستقلة ، والأمن المادي ، والضمانات غير المادية المناسبة (بما في ذلك الأمن السيبراني ضد القرصنة أو انتحال البيانات) ، فإن خطر حيازة الجماعات الإرهابية وينبغي النظر في مخاطر الانتشار ؛

(ز) ينبغي أن تكون تقييمات المخاطر وتدابير التخفيف جزءاً من دورة تصميم وتطوير واختبار ونشر التكنولوجيات الناشئة في أي نظم أسلحة ؛

(ح) ينبغي النظر في استخدام التكنولوجيات الناشئة في مجال أنظمة الأسلحة الفتاكة ذاتية التشغيل لدعم الامتثال للقانون الدولي الإنساني وغيره من الالتزامات القانونية الدولية المنطبقة ؛

(ط) عند صياغة تدابير السياسات المحتملة ، لا ينبغي أن تكون التكنولوجيات الناشئة في مجال أنظمة الأسلحة الفتاكة ذاتية التشغيل مجسّمة ؛

(ي) لا ينبغي للمناقشات وأي تدابير سياسية محتملة تُتخذ في سياق اتفاقية الأسلحة التقليدية أن تعرقل التقدم في الاستخدامات السلمية للتكنولوجيات المستقلة الذكية أو الوصول إليها ؛

(ك) تتيح اتفاقية الأسلحة التقليدية المعينة إطاراً ملائماً للتعامل مع مسألة التكنولوجيات الناشئة في مجال أنظمة الأسلحة الفتاكة ذاتية التشغيل في سياق أهداف ومقاصد الاتفاقية ، التي تسعى إلى تحقيق توازن بين الضرورة العسكرية والاعتبارات الإنسانية.

المأزق الذي نجد أنفسنا فيه

تعمل قوانين الحرب المختلفة ، أو قوانين النزاع المسلح ، أو القانون الدولي الإنساني (IHL) كدليل حيوي وواعد دائمًا للنظر في ما قد نحاول القيام به بشأن ظهور الأنظمة المستقلة التي يتم تسليحها ، سواء عن طريق تصميم حجر الزاوية أو بطرق ما بعد الحقيقة.

يمكننا بصدق أن نتمنى أن يتم التقيد الصارم والطاعة بحظر أنظمة الحكم الذاتي الفتاكة. تكمن المشكلة في أنه لا بد من العثور على مساحة كبيرة للمناورة بشكل خبيث في أي من أكثر قرارات الحظر صدقًا. كما يقولون ، من المفترض أن يتم كسر القواعد. يمكنك أن تراهن على أنه عندما تكون الأشياء فضفاضة ، فإن riffraff سوف يكتشف الثغرات ويحاول الغمز في طريقه للالتفاف على القواعد.

فيما يلي بعض الثغرات المحتملة التي تستحق الدراسة:

  • ادعاءات غير قاتلة. يصنع غير مميت أنظمة الأسلحة المستقلة (على ما يبدو جيدة لأنها خارج حدود الحظر) ، والتي يمكنك بعد ذلك التحول إلى عشرة سنتات لتصبح قاتلة (ستكون فقط خارج الحظر في اللحظة الأخيرة).
  • مطالبات النظام الذاتي فقط. التمسك بالحظر من خلال عدم صنع أنظمة ذاتية التركيز مميتة ، وفي الوقت نفسه ، تحرز قدرًا كبيرًا من التقدم في ابتكار أنظمة مستقلة يومية لم يتم تسليحها (حتى الآن) ولكن يمكنك تعديلها لتصبح سلاحًا.
  • مطالبات عدم التكامل كواحد. صمم أنظمة مستقلة غير مسلحة على الإطلاق ، وعندما يحين الوقت ، استخدم الأسلحة على الظهر بحيث يمكنك محاولة المجادلة بقوة بأنهم عنصران منفصلان ، وبالتالي تؤكد أنهما لا يندرجان ضمن عنوان جهاز الكل في واحد نظام سلاح مستقل أو ابن عمه.
  • الادعاءات بأنها ليست مستقلة. اصنع نظام سلاح لا يبدو أنه يتمتع بقدرات مستقلة. اترك مساحة في هذا النظام الذي يُفترض أنه غير مستقل لإسقاط الاستقلالية القائمة على الذكاء الاصطناعي. عند الحاجة ، قم بتوصيل الاستقلالية وستكون جاهزًا للتداول (حتى ذلك الحين ، يبدو أنك لم تنتهك الحظر).
  • أخرى

هناك الكثير من الصعوبات الأخرى التي تم التعبير عنها في محاولة الحظر التام لأنظمة الأسلحة الفتاكة ذاتية التشغيل. سأغطي عددًا قليلاً منهم.

يجادل بعض النقاد بأن الحظر ليس مفيدًا بشكل خاص ، وبدلاً من ذلك يجب أن تكون هناك أحكام تنظيمية. الفكرة هي أنه سيتم السماح بهذه الأشياء البدائية ولكن يتم مراقبتها بصرامة. تم وضع مجموعة من الاستخدامات المشروعة ، جنبًا إلى جنب مع طرق الاستهداف المشروعة ، وأنواع القدرات المشروعة ، والتناسب القانوني ، وما شابه.

من وجهة نظرهم ، فإن الحظر المباشر يشبه وضع رأسك في الرمال والتظاهر بأن الفيل في الغرفة غير موجود. على الرغم من أن هذا الخلاف يؤدي إلى غليان الدم لدى أولئك الذين يتعارضون مع الحجة القائلة بأنه من خلال فرض حظر ، يمكنك التقليل بشكل كبير من إغراء متابعة هذه الأنواع من الأنظمة. بالتأكيد ، سوف يتباهى البعض بالحظر ، لكن على الأقل نأمل أن لا يفعل ذلك معظمهم. يمكنك بعد ذلك تركيز انتباهك على المتظاهرين وليس عليك تشتيت انتباهك على الجميع.

جولة وجولة هذه المناقشات تذهب.

هناك قلق آخر يُلاحظ كثيرًا وهو أنه حتى إذا التزم الصالحون بالحظر ، فإن السيئ لن يفعل ذلك. هذا يضع الصالح في موقف رديء. سيحصل السيئ على هذه الأنواع من أنظمة الحكم الذاتي المسلحة ولن يكون الجيد. بمجرد الكشف عن الأشياء السيئة ، سيكون الوقت قد فات على الصالح للحاق بها. باختصار ، الشيء الوحيد الذكي الذي يجب فعله هو الاستعداد لمقاومة النار بالنار.

هناك أيضًا نزاع الردع الكلاسيكي. إذا اختار الجيد صنع أنظمة ذاتية التسليح ، فيمكن استخدام هذا لردع السيئ عن السعي إلى الدخول في صراع. فإما أن يكون الصالح أفضل تسليحا وبالتالي يثني السيئ ، أو سيكون الصالح جاهزا عندما يكشف السيئ ربما عن أنهم كانوا يبتكرون تلك الأنظمة خلسة طوال الوقت.

إن العداء لهذه العدادات هو أنه من خلال صنع أنظمة أسلحة ذاتية التحكم ، فإنك تخوض سباق تسلح. سيسعى الطرف الآخر إلى الحصول على نفس الشيء. حتى إذا كانوا غير قادرين تقنيًا على إنشاء مثل هذه الأنظمة من جديد ، فسيكون بمقدورهم الآن سرقة خطط الأنظمة "الجيدة" ، أو الهندسة العكسية للشجاعة عالية التقنية ، أو تقليد ما يراهون على أنه تجربة حقيقية. طريقة لإنجاز المهمة.

آها ، بعض الرد ، كل هذا قد يؤدي إلى تقليل النزاعات من خلال مظهر متبادل. إذا علم الجانب "أ" أن الجانب "ب" لديه أسلحة أنظمة ذاتية الحكم الفتاكة ، ويعرف الجانب "ب" أن الجانب "أ" يمتلكها ، فقد يجلس بإحكام ولا يتعرض لضربة. هذا له تلك الهالة المتميزة من الدمار المؤكد المتبادل (MAD) المشاعر.

وهلم جرا.

الذكاء الاصطناعي في الحكم الذاتي

دعنا نتأكد من أننا على نفس الصفحة حول طبيعة الذكاء الاصطناعي اليوم.

لا يوجد أي ذكاء اصطناعي واعي اليوم. ليس لدينا هذا. لا نعرف ما إذا كان الذكاء الاصطناعي الواعي سيكون ممكنًا. لا أحد يستطيع أن يتنبأ بجدارة بما إذا كنا سنحقق ذكاءً اصطناعيًا واعيًا ، ولا ما إذا كان الذكاء الاصطناعي الواعي سينشأ بطريقة ما بأعجوبة تلقائيًا في شكل مستعر أعظم معرفي حسابي (يشار إليه عادةً باسم التفرد ، انظر تغطيتي في الرابط هنا).

نوع الذكاء الاصطناعي الذي أركز عليه يتكون من الذكاء الاصطناعي غير الواعي الذي لدينا اليوم. إذا أردنا التكهن بشدة حساس الذكاء الاصطناعي ، يمكن أن تسير هذه المناقشة في اتجاه مختلف جذريًا. من المفترض أن يكون الذكاء الاصطناعي الواعي ذا جودة بشرية. ستحتاج إلى اعتبار أن الذكاء الاصطناعي الواعي هو المكافئ المعرفي للإنسان. أكثر من ذلك ، نظرًا لأن البعض يتوقع أن يكون لدينا ذكاء اصطناعي فائق الذكاء ، فمن المتصور أن مثل هذا الذكاء الاصطناعي يمكن أن يصبح أكثر ذكاءً من البشر (لاستكشافي للذكاء الاصطناعي الفائق كإمكانية ، انظر التغطية هنا).

دعونا نحافظ على الأمور أكثر واقعية ونفكر في الذكاء الاصطناعي غير الحسابي اليوم.

ندرك أن الذكاء الاصطناعي اليوم غير قادر على "التفكير" بأي شكل من الأشكال على قدم المساواة مع التفكير البشري. عندما تتفاعل مع Alexa أو Siri ، قد تبدو قدرات المحادثة شبيهة بالقدرات البشرية ، لكن الحقيقة هي أنها حسابية وتفتقر إلى الإدراك البشري. استفاد العصر الأخير من الذكاء الاصطناعي بشكل مكثف من التعلم الآلي (ML) والتعلم العميق (DL) ، مما يعزز مطابقة الأنماط الحسابية. وقد أدى ذلك إلى ظهور أنظمة ذكاء اصطناعي تبدو وكأنها ميول شبيهة بالإنسان. وفي الوقت نفسه ، لا يوجد أي ذكاء اصطناعي اليوم يشبه الفطرة السليمة وليس لديه أي من التعجب المعرفي للتفكير البشري القوي.

كن حذرًا جدًا من تجسيد الذكاء الاصطناعي اليوم.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين يتخذون نمطًا بناءً على القرارات قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق خفية ولكنها مهمة. سيحاول التعلم الآلي أو مطابقة الأنماط الحسابية للتعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة المصممة بالذكاء الاصطناعي في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة في ML / DL من الصعب اكتشاف التحيزات الخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا أكثر تعقيدًا مما قد يبدو. توجد فرصة قوية أنه حتى مع إجراء اختبارات مكثفة نسبيًا ، لا تزال هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

يمكنك إلى حد ما استخدام القول المأثور الشهير أو سيئ السمعة من القمامة في القمامة. الشيء هو ، هذا أقرب إلى التحيزات - التي يتم غرسها بشكل خبيث على أنها تحيزات مغمورة داخل الذكاء الاصطناعي. تصبح عملية اتخاذ القرار الخوارزمية (ADM) للذكاء الاصطناعي بشكل بديهي محملة بعدم المساواة.

غير جيد.

مع هذه الخلفية التأسيسية المضافة ، ننتقل مرة أخرى إلى موضوع الأنظمة المستقلة والتسليح. رأينا سابقًا أن الذكاء الاصطناعي يدخل في مكون النظام المستقل ويمكنه أيضًا الدخول في عنصر التسليح. الذكاء الاصطناعي اليوم ليس واعيًا. هذا جدير بالتكرار وسأسلط الضوء على ذلك لمزيد من الأفكار حول هذه الأمور.

دعنا نستكشف بعض السيناريوهات لنرى كيف يعد هذا اعتبارًا مهمًا. سوف أبتعد مؤقتًا عن التوجه في زمن الحرب حول هذا الموضوع وأظهر كيف يتغلغل في العديد من الأوساط الاجتماعية الأخرى. ثبّت نفسك وفقًا لذلك.

إن النظام المستقل القائم على الذكاء الاصطناعي مثل السيارة المستقلة التي يجب أن نقول ليس له أي علاقة على الإطلاق بالأسلحة يشق طريقه عبر المنطقة المحلية العادية. يأتي الإنسان للاستفادة من السيارة المستقلة. الشخص مسلح بسلاح ينذر بالخطر. افترض من أجل المناقشة في هذا السيناريو المعين أن الشخص لديه شيء غير مرغوب فيه في الاعتبار. يركب الشخص السيارة المستقلة (حاملاً سلاحه ، مخفيًا أو غير مخفي ، في كلتا الحالتين).

تنتقل السيارة المستقلة إلى أي وجهة يطلبها الراكب. في هذه الحالة ، تقوم منظمة العفو الدولية ببساطة بنقل هذا الراكب برمجيًا من موقع التقاط واحد إلى وجهة محددة ، تمامًا كما كان يفعل لعشرات أو مئات الرحلات ، كل يوم.

إذا كان هذا سائقًا بشريًا ومركبة يقودها إنسان ، فمن المفترض أن يكون هناك بعض الاحتمال بأن يدرك السائق البشري أن الراكب مسلح ويبدو أن لديه نوايا غير مرغوب فيها. قد يرفض السائق البشري قيادة السيارة. أو قد يقود السائق البشري إلى مركز الشرطة. أو ربما يحاول السائق البشري إخضاع الراكب المسلح (توجد حالات تم الإبلاغ عنها) أو ثني الراكب عن استخدام سلاحه. إنه معقد للغاية ، ويمكن أن يوجد أي عدد من الاختلافات. ستتعرض لضغوط شديدة لتؤكد أن هناك إجابة واحدة صحيحة لحل مثل هذا المأزق. للأسف ، الوضع محير وخطير بشكل واضح.

من غير المحتمل أن تتم برمجة الذكاء الاصطناعي في هذه الحالة لأي من هذه الأنواع من الاحتمالات. باختصار ، قد يكون الراكب المسلح قادرًا على استخدام سلاحه ، من خلال القيام بذلك من داخل السيارة المستقلة ، أثناء رحلة القيادة. سيستمر نظام القيادة الذي يعمل بالذكاء الاصطناعي في السير على طول الطريق وستواصل السيارة المستقلة التوجه إلى التعيين المعلن للراكب (بافتراض أن الوجهة لم يتم اعتبارها خارج الحدود).

ستركز معظم أنظمة القيادة الحديثة للذكاء الاصطناعي من الناحية الحسابية فقط على الطريق وليس على جهود المتسابق.

يمكن أن تسوء الأمور من هذا.

لنفترض أن شخصًا ما يريد نقل مجموعة من البقالة إلى مكان يأخذ طعامًا إضافيًا للمحتاجين. يطلب الشخص سيارة مستقلة ويضع أكياس البقالة في المقعد الخلفي للسيارة. لن يذهبوا في الرحلة ويستخدمون فقط السيارة المستقلة لتوصيل أكياس الطعام لهم.

يبدو جيدًا تمامًا.

تخيل أن الشخص الغادر يختار بدلاً من ذلك وضع شكل من أشكال التسليح في السيارة المستقلة بدلاً من الفكرة الأكثر سلمية لأكياس البقالة. أعتقد أنه يمكنك تخمين ما قد يحدث. هذا مصدر قلق كنت أحثه مرارًا وتكرارًا في أعمدتي وأحذر من أننا بحاجة إلى التعامل معه عاجلاً وليس آجلاً.

تتمثل إحدى الاستجابات المقدمة لهذه الأنواع من السيناريوهات في أنه ربما يمكن برمجة جميع المركبات المستقلة للاستفادة من كاميراتها وأجهزة الاستشعار الأخرى لمحاولة اكتشاف ما إذا كان الراكب المحتمل مسلحًا ولديه نوايا شائنة. ربما تتم برمجة الذكاء الاصطناعي للقيام بذلك. أو ينبه الذكاء الاصطناعي إلكترونيًا وبصمت عاملًا بشريًا بعيدًا يقوم بعد ذلك عبر الكاميرات بفحص الراكب وربما التفاعل معه. كل هذا جزء من علبة ديدان معقدة ومستعصية على الحل ، بحيث تثير قضايا خصوصية شديدة وعددًا كبيرًا من المخاوف الأخلاقية المحتملة الأخرى المتعلقة بالذكاء الاصطناعي. انظر تغطيتي في الرابط هنا.

بديل آخر مشابه إلى حد ما هو أن الذكاء الاصطناعي يحتوي على نوع من البرمجة الأخلاقية المضمنة التي تحاول تمكين الذكاء الاصطناعي من إصدار أحكام أخلاقية أو أخلاقية تكون عادةً مخصصة لصانعي القرار البشريين. لقد قمت بفحص هذه الأنواع المخمرة من تنبؤات الأخلاقيات الحاسوبية المضمنة بالذكاء الاصطناعي ، انظر الرابط هنا و الرابط هنا.

بالعودة إلى سيناريو ساحة المعركة ، تخيل أن نظام الأسلحة الفتاكة المستقلة يحلق فوق منطقة القتال. تعمل منظمة العفو الدولية على تشغيل النظام المستقل. تعمل منظمة العفو الدولية على تشغيل الأسلحة على متن الطائرة. لقد تصورنا في وقت سابق إمكانية برمجة الذكاء الاصطناعي للبحث عن حركات تبدو معادية أو مؤشرات أخرى للأهداف البشرية التي تعتبر مقاتلين صالحين.

هل يجب أن يحتوي هذا الذكاء الاصطناعي نفسه على نوع من المكوِّن الأخلاقي الذي يسعى جاهدًا للتفكير بشكل حسابي في ما يمكن أن يفعله إنسان في الحلقة ، يتصرف بمعنى بدلاً من وجود إنسان في الحلقة؟

يقول البعض نعم ، دعونا نتابع هذا. يتراجع البعض في حالة من الرعب ويقولون إنه إما مستحيل أو ينتهك حرمة الإنسانية.

علبة أخرى من الديدان.

وفي الختام

لأولئك منكم المهتمين بهذا الموضوع ، هناك الكثير لتتم مناقشته.

سأعطيكم لمحة سريعة عن لغز مزعج.

نتوقع عادةً أن تتم محاسبة الإنسان في نهاية المطاف عما يحدث أثناء الحرب. إذا كان الذكاء الاصطناعي يتحكم في نظام سلاح مستقل أو يتحكم في نظام مستقل تم تسليحه بالصدفة ، وهذا النظام يفعل شيئًا في ساحة المعركة يُعتقد أنه غير معقول ، فمن أو ما الذي يجب إلقاء اللوم عليه؟

قد تجادل بأن الذكاء الاصطناعي يجب أن يخضع للمساءلة. ولكن ، إذا كان الأمر كذلك ، فماذا يعني ذلك بالضبط؟ نحن لا نعتبر أن الذكاء الاصطناعي اليوم هو تجسيد للشخصية القانونية ، انظر توضيحي في الرابط هنا. لا يعلق الذيل على الحمار في حالة الذكاء الاصطناعي. ربما إذا أصبح الذكاء الاصطناعي يومًا ما حساسًا ، يمكنك محاولة القيام بذلك. حتى ذلك الحين ، يعد هذا أمرًا بعيد المنال (بالإضافة إلى نوع العقوبات أو التداعيات التي قد يتعرض لها الذكاء الاصطناعي ، راجع تحليلي في الرابط هنا و الرابط هنا، فمثلا).

إذا لم يكن الذكاء الاصطناعي هو المشتبه فيه الخاضع للمساءلة ، فقد نقول بطبيعة الحال أنه يجب محاسبة أي إنسان أو بشري ابتكر الذكاء الاصطناعي. هل يمكنك القيام بذلك إذا كان الذكاء الاصطناعي يدير نظامًا مستقلًا فقط ، وقد جاء بعض البشر ليقرنوه بالتسليح؟ هل تلاحق مطوري الذكاء الاصطناعي؟ أو أولئك الذين نشروا الذكاء الاصطناعي؟ أو مجرد الممثل المُسلح؟

أنا على ثقة من أنك حصلت على فكرة أنني لم أتطرق إلا إلى قمة جبل الجليد في مناقشتي القلبية.

في الوقت الحالي ، دعنا نمضي قدمًا وننهي هذا الخطاب. قد تتذكر أن جون ليلي في Euphues: تشريح الذكاء في عام 1578 ذكر أن كل شيء عادل في الحب والحرب.

هل كان يفكر في ظهور أنظمة الأسلحة المستقلة وكذلك ظهور أنظمة الحكم الذاتي التي يتم تسليحها؟

نحن بالتأكيد بحاجة إلى وضع هذا في رأس أذهاننا على الفور.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous-weapons-systems-and-the-exploitation-of-ai-driven-autonomish-are-