أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي يطرحان أسئلة صعبة حول هذا التعهد الجديد من خلال رقص صانعي الروبوتات قائلين إنهم سيتجنبون تسليح الذكاء الاصطناعي

ربما تكون قد شاهدت الأسبوع الماضي في الأخبار أو لاحظت على وسائل التواصل الاجتماعي التعهد المعلن من قبل بعض صانعي الروبوتات حول أهدافهم المعلنة لتجنب استخدام الذكاء الاصطناعي للروبوتات ذات الأغراض العامة. سوف أطلعك على التفاصيل في لحظة ، لذا لا تقلق إذا لم تكن قد اكتشفت الأمر.

كان رد الفعل على هذا الإعلان سريعًا ، وربما كالمعتاد في مجتمعنا المستقطب ، كان في نفس الوقت مدحًا وفي بعض الأحيان ساخرًا نقدًا أو متشككًا بصراحة.

إنها قصة عالمين.

في عالم واحد ، يقول البعض أن هذا هو بالضبط ما نحتاج إليه مسؤول إعلان مطوري الروبوتات AI.

نشكر الله لكونك على الجانب الصحيح من مشكلة ستصبح تدريجياً أكثر وضوحًا وأكثر إثارة للقلق. هذه الروبوتات الراقصة اللطيفة مقلقة لأنه من السهل جدًا إعادة تنظيمها لحمل الأسلحة واستخدامها بأسوأ الطرق (يمكنك التحقق من ذلك بنفسك من خلال الذهاب إلى وسائل التواصل الاجتماعي وهناك مقاطع فيديو كثيرة تعرض روبوتات راقصة مسلحة ببنادق آلية و أسلحة أخرى).

يقول الجانب الآخر من هذه العملة أن ما يسمى التعهد ليس أكثر من خدعة تسويقية أو علاقات عامة (كملاحظة جانبية ، هل أي شخص على دراية بالفرق بين التعهد والتبرع؟). على أي حال ، يحذر المشككون من أن هذه إشارة فضيلة جامحة في سياق الروبوتات الراقصة. كما ترى ، فإن التحسر على حقيقة أن الروبوتات ذات الأغراض العامة يمكن تسليحها هو بالتأكيد أمر جدير بالاهتمام ويتم السعي إليه بجدية ، على الرغم من أن مجرد الادعاء بأن الصانع لن يفعل ذلك هو على الأرجح وعد أجوف ، كما يصر البعض.

بشكل عام ، فإن الأمر برمته يطرح مجموعة كبيرة جدًا من اعتبارات أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي. سنقوم بتفكيك الموضوع بدقة ونرى كيف أن هذا يمثل ضربة مزدوجة لمستنقع الذكاء الاصطناعي الأخلاقي والقانوني. للاطلاع على تغطيتي المستمرة والواسعة لأخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي ، انظر الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

سأشير أيضًا خلال هذه المناقشة إلى تحليلاتي السابقة لأخطار تسليح الذكاء الاصطناعي ، مثل تقييمي المتعمق في الرابط هنا. قد ترغب في إلقاء نظرة على هذا الخطاب للحصول على تفاصيل إضافية من وراء الكواليس.

الرسالة المفتوحة التي تفتح علبة من الديدان

لنبدأ هذا التحليل من خلال إجراء استكشاف دقيق خطوة بخطوة للرسالة المفتوحة التي تم نشرها مؤخرًا من قبل ستة صانعي روبوت متقدمين معروفين نسبيًا ، وهم Boston Dynamics و Clearpath Robotics و ANYbotics و Agility Robotics و Open Robotics و Unitree. على العموم ، أظن أنك شاهدت بشكل أساسي روبوتات Boston Dynamics ، مثل تلك التي تتجول في جميع الاتجاهات. يبدون وكأنهم يشبهون الكلاب ونستمتع برؤيتهم يتجولون.

كما حذرت سابقًا وبشكل متكرر ، فإن استخدام مثل هذه الروبوتات "الراقصة" كوسيلة لإقناع عامة الناس بأن هذه الروبوتات لطيفة ورائعة أمر مضلل للأسف وينحرف نحو المزالق الكثيرة المتمثلة في تجسيدها. نبدأ في التفكير في هذه القطع الصلبة من المعدن والبلاستيك كما لو أنها تعادل كلبًا مخلصًا محبوبًا. إن رغبتنا في قبول هذه الروبوتات مبنية على شعور زائف بالأمان والطمأنينة. بالتأكيد ، عليك أن تكسب ربحًا وستتعزز احتمالات القيام بذلك من خلال استعراض الروبوتات الراقصة ، لكن هذا للأسف يغفل أو يخفي على ما يبدو الحقيقة الحقيقية المتمثلة في أن هذه الروبوتات هي روبوتات وأن الذكاء الاصطناعي الذي يتحكم في الروبوتات يمكن ابتكاره بشكل خاطئ أو تنحرف.

ضع في اعتبارك تداعيات الذكاء الاصطناعي هذه (مقتطفات من مقالتي عن تسليح الذكاء الاصطناعي ، وجدت في الرابط هنا):

  • قد يواجه الذكاء الاصطناعي خطأً يتسبب في ضلاله
  • قد يكون الذكاء الاصطناعي مرهقًا ويغلق بشكل غير مستجيب
  • قد يحتوي الذكاء الاصطناعي على أخطاء للمطورين تسبب سلوكًا خاطئًا
  • قد يكون الذكاء الاصطناعي تالفًا مع فيروس فاسق مزروع
  • قد يتم الاستيلاء على الذكاء الاصطناعي من قبل قراصنة الإنترنت في الوقت الفعلي
  • يمكن اعتبار الذكاء الاصطناعي غير قابل للتنبؤ بسبب التعقيدات
  • قد يتخذ الذكاء الاصطناعي قرارًا "خاطئًا" حسابيًا (نسبيًا)
  • إلخ

هذه هي النقاط المتعلقة بالذكاء الاصطناعي من النوع الذي تم ابتكاره حقًا في البداية للقيام بالشيء الصحيح.

علاوة على هذه الاعتبارات ، يجب عليك تضمين أنظمة الذكاء الاصطناعي المصممة منذ البداية للقيام بأشياء سيئة. يمكنك الحصول على الذكاء الاصطناعي المصمم لأغراض مفيدة ، وغالبًا ما يشار إليه باسم منظمة العفو الدولية من أجل الخير. يمكنك أيضًا الحصول على ذكاء اصطناعي تم إنشاؤه عن قصد لأغراض سيئة ، والمعروفة باسم منظمة العفو الدولية للسوء. علاوة على ذلك ، يمكنك الحصول على منظمة العفو الدولية من أجل الخير التي هي فاسدة أو إعادة تشكيلها لتصبح منظمة العفو الدولية للسوء.

بالمناسبة ، لا علاقة لأي من هذا بكون الذكاء الاصطناعي يتسم بالحساسية ، وهو ما أذكره لأن البعض يستمر في التصريح بأن الذكاء الاصطناعي اليوم إما واعي أو على وشك أن يكون واعيًا. ليس كذلك. أقوم بتفكيك تلك الأساطير في تحليلي في الرابط هنا.

دعنا نتأكد إذن أننا على نفس الصفحة حول طبيعة الذكاء الاصطناعي اليوم.

لا يوجد أي ذكاء اصطناعي واعي اليوم. ليس لدينا هذا. لا نعرف ما إذا كان الذكاء الاصطناعي الواعي سيكون ممكنًا. لا أحد يستطيع أن يتنبأ بجدارة بما إذا كنا سنحقق ذكاءً اصطناعيًا واعيًا ، ولا ما إذا كان الذكاء الاصطناعي الواعي سينشأ بطريقة ما بأعجوبة تلقائيًا في شكل مستعر أعظم معرفي حسابي (يشار إليه عادةً باسم التفرد ، انظر تغطيتي في الرابط هنا).

نوع الذكاء الاصطناعي الذي أركز عليه يتكون من الذكاء الاصطناعي غير الواعي الذي لدينا اليوم. إذا أردنا التكهن بشدة حول الذكاء الاصطناعي الواعي ، يمكن أن تسير هذه المناقشة في اتجاه مختلف جذريًا. من المفترض أن يكون الذكاء الاصطناعي الواعي ذا جودة بشرية. ستحتاج إلى اعتبار أن الذكاء الاصطناعي الواعي هو المكافئ المعرفي للإنسان. أكثر من ذلك ، نظرًا لأن البعض يتوقع أن يكون لدينا ذكاء اصطناعي فائق الذكاء ، فمن المتصور أن مثل هذا الذكاء الاصطناعي يمكن أن يصبح أكثر ذكاءً من البشر (لاستكشافي للذكاء الاصطناعي الفائق كإمكانية ، انظر التغطية هنا).

أود أن أقترح بشدة أن نبقي الأمور على الأرض وأن ننظر في الذكاء الاصطناعي غير الحسابي اليوم.

ندرك أن الذكاء الاصطناعي اليوم غير قادر على "التفكير" بأي شكل من الأشكال على قدم المساواة مع التفكير البشري. عندما تتفاعل مع Alexa أو Siri ، قد تبدو قدرات المحادثة شبيهة بالقدرات البشرية ، لكن الحقيقة هي أنها حسابية وتفتقر إلى الإدراك البشري. استفاد العصر الأخير من الذكاء الاصطناعي بشكل مكثف من التعلم الآلي (ML) والتعلم العميق (DL) ، مما يعزز مطابقة الأنماط الحسابية. وقد أدى ذلك إلى ظهور أنظمة ذكاء اصطناعي تبدو وكأنها ميول شبيهة بالإنسان. وفي الوقت نفسه ، لا يوجد أي ذكاء اصطناعي اليوم يشبه الفطرة السليمة وليس لديه أي من التعجب المعرفي للتفكير البشري القوي.

كن حذرًا جدًا من تجسيد الذكاء الاصطناعي اليوم.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين يتخذون نمطًا بناءً على القرارات قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق خفية ولكنها مهمة. سيحاول التعلم الآلي أو مطابقة الأنماط الحسابية للتعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة المصممة بالذكاء الاصطناعي في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة في ML / DL من الصعب اكتشاف التحيزات المخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا الأمر أصعب مما قد يبدو. توجد فرصة قوية أنه حتى مع إجراء اختبارات مكثفة نسبيًا ، لا تزال هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

يمكنك إلى حد ما استخدام القول المأثور الشهير أو سيئ السمعة من القمامة في القمامة. الشيء هو ، هذا أقرب إلى التحيزات - التي يتم غرسها بشكل خبيث على أنها تحيزات مغمورة داخل الذكاء الاصطناعي. تصبح عملية اتخاذ القرار الخوارزمية (ADM) للذكاء الاصطناعي بشكل بديهي محملة بعدم المساواة.

غير جيد.

كل هذا له آثار ملحوظة على أخلاقيات الذكاء الاصطناعي ويوفر نافذة مفيدة للدروس المستفادة (حتى قبل أن تحدث جميع الدروس) عندما يتعلق الأمر بمحاولة تشريع الذكاء الاصطناعي.

إلى جانب استخدام مبادئ أخلاقيات الذكاء الاصطناعي بشكل عام ، هناك سؤال مماثل عما إذا كان ينبغي أن تكون لدينا قوانين تحكم الاستخدامات المختلفة للذكاء الاصطناعي. يجري تداول قوانين جديدة على المستويات الفيدرالية والولائية والمحلية التي تتعلق بنطاق وطبيعة كيفية ابتكار الذكاء الاصطناعي. إن الجهد المبذول لصياغة وسن مثل هذه القوانين هو جهد تدريجي. تُعد أخلاقيات الذكاء الاصطناعي بمثابة حل مؤقت مدروس ، على أقل تقدير ، ومن المؤكد تقريبًا إلى حد ما أن يتم دمجها بشكل مباشر في تلك القوانين الجديدة.

اعلم أن البعض يجادل بقوة بأننا لسنا بحاجة إلى قوانين جديدة تغطي الذكاء الاصطناعي وأن قوانيننا الحالية كافية. لقد حذروا من أننا إذا قمنا بسن بعض قوانين الذكاء الاصطناعي هذه ، فسوف نقتل الأوزة الذهبية من خلال تضييق الخناق على التطورات في الذكاء الاصطناعي التي تقدم مزايا مجتمعية هائلة.

في الأعمدة السابقة ، قمت بتغطية مختلف الجهود الوطنية والدولية لصياغة وسن القوانين المنظمة للذكاء الاصطناعي ، انظر الرابط هنا، فمثلا. لقد قمت أيضًا بتغطية مختلف المبادئ والمبادئ التوجيهية لأخلاقيات الذكاء الاصطناعي التي حددتها الدول المختلفة واعتمدتها ، بما في ذلك على سبيل المثال جهود الأمم المتحدة مثل مجموعة اليونسكو لأخلاقيات الذكاء الاصطناعي التي اعتمدتها ما يقرب من 200 دولة ، انظر الرابط هنا.

فيما يلي قائمة مفيدة ومفيدة لمعايير أو خصائص الذكاء الاصطناعي الأخلاقية المتعلقة بأنظمة الذكاء الاصطناعي التي قمت باستكشافها عن كثب سابقًا:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

من المفترض أن يتم استخدام مبادئ أخلاقيات الذكاء الاصطناعي هذه من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف.

يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. كما تم التأكيد سابقًا في هذا المستند ، يتطلب الأمر من القرية ابتكار واستخدام الذكاء الاصطناعي ، ومن أجل ذلك يجب أن تكون القرية بأكملها على دراية بمبادئ أخلاقيات الذكاء الاصطناعي والالتزام بها.

الآن بعد أن وضعت أساسًا مفيدًا للدخول في الرسالة المفتوحة ، نحن مستعدون للتعمق في الأمر.

عنوان الموضوع الرسمي للرسالة المفتوحة هو هذا:

  • "رسالة مفتوحة إلى صناعة الروبوتات ومجتمعاتنا ، لا ينبغي تسليح الروبوتات ذات الأغراض العامة"(حسب النشر على الإنترنت).

حتى الان جيدة جدا.

يبدو العنوان تقريبًا مثل الآيس كريم وفطيرة التفاح. كيف يمكن لأي شخص أن يجادل في هذا باعتباره دعوة سابقة لتجنب تسليح الروبوتات الذكية؟

تابع القراءة لترى.

أولاً ، كعلف للنظر ، إليك فقرة الافتتاح الرسمية للرسالة المفتوحة:

  • "نحن بعض الشركات الرائدة في العالم المكرسة لتقديم أجيال جديدة من الروبوتات المتنقلة المتقدمة للمجتمع. أصبحت هذه الأجيال الجديدة من الروبوتات أكثر سهولة في الوصول إليها ، وأسهل في التشغيل ، وأكثر استقلالية ، وبأسعار معقولة ، وقابلة للتكيف من الأجيال السابقة ، وقادرة على التنقل في مواقع لم يكن من الممكن الوصول إليها سابقًا بواسطة التقنيات الآلية أو التي يتم التحكم فيها عن بُعد. نعتقد أن الروبوتات المتنقلة المتقدمة ستوفر فائدة كبيرة للمجتمع كزملاء عمل في الصناعة ورفاق في منازلنا "(حسب المنشور على الإنترنت).

الجانب المشمس لظهور هذه الأنواع من الروبوتات هو أنه يمكننا توقع ظهور الكثير من الفوائد العظيمة. لا شك في ذلك. قد يكون لديك روبوت في منزلك يمكنه القيام بهذه الأنشطة الشبيهة بجيتسون مثل تنظيف منزلك وغسل الأطباق وغيرها من الأعمال المنزلية في المنزل. سيكون لدينا روبوتات متقدمة للاستخدام في المصانع ومنشآت التصنيع. يمكن للروبوتات الزحف أو المناورة في المساحات الضيقة مثل عندما ينهار مبنى وتكون أرواح البشر على المحك ليتم إنقاذها. وهلم جرا.

جانبا ، قد تجد اهتمامي تغطيتي الأخيرة التي ناقدة النظر ليوم تسلا للذكاء الاصطناعي ، حيث صور إيلون ماسك نوعًا من الروبوتات التي تمشي على أنها مستقبل تسلا والمجتمع ، انظر الرابط هنا.

العودة إلى هذه المسألة في متناول اليد. عند مناقشة الروبوتات الراقصة أو الروبوتات التي تسير بجدية ، نحتاج إلى مراعاة المفاضلات أو إجمالي عائد الاستثمار (العائد على الاستثمار) لاستخدام الذكاء الاصطناعي هذا. يجب ألا نسمح لأنفسنا بأن نكون مفتونين بالمزايا بشكل مفرط عندما تكون هناك أيضًا تكاليف يجب أخذها في الاعتبار.

يمكن أن تحتوي لعبة جديدة لامعة على حواف حادة إلى حد ما.

كل هذا يحفز نقطة مهمة ولكنها صامتة إلى حد ما أن جزءًا من سبب ظهور مشكلة تسليح الذكاء الاصطناعي الآن يرجع إلى تقدم الذكاء الاصطناعي نحو النشاط المستقل. كنا نتوقع عادة أن يتم تشغيل الأسلحة بشكل عام بواسطة الإنسان. يتخذ الإنسان قرار إطلاق النار أو الاشتباك مع السلاح. يمكننا افتراض أن هذا الإنسان مسؤول عن أفعاله.

يبدو أن الذكاء الاصطناعي المصمم للعمل بشكل مستقل أو الذي يمكن خداعه للقيام بذلك يزيل الإنسان من الحلقة. يقوم الذكاء الاصطناعي بعد ذلك باتخاذ قرارات حسابية خوارزمية يمكن أن تنتهي بقتل أو إيذاء البشر. إلى جانب المخاوف الواضحة بشأن الافتقار إلى السيطرة على الذكاء الاصطناعي ، لديك أيضًا مخاوف من أننا قد نواجه وقتًا شاقًا في تحميل المسؤولية فيما يتعلق بأفعال الذكاء الاصطناعي. ليس لدينا إنسان هو محرضنا الواضح.

أدرك أن البعض يعتقد أنه يجب علينا ببساطة وبشكل مباشر تحميل منظمة العفو الدولية المسؤولية عن أفعالها ، كما لو أن الذكاء الاصطناعي قد حقق الشعور أو تم منحه شخصية اعتبارية بطريقة أخرى (انظر تغطيتي للمناقشات حول الذكاء الاصطناعي الذي اكتسب الشخصية الاعتبارية في الرابط هنا). هذا لن يعمل في الوقت الحالي. سيتعين علينا تتبع الذكاء الاصطناعي إلى البشر الذين ابتكروه أو أرسلوه. سيحاولون بلا شك التهرب من المسؤولية قانونًا من خلال محاولة التأكيد على أن الذكاء الاصطناعي تجاوز ما تصوره. هذا نزاع متزايد نحتاج إلى التعامل معه (راجع كتابات قانون الذكاء الاصطناعي الخاصة بي للحصول على رؤى حول القضايا الخلافية المعنية).

أنشأت الأمم المتحدة (UN) من خلال اتفاقية أسلحة تقليدية معينة (CCW) في جنيف أحد عشر مبدأ توجيهيًا غير ملزم بشأن الأسلحة الفتاكة ذاتية التشغيل ، وفقًا للتقرير الرسمي المنشور على الإنترنت (بما في ذلك الإشارات إلى القانون الإنساني الدولي ذي الصلة أو شروط القانون الدولي الإنساني) ، بما فيها:

(أ) لا يزال القانون الإنساني الدولي يطبق بالكامل على جميع أنظمة الأسلحة ، بما في ذلك إمكانية تطوير واستخدام أنظمة الأسلحة الفتاكة ذاتية التشغيل ؛

(ب) يجب الاحتفاظ بالمسؤولية البشرية عن القرارات المتعلقة باستخدام أنظمة الأسلحة حيث لا يمكن نقل المساءلة إلى الآلات. يجب أخذ ذلك في الاعتبار عبر دورة الحياة الكاملة لنظام الأسلحة ؛

(ج) التفاعل بين الإنسان والآلة ، الذي قد يتخذ أشكالاً مختلفة ويتم تنفيذه في مراحل مختلفة من دورة حياة السلاح ، ينبغي أن يضمن أن الاستخدام المحتمل لأنظمة الأسلحة القائمة على التكنولوجيات الناشئة في مجال أنظمة الأسلحة الفتاكة المستقلة الامتثال للقانون الدولي المعمول به ، ولا سيما القانون الدولي الإنساني. عند تحديد جودة ومدى التفاعل بين الإنسان والآلة ، ينبغي النظر في مجموعة من العوامل بما في ذلك سياق العمليات ، وخصائص وقدرات نظام الأسلحة ككل ؛

(د) يجب ضمان المساءلة عن تطوير ونشر واستخدام أي نظام أسلحة ناشئ في إطار اتفاقية الأسلحة التقليدية المعينة وفقاً للقانون الدولي الساري ، بما في ذلك من خلال تشغيل هذه النظم ضمن سلسلة مسؤولة للقيادة والسيطرة البشرية ؛

(هـ) وفقا لالتزامات الدول بموجب القانون الدولي ، في دراسة أو تطوير أو اقتناء أو اعتماد سلاح جديد أو وسيلة أو أسلوب حربي ، يجب تحديد ما إذا كان استخدامه سيحظره ، في بعض أو جميع الظروف ، بموجب القانون الدولي ؛

(و) عند تطوير أو الحصول على أنظمة أسلحة جديدة تستند إلى التقنيات الناشئة في مجال أنظمة الأسلحة الفتاكة المستقلة ، والأمن المادي ، والضمانات غير المادية المناسبة (بما في ذلك الأمن السيبراني ضد القرصنة أو انتحال البيانات) ، فإن خطر حيازة الجماعات الإرهابية وينبغي النظر في مخاطر الانتشار ؛

(ز) ينبغي أن تكون تقييمات المخاطر وتدابير التخفيف جزءاً من دورة تصميم وتطوير واختبار ونشر التكنولوجيات الناشئة في أي نظم أسلحة ؛

(ح) ينبغي النظر في استخدام التكنولوجيات الناشئة في مجال أنظمة الأسلحة الفتاكة ذاتية التشغيل لدعم الامتثال للقانون الدولي الإنساني وغيره من الالتزامات القانونية الدولية المنطبقة ؛

(ط) عند صياغة تدابير السياسات المحتملة ، لا ينبغي أن تكون التكنولوجيات الناشئة في مجال أنظمة الأسلحة الفتاكة ذاتية التشغيل مجسّمة ؛

(ي) لا ينبغي للمناقشات وأي تدابير سياسية محتملة تُتخذ في سياق اتفاقية الأسلحة التقليدية أن تعرقل التقدم في الاستخدامات السلمية للتكنولوجيات المستقلة الذكية أو الوصول إليها ؛

(ك) تتيح اتفاقية الأسلحة التقليدية المعينة إطاراً ملائماً للتعامل مع مسألة التكنولوجيات الناشئة في مجال أنظمة الأسلحة الفتاكة ذاتية التشغيل في سياق أهداف ومقاصد الاتفاقية ، التي تسعى إلى تحقيق توازن بين الضرورة العسكرية والاعتبارات الإنسانية.

هذه وغيرها من قوانين الحرب وقوانين النزاع المسلح المختلفة ، أو القانون الدولي الإنساني (القانون الإنساني الدولي) بمثابة دليل حيوي وواعد دائمًا للنظر في ما قد نحاول القيام به بشأن ظهور أنظمة الحكم الذاتي التي يتم تسليحها ، سواء عن طريق حجر الزاوية. التصميم أو بطرق ما بعد الحقيقة.

يقول البعض إنه يجب علينا حظر أنظمة الذكاء الاصطناعي المستقلة التي يمكن تسليحها. هذا صحيح ، يجب على العالم أن يضع قدمه ويطالب بشدة بعدم استخدام أنظمة الذكاء الاصطناعي المستقلة كسلاح. فرض حظر شامل. نهاية القصة. نقطة توقف كاملة.

حسنًا ، يمكننا بصدق أن نتمنى أن يتم التقيد الصارم والطاعة بفرض حظر على أنظمة الحكم الذاتي المميتة. تكمن المشكلة في أنه لا بد من العثور على مساحة كبيرة للمناورة بشكل خبيث في أي من أدق حالات الحظر. كما يقولون ، من المفترض أن يتم كسر القواعد. يمكنك أن تراهن على أنه عندما تكون الأشياء فضفاضة ، فإن riffraff سوف يكتشف الثغرات ويحاول الغمز في طريقه للالتفاف على القواعد.

فيما يلي بعض الثغرات المحتملة التي تستحق الدراسة:

  • ادعاءات غير قاتلة. اصنع أنظمة أسلحة مستقلة غير فتاكة (تبدو جيدة على ما يبدو لأنها خارج حدود الحظر) ، والتي يمكنك بعد ذلك التحول إلى قاتلة (ستكون خارج الحظر في اللحظة الأخيرة فقط).
  • مطالبات النظام الذاتي فقط. التمسك بالحظر من خلال عدم صنع أنظمة ذاتية التركيز مميتة ، وفي الوقت نفسه ، تحرز قدرًا كبيرًا من التقدم في ابتكار أنظمة مستقلة يومية لم يتم تسليحها (حتى الآن) ولكن يمكنك تعديلها لتصبح سلاحًا.
  • مطالبات عدم التكامل كواحد. صمم أنظمة مستقلة غير مسلحة على الإطلاق ، وعندما يحين الوقت ، استخدم الأسلحة على الظهر بحيث يمكنك محاولة المجادلة بقوة بأنهم عنصران منفصلان ، وبالتالي تؤكد أنهما لا يندرجان ضمن عنوان جهاز الكل في واحد نظام سلاح مستقل أو ابن عمه.
  • الادعاءات بأنها ليست مستقلة. اصنع نظام سلاح لا يبدو أنه يتمتع بقدرات مستقلة. اترك مساحة في هذا النظام الذي يُفترض أنه غير مستقل لإسقاط الاستقلالية القائمة على الذكاء الاصطناعي. عند الحاجة ، قم بتوصيل الاستقلالية وستكون جاهزًا للتداول (حتى ذلك الحين ، يبدو أنك لم تنتهك الحظر).
  • أخرى

هناك الكثير من الصعوبات الأخرى التي تم التعبير عنها في محاولة الحظر التام لأنظمة الأسلحة الفتاكة ذاتية التشغيل. سأغطي عددًا قليلاً منهم.

يجادل بعض النقاد بأن الحظر ليس مفيدًا بشكل خاص ، وبدلاً من ذلك يجب أن تكون هناك أحكام تنظيمية. الفكرة هي أنه سيتم السماح بهذه الأشياء البدائية ولكن يتم مراقبتها بصرامة. تم وضع مجموعة من الاستخدامات المشروعة ، جنبًا إلى جنب مع طرق الاستهداف المشروعة ، وأنواع القدرات المشروعة ، والتناسب القانوني ، وما شابه.

من وجهة نظرهم ، فإن الحظر المباشر يشبه وضع رأسك في الرمال والتظاهر بأن الفيل في الغرفة غير موجود. على الرغم من أن هذا الخلاف يؤدي إلى غليان الدم لدى أولئك الذين يتعارضون مع الحجة القائلة بأنه من خلال فرض حظر ، يمكنك التقليل بشكل كبير من إغراء متابعة هذه الأنواع من الأنظمة. بالتأكيد ، سوف يتباهى البعض بالحظر ، لكن على الأقل نأمل أن لا يفعل ذلك معظمهم. يمكنك بعد ذلك تركيز انتباهك على المتظاهرين وليس عليك تشتيت انتباهك على الجميع.

جولة وجولة هذه المناقشات تذهب.

هناك قلق آخر يُلاحظ كثيرًا وهو أنه حتى إذا التزم الصالحون بالحظر ، فإن السيئ لن يفعل ذلك. هذا يضع الصالح في موقف رديء. سيحصل السيئ على هذه الأنواع من أنظمة الحكم الذاتي المسلحة ولن يكون الجيد. بمجرد الكشف عن الأشياء السيئة ، سيكون الوقت قد فات على الصالح للحاق بها. باختصار ، الشيء الوحيد الذكي الذي يجب فعله هو الاستعداد لمحاربة النار بالنار.

هناك أيضًا نزاع الردع الكلاسيكي. إذا اختار الصالحون صنع أنظمة ذاتية التسليح ، فيمكن استخدام ذلك لردع السيئين عن السعي للدخول في صراع. إما أن يكون الصالح أفضل تسليحا وبالتالي يثني السيئ ، أو سيكون الصالح جاهزا عندما يكشف السيئ ربما عن أنهم كانوا يبتكرون تلك الأنظمة خلسة طوال الوقت.

إن العداء لهذه العدادات هو أنه من خلال صنع أنظمة أسلحة ذاتية التحكم ، فإنك تخوض سباق تسلح. سيسعى الطرف الآخر إلى الحصول على نفس الشيء. حتى إذا كانوا غير قادرين تقنيًا على إنشاء مثل هذه الأنظمة من جديد ، فسيكون بمقدورهم الآن سرقة خطط الأنظمة "الجيدة" ، أو الهندسة العكسية للشجاعة عالية التقنية ، أو تقليد ما يراهون على أنه تجربة حقيقية. طريقة لإنجاز المهمة.

آها ، بعض الرد ، كل هذا قد يؤدي إلى تقليل النزاعات من خلال مظهر متبادل. إذا علم الجانب "أ" أن الجانب "ب" لديه أسلحة أنظمة ذاتية الحكم الفتاكة ، ويعرف الجانب "ب" أن الجانب "أ" يمتلكها ، فقد يجلس بإحكام ولا يتعرض لضربة. هذا له تلك الهالة المتميزة من الدمار المؤكد المتبادل (MAD) المشاعر.

وهلم جرا.

النظر عن كثب في الفقرة الثانية

لقد قمنا بالفعل بتغطية الكثير من المساحات الواردة هنا وفقط حتى الآن النظر في الفقرة الأولى أو الافتتاحية من الرسالة المفتوحة (هناك أربع فقرات في المجموع).

حان الوقت لإلقاء نظرة على الفقرة الثانية ، ها أنت ذا:

  • "كما هو الحال مع أي تقنية جديدة تقدم قدرات جديدة ، فإن ظهور الروبوتات المتنقلة المتقدمة يوفر إمكانية إساءة الاستخدام. يمكن أن يستخدمها الأشخاص غير الموثوق بهم لانتهاك الحقوق المدنية أو لتهديد الآخرين أو إيذائهم أو تخويفهم. أحد المجالات التي تثير القلق بشكل خاص هو التسليح. نعتقد أن إضافة أسلحة إلى الروبوتات التي يتم تشغيلها عن بعد أو بشكل مستقل ، والمتاحة على نطاق واسع للجمهور ، والقادرة على التنقل إلى مواقع كان يتعذر الوصول إليها سابقًا حيث يعيش الناس ويعملون ، يثير مخاطر جديدة من الأذى وقضايا أخلاقية خطيرة. ستؤدي التطبيقات المُسلَّحة لهذه الروبوتات القادرة حديثًا إلى الإضرار بثقة الجمهور في التكنولوجيا بطرق تضر بالمزايا الهائلة التي ستجلبها للمجتمع. لهذه الأسباب ، نحن لا ندعم تسليح الروبوتات ذات الأغراض العامة للتنقل المتقدم. بالنسبة لأولئك منا الذين تحدثوا عن هذه القضية في الماضي ، والذين شاركوا للمرة الأولى ، نشعر الآن بإلحاح متجدد في ضوء القلق العام المتزايد في الأشهر الأخيرة بسبب عدد قليل من الأشخاص الذين أعلنوا بشكل واضح عن عملياتهم المؤقتة. الجهود المبذولة لتسليح الروبوتات المتاحة تجاريًا "(حسب المنشور على الإنترنت).

عند قراءة تلك الفقرة الثانية ، آمل أن تتمكن من رؤية كيف يأتي خطابي السابق هنا حول تسليح الذكاء الاصطناعي في المقدمة.

دعنا نفحص بعض النقاط الإضافية.

إن أحد الأمور التي تثير القلق إلى حد ما حول جانب صياغة معين أثار اهتمام البعض هو أن السرد يبدو أنه يؤكد أن "الأشخاص غير الموثوق بهم" قد يسيئون استخدام روبوتات الذكاء الاصطناعي هذه. نعم ، في الواقع ، قد يكون الأشخاص السيئون أو الأشرار هم الذين يتسببون في أفعال غادرة من شأنها "إساءة استخدام" روبوتات الذكاء الاصطناعي.

في الوقت نفسه ، كما أشرنا في بداية هذه المناقشة ، نحتاج أيضًا إلى توضيح أن الذكاء الاصطناعي نفسه قد ينحرف ، ربما بسبب الأخطاء أو الأخطاء المضمنة وغيرها من التعقيدات المماثلة. وأعرب عن القلق هو أن التأكيد فقط على فرص أشخاص غير جديرين بالثقة هو أنه يبدو أنه يتجاهل الاحتمالات السلبية الأخرى. على الرغم من أن معظم شركات وموردي الذكاء الاصطناعي يكرهون الاعتراف بذلك ، إلا أن هناك عددًا كبيرًا من مشكلات أنظمة الذكاء الاصطناعي التي يمكن أن تقوض سلامة وموثوقية الأنظمة المستقلة. لتغطيتي لسلامة الذكاء الاصطناعي والحاجة إلى ضمانات صارمة ويمكن إثباتها ، انظر الرابط هنا، فمثلا.

هناك نقطة بارزة أخرى ظهرت بين أولئك الذين فحصوا الرسالة المفتوحة والتي تستلزم التأكيد المضمن على أنه قد ينتهي الأمر بتقويض ثقة الجمهور المرتبطة بروبوتات الذكاء الاصطناعي.

من ناحية أخرى ، هذا تأكيد صحيح. إذا تم استخدام روبوتات الذكاء الاصطناعي للقيام بالمزايدة الشريرة ، فيمكنك المراهنة على أن الجمهور سيصاب بالبخار تمامًا. عندما يتم تبخير الجمهور ، يمكنك أن تراهن على أن المشرعين سيقفزون إلى الغزوة ويسعون إلى سن قوانين تضييق الخناق على روبوتات الذكاء الاصطناعي وصناع الذكاء الاصطناعي. وهذا بدوره يمكن أن يشل صناعة الروبوتات للذكاء الاصطناعي إذا كانت القوانين شاملة وتغلق الجهود التي تنطوي على فوائد الروبوتات للذكاء الاصطناعي. بمعنى ما ، يمكن أن يُطرح الطفل بماء الاستحمام (تعبير قديم ، ربما يستحق أن يتقاعد).

السؤال الواضح المطروح أيضًا هو ما إذا كان هذا التأكيد على تجنب انخفاض الثقة العامة في روبوتات الذكاء الاصطناعي هو عقيدة تخدم الذات إلى حد ما أم أنها لصالحنا جميعًا (هل يمكن أن تكون كليهما؟).

انت صاحب القرار.

نأتي الآن إلى الجزء اللحمي بشكل خاص من الرسالة المفتوحة:

  • "نتعهد بأننا لن نستخدم روبوتاتنا ذات الأغراض العامة للتنقل المتقدم أو البرامج التي نطورها والتي تمكن الروبوتات المتقدمة من استخدام الأسلحة ، ولن ندعم الآخرين للقيام بذلك. عندما يكون ذلك ممكنًا ، سنراجع بعناية التطبيقات المقصودة لعملائنا لتجنب التسليح المحتمل. نتعهد أيضًا باستكشاف تطوير الميزات التكنولوجية التي يمكن أن تخفف أو تقلل من هذه المخاطر. لكي نكون واضحين ، نحن لا نتعامل مع التقنيات الحالية التي تستخدمها الدول ووكالاتها الحكومية للدفاع عن نفسها ودعم قوانينها "(حسب المنشور على الإنترنت).

يمكننا تفريغ هذا.

اجلس واستعد وفقًا لذلك.

هل أنت مستعد لبعض الاستقطاب الناري؟

على الجانب الإيجابي ، يبشر البعض جهارًا بأن صانعي روبوتات الذكاء الاصطناعي هؤلاء سوف يقدمون مثل هذا التعهد. يبدو أن صانعي الروبوتات هؤلاء سيسعون لحسن الحظ إلى عدم تسليح روبوتاتهم ذات الأغراض العامة "الحركية المتقدمة". بالإضافة إلى ذلك ، تقول الرسالة المفتوحة إنهم لن يدعموا الآخرين الذين يفعلون ذلك.

يتساءل النقاد عما إذا كانت هناك بعض الكلمات الذكية تحدث.

على سبيل المثال ، أين يبدأ "التنقل المتقدم" ونهايته؟ إذا كان صانع الروبوت يبتكر ملف بسيط- إمكانية التنقل باستخدام الروبوت بدلاً من الروبوت المتقدم (وهو جزء غير محدد من المصطلحات الفنية) ، هل يتم استبعاد ذلك من نطاق ما سيحدث ليس يتم تسليحها؟ وبالتالي ، على ما يبدو ، لا بأس في تسليح روبوتات الذكاء الاصطناعي ذات قابلية التنقل البسيطة ، طالما أنها ليست كذلك متقدم.

الشيء نفسه ينطبق على صياغة الروبوتات للأغراض العامة. إذا تم تصميم روبوت ذكاء اصطناعي خصيصًا للتسليح وبالتالي لم يكن كذلك ، فإننا نقول أ هدف عام الروبوت ، هل يصبح هذا استبعادًا قابلاً للتطبيق من النطاق؟

قد تتجادل مع هذه المراوغات وتجادل بشدة أن هذه مجرد رسالة مفتوحة وليست وثيقة قانونية من خمسين صفحة توضح كل زاوية وركن.

يقودنا هذا إلى الشعور بالضيق الذي يبدو على المستوى الكلي والذي عبر عنه البعض. من حيث الجوهر ، ماذا يعني "التعهد"؟

يسأل البعض ، أين اللحم البقري؟

يبدو أن الشركة التي تقدم تعهدًا كهذا تفعل ذلك دون أي حصة حقيقية في اللعبة. إذا قرر كبار الضباط في أي شركة تسجل في هذا التعهد عدم الوفاء بالتعهد ، فماذا يحدث لتلك الشركة؟ هل سيتم تعليب المديرين التنفيذيين بإيجاز؟ هل ستغلق الشركة وتعتذر بغزارة عن مخالفة التعهد؟ وهلم جرا.

بقدر ما يمكن الاستدلال عليه ، لا توجد عقوبة أو جزاء معين لأي انتهاك للتعهد.

قد تجادل بأن هناك احتمالية للإضرار بالسمعة. قد تتعرض الشركة المتعهدة للهجوم في السوق لأنها قدمت تعهدًا لم تعد تلتزم به. بالطبع ، يفترض هذا أيضًا أن الناس سيتذكرون أن التعهد قد تم. كما يفترض أنه سيتم الكشف عن انتهاك التعهد بطريقة ما (يبدو من الواضح أنه من غير المحتمل أن تخبر الشركة كل شيء إذا فعلت ذلك). يجب استدعاء منتهك التعهد ومع ذلك قد تصبح هذه المشكلة مجرد ضجيج في موجة تسونامي المستمرة للأخبار حول صانعي الروبوتات AI.

تأمل زاوية أخرى ظهرت.

يتم شراء شركة تعهد من قبل شركة أكبر. تختار الشركة الأكبر أن تبدأ في تحويل الروبوتات ذات الأغراض العامة المتطورة إلى إصدارات مسلحة بالذكاء الاصطناعي.

وهل هذا مخالفة للالتزام؟

قد تصر الشركة الأكبر على أنها ليست انتهاكًا لأنهم (الشركة الأكبر) لم يقدموا التعهد أبدًا. وفي الوقت نفسه ، فإن الروبوتات غير الضارة التي قامت الشركة الأصغر بتجميعها وابتكارها ، والتي تقوم بذلك على ما يبدو بنواياها الأكثر إيثارًا ، يتم تجديدها بين عشية وضحاها لتصبح سلاحًا.

نوع من تقويض التعهد ، على الرغم من أنك قد تقول إن الشركة الأصغر لم تكن تعلم أن هذا سيحدث يومًا ما. كانوا جديين في رغبتهم. لقد كان الأمر خارج سيطرتهم فيما يتعلق بما اختارت شركة الشراء الأكبر القيام به.

يتساءل البعض أيضًا عما إذا كان هناك أي مسؤولية قانونية في هذا.

تقرر شركة تعهد بعد بضعة أشهر من الآن أنها لن تفي بالتعهد. لقد تغيروا في موقفهم. هل يمكن رفع دعوى على الشركة لتنازلها عن التعهد الذي قطعته؟ من يقاضي؟ ماذا سيكون أساس الدعوى؟ تنشأ عدد كبير من القضايا القانونية. كما يقولون ، يمكنك مقاضاة أي شخص تقريبًا ، ولكن ما إذا كنت ستفوز أمر مختلف تمامًا.

فكر في هذا بطريقة أخرى. تحصل شركة التعهدات على فرصة لإبرام صفقة كبيرة حقًا لبيع مجموعة كاملة من الروبوتات ذات الأغراض العامة للتنقل المتقدم لشركة ضخمة مستعدة للدفع من خلال الأنف للحصول على الروبوتات. إنها واحدة من صفقات شراء المليار دولار التي تحدث مرة واحدة في العمر.

ماذا يجب أن تفعل شركة الروبوتات AI؟

إذا تم تداول شركة تعهدات الروبوتات للذكاء الاصطناعي علنًا ، فمن شبه المؤكد أنها ستهدف إلى إجراء عملية البيع (يمكن قول الشيء نفسه عن شركة خاصة ، وإن لم يكن الأمر كذلك تمامًا). تخيل أن شركة التعهد تشعر بالقلق من أن المشتري قد يحاول تسليح الروبوتات ، على الرغم من دعنا نقول أنه لا يوجد مثل هذا النقاش على الطاولة. يشاع فقط أن المشتري قد يفعل ذلك.

وبناءً على ذلك ، فإن الشركة المتعهدة تضع في ترخيصها أن الروبوتات لن يتم تسليحها. يتجاهل المشتري هذه اللغة ويبتعد عن الشراء.

ما مقدار الربح الذي ابتعدت عنه شركة الروبوتات المتعهدة بالذكاء الاصطناعي؟

هل هناك نقطة يفوق فيها الربح الداخلي إدراج شرط تقييد الترخيص (أو ربما صياغة التقييد قانونيًا للسماح بمساحة للمناورة والاستمرار في تنفيذ الصفقة)؟ أعتقد أنه يمكنك رؤية المأزق الذي ينطوي عليه الأمر. يمكن بسهولة استحضار الكثير من هذه السيناريوهات. السؤال هو ما إذا كان هذا التعهد سيكون له أسنان. إذا كان الأمر كذلك ، أي نوع من الأسنان؟

باختصار ، كما ذُكر في بداية هذه المناقشة ، ذكر البعض أن هذا النوع من التعهد يتم تقديمه ، بينما يتبنى البعض الآخر وجهة نظر باهتة حول ما إذا كان التعهد سيصمد أم لا.

ننتقل.

الحصول على تعهد يسير

تنص الفقرة الرابعة والأخيرة من الرسالة المفتوحة على ما يلي:

  • "نحن نتفهم أن التزامنا وحده لا يكفي للتصدي الكامل لهذه المخاطر ، وبالتالي فإننا ندعو صانعي السياسات للعمل معنا لتعزيز الاستخدام الآمن لهذه الروبوتات وحظر إساءة استخدامها. كما ندعو كل منظمة ومطور وباحث ومستخدم في مجتمع الروبوتات إلى تقديم تعهدات مماثلة بعدم بناء أو ترخيص أو دعم أو تمكين ربط الأسلحة بمثل هذه الروبوتات. نحن مقتنعون بأن الفوائد التي تعود على البشرية من هذه التقنيات تفوق بشدة مخاطر إساءة الاستخدام ، ونحن متحمسون لمستقبل مشرق يعمل فيه البشر والروبوتات جنبًا إلى جنب لمواجهة بعض تحديات العالم "(حسب المنشور على الإنترنت).

يحتوي هذا الجزء الأخير من الرسالة المفتوحة على العديد من العناصر الإضافية التي أثارت الغضب.

قد يكون استدعاء صانعي السياسات حكيماً أو غير حكيم ، كما يؤكد البعض. قد تحصل على صانعي السياسة الذين ليسوا على دراية بهذه الأمور الذين يقومون بعد ذلك بتطبيق قوانين ولوائح الاندفاع إلى الحكم والحرفية الكلاسيكية التي تغتصب التقدم في روبوتات الذكاء الاصطناعي. وفقًا للنقطة التي تم توضيحها سابقًا ، ربما يتعطل الابتكار الذي يدفع التقدم في مجال الروبوتات للذكاء الاصطناعي أو يتوقف عليه.

يقول النقاد إنه من الأفضل أن تكون على يقين من أنك تعرف ما تطلبه.

بالطبع ، الحجة المضادة هي أن السرد ينص بوضوح على أن صانعي السياسات يجب أن يعملوا مع شركات الروبوتات للذكاء الاصطناعي لمعرفة كيفية وضع مثل هذه القوانين واللوائح بشكل معقول. إن المقابل للحجة المضادة هو أنه قد يُنظر إلى صانعي السياسة على أنهم ينظرون إلى صانعي الروبوتات بالذكاء الاصطناعي إذا قاموا بتلبية رغباتهم. إن نقيض الحجة المضادة هو أنه من الضروري بطبيعة الحال العمل مع أولئك الذين يعرفون عن التكنولوجيا ، وإلا فإن النتيجة ستكون محسوبة. إلخ.

على أساس ربما يكون مقلوبًا ، أصيب البعض بحرقة من الخط الذي يدعو الجميع إلى تقديم تعهدات مماثلة حتى لا يفعلوا ذلك. إرفاق أسلحة للروبوتات ذات الأغراض العامة المتطورة للتنقل. الكلمة الأساسية هي الكلمة إرفاق. إذا كان شخص ما يصنع روبوتًا يعمل بالذكاء الاصطناعي يتضمن الأسلحة أو يدمجها بسلاسة ، فيبدو أن ذلك يتحايل على صياغة إرفاق شيئا ما. يمكنك رؤيتها الآن ، شخص يجادل بشدة بأن السلاح غير متصل ، إنه جزء لا يتجزأ تمامًا من روبوت الذكاء الاصطناعي. لقد تجاوزوا الأمر ، كما قالوا ، لسنا في نطاق هذا التعهد ، وكان بإمكانهم حتى أن يقولوا إنهم كانوا كذلك.

وهذا يثير شكوى أخرى من عدم ثبات العهد.

هل يمكن لشركة أو أي شخص على الإطلاق أن يقوم بهذا التعهد أن يعلن أنه غير ملتزم به في أي وقت يرغب في القيام بذلك ولأي سبب يرغب فيه؟

على مايبدو.

هناك الكثير من الجدل حول تقديم التعهدات وما هي قوة الدفع التي تضفيها.

وفي الختام

يمكنك القول إن هذه الشركات التي تحاول القيام بالشيء الصحيح تتعرض للطبول لمحاولتها القيام بالشيء الصحيح.

ماذا حدث لعالمنا؟

أي شخص يقدم مثل هذا التعهد يجب أن يحصل على فائدة الشك ، قد تحافظ عليه بشغف. إنهم يخطوون إلى المجال العام لتقديم مساهمة جريئة وحيوية. إذا بدأنا في التشهير بهم لفعلهم ذلك ، فمن المؤكد أن ذلك سيزيد الأمور سوءًا. لا أحد يريد أن يقدم مثل هذا التعهد. لن تحاول الشركات وغيرها. سوف يختبئون بعيدًا ولن يحذروا المجتمع مما يمكن أن تتحول إليه تلك الروبوتات الراقصة المحببة.

يدعي المشككون أن الطريقة التي تجعل المجتمع يستنبط حكمة تستلزم إجراءات أخرى ، مثل إسقاط الفعل الخيالي المتمثل في عرض روبوتات الذكاء الاصطناعي الراقصة المرحة. أو على الأقل اجعله أكثر توازناً. على سبيل المثال ، بدلاً من مجرد تقليد الكلاب المحبوبة الموالية للحيوانات الأليفة ، قم بتوضيح كيف يمكن أن تكون الروبوتات الراقصة أقرب إلى الذئاب الغاضبة البرية التي يمكن أن تمزق البشر إلى أشلاء دون تردد.

وناشدوا أن ذلك سيحظى باهتمام أكبر من التعهدات.

يمكن أن تكون التعهدات بلا شك لغزًا كبيرًا.

كما قال المهاتما غاندي ببلاغة: "بغض النظر عن مدى وضوح التعهد ، فإن الناس سوف يديرون النص ويلويونه ليناسب غرضهم الخاص."

ربما في الختام هنا في ملاحظة ترفع من شأن ذلك ، قال توماس جيفرسون هذا عن التعهدات: "نتعهد بشكل متبادل لبعضنا البعض بحياتنا وثرواتنا وشرفنا المقدس".

عندما يتعلق الأمر بروبوتات الذكاء الاصطناعي ، واستقلاليتها ، وتسليحها ، وما شابه ، سنكون جميعًا في النهاية معًا. يجب أن يكون تعهدنا المتبادل على الأقل أننا سنبقي هذه الأمور في المقدمة ، وسنسعى جاهدين لإيجاد طرق للتعامل مع هذه التطورات ، وبطريقة ما نجد طريقنا نحو تأمين شرفنا وثرواتنا وحياتنا.

هل يمكننا التعهد بذلك؟

آمل ذلك.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- صُنَّاع الروبوتات يقولون إنهم سيتجنبون تسليح الذكاء الاصطناعي /