أخلاقيات الذكاء الاصطناعي تتصارع مع حتمية حوادث الذكاء الاصطناعي ، التي تلوح في الأفق أيضًا على السيارات ذاتية القيادة

هل تعرف شخصًا يبدو أنه معرض بشكل خاص للحوادث؟

يبدو أننا جميعا نفعل.

ربما يكون الشخص من هذا النوع الذي يمكن أن ينزلق على قشر الموز أو يطرق مزهرية ثمينة في غرفة المعيشة الخاصة بك. هم مغناطيس بشري للحوادث من نوع أو آخر. قد يكون الأمر سيئًا لدرجة أنك تكره أن تكون بالقرب منهم في بعض الأحيان. قد تصاب بالفيضان المشؤوم أو تعاني من عواقب وخيمة لإحدى حوادثهم البغيضة.

لكن ربما نكون أكثر قسوة عندما نقترح أن أي شخص أكثر عرضة للحوادث من غيره. يمكن تقديم حجة مفادها أن الحوادث يمكن أن تحدث لأي منا. نحن جميعًا عرضة لإمكانية ارتكاب حادث أو التورط فيه. شمل أفضل منا.

دعنا نضع في مقدمة هذه المناقشة سؤالاً محيرًا إضافيًا.

هل الحوادث لا مفر منها؟

بعبارة أخرى ، بغض النظر عن مدى صعوبة محاولتنا لمنع وقوع الحوادث ، فقد يكون من المؤكد أنه لا تزال هناك فرصة ويقين مطلق بحدوث الحوادث. يمكنك السعي لحماية العالم من الحوادث. يبدو أن هذا حكيم بشكل لا لبس فيه. لكن بطريقة أو بأخرى ، ستظل الحوادث ترفرف برأسها القبيح.

كما يقولون ، الحوادث تنتظر الحدوث.

قد يكون من المفيد توضيح المقصود بالإشارة إلى حدث معين على أنه حادث. تعريف القاموس المعتاد هو أن الحادث هو نوع من الحوادث التي تحدث بشكل غير متوقع وغير مقصود ، والتي يكون لها نتيجة مؤسفة تتكون من ما يشبه الضرر أو الإصابة.

فك هذا التعريف بعناية.

الحادثة المذكورة غير متوقعة. هذا يعني أننا لم ندرك على ما يبدو أن الحادث نفسه قد ينشأ.

الحادث المذكور غير مقصود. يشير هذا إلى أننا يجب أن نستبعد الظروف التي سعى فيها شخص ما عن قصد إلى وقوع الحادث. إذا وضع المخادع قشرة موز على الأرض حيث يعلم أن بريئًا سيئ الحظ وغير مرتاب سيتقدم ، فستتعرض لضغوط شديدة لتؤكد أن الشخص الذي يتعثر بها قد تعرض لحادث. وبدلاً من ذلك ، تم خداعهم وقيادتهم بخبث إلى فخ.

يتضمن التعريف أيضًا معيارًا أن النتيجة مؤسفة. يجب أن يؤدي وقوع حادث في ضوء ذلك إلى نتيجة مؤلمة. قام الشخص الذي طرق إناءً بطريق الخطأ بتكسير العنصر الممتع الذي لا يمكن إصلاحه وربما تسبب في إتلافه. يتضرر صاحب المزهرية من فقدان القيمة. قد يكون الشخص الذي اصطدم بالمزهرية مدينًا للمالك مقابل الخسارة. لا سمح الله أن يجرح أي شخص أو يُتلف بسبب كسر الإناء.

من أجل تحقيق التوازن المتساوي ، قد نرغب في ملاحظة أن هناك أيضًا ما يسمى بالحوادث "الجيدة". يمكن لأي شخص أن يجد نفسه في ثروة كبيرة أو أن يجني بعض الفوائد الحيوية الأخرى نتيجة لحادث. من أكثر الأمثلة التي يُستشهد بها السير ألكسندر فليمنغ واكتشافه المشهود للبنسلين. تقول القصة أنه كان مهملاً بعض الشيء في مختبره وعند عودته من إجازة لمدة أسبوعين وجد قالبًا على أحد لوحات الثقافة الخاصة به. وبحسب ما ورد ، قال هذا عن الموضوع: "يجد المرء أحيانًا ما لا يبحث عنه. عندما استيقظت بعد الفجر في 28 سبتمبر 1928 ، لم أكن أخطط بالتأكيد لإحداث ثورة في كل الطب باكتشاف أول مضاد حيوي أو قاتل للبكتيريا في العالم. لكني أعتقد أن هذا هو بالضبط ما فعلته ".

سنضع جانبًا الحوادث المواتية ونركز هنا على الحوادث الكئيبة. إن إصدار مواجهة العبوس للحوادث هو المكان الذي يمكن أن تكون فيه تلك النتائج السلبية مهددة للحياة بشكل خاص أو تكون لها نتائج مرهقة. قدر الإمكان ، حوادث الجانب السلبي التي نريد تقليلها (وبالطبع ، حوادث الاتجاه الصعودي التي نرغب في تعظيمها ، إذا كان ذلك ممكنًا ، على الرغم من أنني سأغطي متغير الوجه المبتسم في عمود لاحق).

أود أن أعيد صياغة السؤال السابق قليلاً حول حتمية الحوادث. حتى الآن ، حافظنا على اهتمامنا بالحوادث التي تحدث في حالة معينة لشخص فردي. ليس هناك شك في أن الحوادث يمكن أن تؤثر أيضًا على العديد من الأشخاص في وقت واحد. يمكن مواجهة هذا بشكل خاص عندما يكون الناس منغمسين في نظام معقد من نوع أو آخر.

استعد لمجموعة متنوعة من الأسئلة المطروحة مسبقًا.

هل حوادث النظام حتمية؟

يجب أن نفكر في هذا أكثر.

لنفترض أن أرضية المصنع قد وُضعت لتصنيع قطع غيار للسيارات. لنفترض أن أولئك الذين صمموا المصنع قلقون للغاية بشأن حوادث العمال التي قد تحدث. عمال المصنع مطالبون بارتداء الخوذات في جميع الأوقات. تحث اللافتات في المصنع على الانتباه للحوادث وأن تكون حريصًا في عملك. يتم اتخاذ جميع أنواع الاحتياطات لتجنب وقوع الحوادث.

في هذا النظام ، قد نأمل ألا يتعرض أي شخص لحادث. هل تعتقد أنه لا توجد فرصة لوقوع حادث؟ أود أن أجرؤ على اقتراح أنه لا يوجد مفكر عاقل يراهن على أن فرصة وقوع حادث هي صفر في هذه الحالة. قد تكون احتمالات وقوع حادث منخفضة حقًا ، لكننا ما زلنا نعرف ونفترض أنه على الرغم من جميع الاحتياطات ، لا يزال هناك قدر ضئيل من خطر وقوع حادث.

كل هذا يشير إلى فكرة أنه في نظام معقد بدرجة كافية ، نحن ملزمون بالاعتقاد بأن الحوادث ستستمر ، بغض النظر عن مدى صعوبة محاولتنا لمنعها. نحن ندعم أنفسنا على مضض في الشرط القائل بأن حوادث النظام أمر لا مفر منه بالفعل. قد يكون لبيان فخم من هذا العيار تحذير من أن النظام يجب أن يكون من عتبة معينة من التعقيد بحيث يكون من المستحيل بشكل أساسي تغطية جميع القواعد لمنع الحوادث تمامًا.

لقد تم الآن تقديمك خطوة بخطوة بدقة إلى نظرية محددة على نطاق واسع حول الحوادث التي يمكن تصنيفها على أنها حوادث عادية أو نظرية الحوادث العادية (NAT). فيما يلي وصف مفيد للباحثين الذين درسوا هذه الفكرة: "على نطاق واسع بما فيه الكفاية ، ينتج عن أي نظام" حوادث عادية ". هذه حوادث لا يمكن تجنبها ناتجة عن مزيج من التعقيد والاقتران بين المكونات والضرر المحتمل. يختلف الحادث العادي عن حوادث فشل المكونات الأكثر شيوعًا من حيث أن الأحداث والتفاعلات التي تؤدي إلى وقوع حادث عادي ليست مفهومة لمشغلي النظام "(كما هو مذكور في" فهم أعطال الذكاء الاصطناعي وتجنبها: دليل عملي "بقلم روبرت ويليامز و رومان يامبولسكي ، الفلسفات مجلة).

السبب الذي جعلني أتيت بك إلى أرض ما يسمى حوادث عادية هو أننا قد نحتاج إلى تطبيق هذه النظرية بعناية على شيء يصبح بشكل تدريجي وحتمي موجودًا في كل مكان في مجتمعنا ، أي ظهور الذكاء الاصطناعي (AI).

دعنا نتعمق في هذا.

يفترض بعض الناس خطأً أن الذكاء الاصطناعي سيكون مثاليًا. تقول التكهنات إن أنظمة الذكاء الاصطناعي لن ترتكب أخطاء ولن تسبب لنا المشاكل. كل ما عليك فعله هو التأكد من أن مطوري الذكاء الاصطناعي هؤلاء يقومون بعمل جيد بما فيه الكفاية ، وفويلا ، لن يقوم الذكاء الاصطناعي أبدًا بأي شيء يمكن أن يفسر على أنه عرضي أو يتسبب في وقوع حادث.

ليس بهذه السرعة على هذا الاعتقاد الافتراضي. إذا كنت على استعداد للشراء في نظرية حوادث عادية، فإن أي ذكاء اصطناعي بأي تعقيد جوهري سيؤدي حتماً إلى وقوع حادث. بغض النظر عن مقدار العبث في وقت متأخر من الليل الذي يقوم به مطورو الذكاء الاصطناعي لمنع وقوع حادث ، فمن المؤكد أن الذكاء الاصطناعي في وقت ما سيتورط في حادث. هذه هي الطريقة التي ينهار بها ملف تعريف الارتباط. وليس هناك راحة من البكاء في حليبنا المسكوب حيال ذلك.

تأمل في مزيج الذكاء الاصطناعي والمبادئ المفاهيمية لـ حوادث عادية.

تصور أن لدينا نظام ذكاء اصطناعي يتحكم في الأسلحة النووية. تم تصميم الذكاء الاصطناعي بعناية. تم ترميز كل فحص وتوازن يمكن تصوره في نظام الذكاء الاصطناعي. هل نحن في مأمن من حادث بسبب الذكاء الاصطناعي قد يحدث؟ أولئك الذين يدعمون وجهة نظر الحوادث العادية سيقولون إننا لسنا آمنين تمامًا كما قد يُفترض. نظرًا لأن الذكاء الاصطناعي من المحتمل أن يكون معقدًا بشكل خاص ، فإن حادثًا عاديًا ينتظر بصمت هناك ليظهر يومًا ما ، ربما في أسوأ لحظة ممكنة.

جوهر هذه الأسئلة الشائكة والقلق هو أننا يجب أن نكون على أهبة الاستعداد لأن الذكاء الاصطناعي لا بد أن يكون مثقلًا بالمصادفة ، ويجب على البشرية أن تفعل شيئًا معقولًا واستباقيًا بشأن المخاطر التي يمكن أن تترتب على ذلك. كما سترى بعد لحظة أو اثنتين ، فإن هذا اعتبار يلوح في الأفق عندما يتعلق الأمر باستخدام الذكاء الاصطناعي ، ومجال أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي يتصارع قليلاً حول ما يجب القيام به. لتغطيتي المستمرة والشاملة لأخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي ، انظر الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

قبل أن نذهب في حفرة أرنب ، لنتأكد من أننا على نفس الصفحة حول طبيعة الذكاء الاصطناعي. لا يوجد أي ذكاء اصطناعي واعي اليوم. ليس لدينا هذا. لا نعرف ما إذا كان الذكاء الاصطناعي الواعي سيكون ممكنًا. لا أحد يستطيع أن يتنبأ بجدارة بما إذا كنا سنحقق ذكاءً اصطناعيًا واعيًا ، ولا ما إذا كان الذكاء الاصطناعي الواعي سينشأ بطريقة ما بأعجوبة تلقائيًا في شكل مستعر أعظم معرفي حسابي (يشار إليه عادةً باسم التفرد ، انظر تغطيتي في الرابط هنا).

نوع الذكاء الاصطناعي الذي أركز عليه يتكون من الذكاء الاصطناعي غير الواعي الذي لدينا اليوم. إذا أردنا التكهن بشدة حساس الذكاء الاصطناعي ، يمكن أن تسير هذه المناقشة في اتجاه مختلف جذريًا. من المفترض أن يكون الذكاء الاصطناعي الواعي ذا جودة بشرية. قد تحتاج إلى اعتبار أن الذكاء الاصطناعي الواعي هو المكافئ المعرفي للإنسان الذي يقدم لك النصيحة. أكثر من ذلك ، نظرًا لأن البعض يتوقع أن يكون لدينا ذكاء اصطناعي فائق الذكاء ، فمن المتصور أن مثل هذا الذكاء الاصطناعي يمكن أن يصبح أكثر ذكاءً من البشر (لاستكشافي للذكاء الاصطناعي الفائق كإمكانية ، انظر التغطية هنا). أخبر الجميع أن هذه السيناريوهات ستزيد من تقييم المصدر.

دعونا نحافظ على الأمور أكثر واقعية ونفكر في الذكاء الاصطناعي غير الحسابي اليوم.

ندرك أن الذكاء الاصطناعي اليوم غير قادر على "التفكير" بأي شكل من الأشكال على قدم المساواة مع التفكير البشري. عندما تتفاعل مع Alexa أو Siri ، قد تبدو قدرات المحادثة شبيهة بالقدرات البشرية ، لكن الحقيقة هي أنها حسابية وتفتقر إلى الإدراك البشري. استفاد العصر الأخير من الذكاء الاصطناعي بشكل مكثف من التعلم الآلي (ML) والتعلم العميق (DL) ، مما يعزز مطابقة الأنماط الحسابية. وقد أدى ذلك إلى ظهور أنظمة ذكاء اصطناعي تبدو وكأنها ميول شبيهة بالإنسان. وفي الوقت نفسه ، لا يوجد أي ذكاء اصطناعي اليوم يشبه الفطرة السليمة وليس لديه أي من التعجب المعرفي للتفكير البشري القوي.

قد تدرك أنه عندما بدأ العصر الأخير للذكاء الاصطناعي ، كان هناك اندفاع هائل من الحماس لما يسميه البعض الآن منظمة العفو الدولية من أجل الخير. لسوء الحظ ، في أعقاب تلك الإثارة المتدفقة ، بدأنا نشهد منظمة العفو الدولية للسوء. على سبيل المثال ، تم الكشف عن العديد من أنظمة التعرف على الوجه القائمة على الذكاء الاصطناعي على أنها تحتوي على تحيزات عنصرية وتحيزات بين الجنسين ، والتي ناقشتها في الرابط هنا.

جهود للقتال ضد منظمة العفو الدولية للسوء بنشاط جارية. إلى جانب صاخبة السياسات مساعي كبح جماح المخالفات ، هناك أيضًا دافع جوهري نحو تبني أخلاقيات الذكاء الاصطناعي لتصحيح ضعف الذكاء الاصطناعي. الفكرة هي أننا يجب أن نتبنى ونصادق على المبادئ الأخلاقية الرئيسية للذكاء الاصطناعي لتطوير الذكاء الاصطناعي وإدخاله في الميدان لتقويض منظمة العفو الدولية للسوء والتبشير والترويج في الوقت نفسه لما هو مفضل منظمة العفو الدولية من أجل الخير.

فيما يتعلق بمفهوم ذي صلة ، أنا من المدافعين عن محاولة استخدام الذكاء الاصطناعي كجزء من حل مشاكل الذكاء الاصطناعي ، ومكافحة النيران بالنار بهذه الطريقة من التفكير. قد نقوم على سبيل المثال بتضمين المكونات الأخلاقية للذكاء الاصطناعي في نظام ذكاء اصطناعي يراقب كيفية قيام بقية الذكاء الاصطناعي بالأشياء ، وبالتالي من المحتمل أن نكتشف في الوقت الفعلي أي جهود تمييزية ، انظر نقاشي في الرابط هنا. يمكن أن يكون لدينا أيضًا نظام ذكاء اصطناعي منفصل يعمل كنوع من أجهزة مراقبة أخلاقيات الذكاء الاصطناعي. يعمل نظام الذكاء الاصطناعي كمشرف لتتبع واكتشاف متى يدخل ذكاء اصطناعي آخر في الهاوية غير الأخلاقية (انظر تحليلي لهذه القدرات في الرابط هنا).

أخيرًا ، هناك أمل عام هو أنه من خلال إنشاء حس بمبادئ أخلاقيات الذكاء الاصطناعي ، سنكون على الأقل قادرين على زيادة الوعي المجتمعي بما يمكن أن يفعله الذكاء الاصطناعي بشكل مفيد ويمكن أن ينتج بشكل سلبي أيضًا. لقد ناقشت على نطاق واسع العديد من التحليلات الجماعية للمبادئ الأخلاقية للذكاء الاصطناعي ، بما في ذلك تغطية مجموعة ابتكرها باحثون قاموا بفحص وتكثيف جوهر العديد من مبادئ أخلاقيات الذكاء الاصطناعي الوطنية والدولية في ورقة بعنوان "المشهد العالمي لإرشادات أخلاقيات الذكاء الاصطناعي" (تم نشره) في الطبيعة) ، وأن تغطيتي تستكشف في الرابط هنا، مما أدى إلى هذه القائمة الأساسية:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

كما قد تخمن بشكل مباشر ، فإن محاولة تحديد التفاصيل التي تقوم عليها هذه المبادئ قد يكون صعبًا للغاية. والأكثر من ذلك ، فإن الجهد المبذول لتحويل هذه المبادئ العريضة إلى شيء ملموس ومفصل تمامًا بما يكفي لاستخدامه عند صياغة أنظمة الذكاء الاصطناعي يعد أيضًا من الصعب كسرها. من السهل بشكل عام القيام ببعض التلويح اليدوي حول ماهية مبادئ أخلاقيات الذكاء الاصطناعي وكيف ينبغي مراعاتها بشكل عام ، في حين أنه وضع أكثر تعقيدًا في ترميز الذكاء الاصطناعي يجب أن يكون المطاط الحقيقي الذي يلبي الطريق.

يجب استخدام مبادئ أخلاقيات الذكاء الاصطناعي من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف. يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. كما ذكرنا سابقًا ، فإن الأمر يتطلب قرية لابتكار واستخدام الذكاء الاصطناعي ، ومن أجل ذلك يجب أن تكون القرية بأكملها على دراية بمبادئ أخلاقيات الذكاء الاصطناعي والالتزام بها.

قد نحتاج إلى إضافة قوائم أخلاقيات الذكاء الاصطناعي التي يتم التبجح بها والتي نحتاج إلى النظر فيها صراحة واتخاذ إجراءات علنية لمنع أو على الأقل التخفيف بشدة من الذكاء الاصطناعي. حوادث عادية قد يحدث. أولئك الذين يطورون الذكاء الاصطناعي يحتاجون إلى بذل قصارى جهدهم في هذا المجال. أولئك الذين ينشرون الذكاء الاصطناعي عليهم أن يفعلوا الشيء نفسه. يجب على أولئك الذين يستخدمون الذكاء الاصطناعي أو يخضعون له بطريقة ما أن يكونوا حذرين وعلى أهبة الاستعداد لاحتمال وقوع حوادث الذكاء الاصطناعي التي يبدو أنها ستنشأ.

قد تميل إلى التفكير في إمكانية تضمين ما يكفي من الاحتياطات في الذكاء الاصطناعي بحيث تنخفض فرص وقوع حادث إلى الصفر. بالنسبة لأولئك التقنيين ، فإن الغطرسة المعتادة هي أنه إذا كان بإمكان قطعة من التكنولوجيا أن تولد مشكلة ، فإن قطعة تقنية أخرى يمكنها بالتأكيد حل المشكلة. فقط استمر في إلقاء المزيد والمزيد من التكنولوجيا حتى تختفي المشكلة.

حسنًا ، أولئك الذين درسوا الحوادث الموجهة للأنظمة يميلون إلى الاختلاف والرد بأدب على التبجح التقني المفترض من خلال تقديم وجهة نظر تُعرف باسم نموذج الجبن السويسري (SCM): "في SCM ، تم تصميم طبقات الأمان على شكل شرائح من جبنة بها ثقوب تمثل نقاط ضعف في كل طبقة من طبقات الأمان. بمرور الوقت ، تغير الثقوب شكلها وتتحرك. في النهاية ، بغض النظر عن عدد شرائح الجبن (طبقات الأمان) الموجودة ، فإن الثقوب ستتم محاذاة للسماح بالتقاط صورة مباشرة من خلال جميع شرائح الجبن (يحدث حادث) "(وفقًا للورقة التي تم الاستشهاد بها سابقًا من قبل روبرت ويليامز ورومان يامبولسكي ).

لا أريد الانغماس في هذا الجانب المظلل حول ما إذا كانت هناك طريقة مضمونة لبرمجة الذكاء الاصطناعي أم لا لتجنب أي فرصة لوقوع حادث. هناك جميع طرق الإثبات الرياضية والحسابية التي يتم تجربتها. أعتقد أنه من المعقول والمنصف أن نعلن أنه ليس لدينا اليوم طريقة عمل قابلة للتطوير ولا تقنيات يمكن أن تضمن مثل هذه الفرصة الصفرية ، بالإضافة إلى أننا بالتأكيد مثقلون بأطنان من الذكاء الاصطناعي الذي يتم إنتاجه تعرف على وجه اليقين لم تسعى إلى الالتزام بمثل هذه الممارسات. هذه النقطة الأخيرة مهمة لأنه حتى لو تمكنا من اختراع شيء ما في مختبر الذكاء الاصطناعي ، فإن توسيع نطاق ذلك إلى زليونات جهود الذكاء الاصطناعي الجامحة والخالية من الهموم الجارية والتي ستستمر في الظهور هي مشكلة معقدة وليس من المحتمل حلها حتى لو كانت آلة إثبات حسابية فضية رصاصة موجودة.

هناك نقطة أخرى أعتقد أنها تستحق الذكر بإيجاز تتمثل في الذكاء الاصطناعي الذي تم تحويله إلى القيام بأعمال غير مرغوب فيها نتيجة لجهات بشرية خبيثة. لن أضع هذه الحالات في عالم حوادث الذكاء الاصطناعي. تذكر أن المناقشة الافتتاحية اقترحت أن تعريف القاموس للحادث كان حادثة غير مقصود طبيعة سجية. إذا تمكن مخترق إلكتروني بشري من جعل نظام ذكاء اصطناعي يقوم بأشياء سيئة ، فأنا لا أصنف ذلك الذكاء الاصطناعي على أنه يتعرض لحادث. أنا على ثقة من أنك سوف تتماشى مع هذا الافتراض.

يُطرح سؤال مثير للاهتمام حول مقدار الإجراءات غير المرغوبة للذكاء الاصطناعي التي يمكن أن تُعزى إلى حادث ذكاء اصطناعي بحت مقابل فعل مخادع لمجرم إلكتروني. وفقًا لبعض قواعد بيانات الإبلاغ عن حوادث الذكاء الاصطناعي الحالية ، يبدو أن حوادث الذكاء الاصطناعي تحدث أكثر من الحوادث التي يتم تحفيزها بشكل ضار ، على الرغم من أنه يتعين عليك تناول هذه الفكرة بجرعة كبيرة من الملح. أقول هذا لأن هناك إغراءًا كبيرًا بعدم الإبلاغ عن وقت تعرض نظام الذكاء الاصطناعي للهجوم ، وربما تكون أكثر استعدادًا للإبلاغ عند وقوع حادث للذكاء الاصطناعي.

هناك تحذير مهم للغاية نحتاج إلى مناقشته فيما يتعلق بحوادث الذكاء الاصطناعي.

إن استخدام العبارة الشائعة "حوادث الذكاء الاصطناعي" أمر غير مرغوب فيه عمومًا وسيخلق فوضى كبيرة لنا جميعًا ، مما يعني بالنسبة للمجتمع بأسره. عندما يصادف شخص ما حادثًا ، غالبًا ما نتجاهل أكتافنا ونتعاطف مع الشخص الذي تعرض للحادث. يبدو أننا نتعامل مع كلمة "حادث" وكأنها تعني أن لا أحد مسؤول عما حدث.

لنأخذ مثال الوقوع في حادث سيارة. تتأرجح إحدى السيارات بشكل عريض عند المنعطف الأيمن وتصدم بطريق الخطأ سيارة أخرى كانت تسير إلى الأمام مباشرة. صدم ، لقد كان مجرد حادث وحدث بالصدفة. أولئك الذين لم يشاركوا في الحادث ربما سيسمحون للأمر بالانزلاق إذا تمت صياغة الحدث من حيث كونه مجرد حادث وقع.

على الرغم من ذلك ، لدي شعور بأنه إذا كنت في السيارة التي تعرضت للاصطدام ، فلن تكون متعاطفًا جدًا مع السائق الذي قام بالدوران العريض للغاية. سيكون رأيك بالتأكيد أن السائق الآخر كان سائقًا رديئًا وأن تصرفًا غير قانوني ظاهريًا أو غير حكيم أدى إلى حادث السيارة. من خلال وصف الحادث بأنه "حادث" ، فإن السائق الذي علق هو الآن في وضع غير مؤات إلى حد ما لأن المظهر هو أن كل شيء حدث عن طريق الصدفة وحدها ، وليس عن طريق يدي السائق الذي أفسد.

في الواقع ، فإن كلمة "حادث" مليئة بدلالات مختلفة لدرجة أن الإحصائيات الحكومية حول حوادث السيارات تشير بشكل عام إلى حوادث السيارات أو حوادث السيارات ، بدلاً من استخدام عبارة حوادث السيارات. لا يبدو أن تصادم السيارة أو حادث السيارة لهما أي آثار على كيفية وقوع الحادث. وفي الوقت نفسه ، فإن عبارة "حادث سيارة" كادت أن تدفعنا إلى الاعتقاد بأنها كانت مجرد غرابة في القدر أو بطريقة ما خارجة عن أيدي البشرية.

يمكنك أن ترى باستفاضة كيف أن هذا الاعتبار الدلالي يلعب دورًا عند الإشارة إلى حوادث الذكاء الاصطناعي. لا نريد أن يختبئ مطورو الذكاء الاصطناعي وراء الدرع الدلالي الذي تسبب فيه الذكاء الاصطناعي في إصابة شخص ما عن طريق الخطأ. الشيء نفسه ينطبق على أولئك الذين ينشرون الذكاء الاصطناعي. يمكنك أن تجادل بأن صياغة "حوادث الذكاء الاصطناعي" تكاد تكون تجسيدًا للذكاء الاصطناعي من شأنه أن يضلل المجتمع للسماح للبشر الذين كانوا وراء الكواليس بالذكاء الاصطناعي بالهروب من المساءلة. لمناقشتي حول الأهمية المتزايدة لتحميل البشر المسؤولية عن الذكاء الاصطناعي الخاص بهم ، انظر مناقشتي في هذا الرابط هنا و هذا الرابط هنا.

سأقوم من الآن فصاعدًا هنا باستخدام العبارة المشهورة لحوادث الذكاء الاصطناعي ، لكنني أفعل ذلك على مضض ولأن هذه هي الطريقة التقليدية للإشارة إلى هذه الظاهرة. تميل محاولات صياغة هذا بشكل مختلف إلى أن تكون للأسف أكثر انتفاخًا وليست سهلة القراءة. يرجى التأكد من تفسير العبارة المشهورة بطريقة لا تجعلك تنظر إلى الاتجاه الآخر وتفشل في إدراك أن البشر الكامنين وراء الذكاء الاصطناعي مذنبون عندما ينحرف الذكاء الاصطناعي.

للمساعدة في توضيح جوانب الالتباس أو التضليل المحتملة للإشارة إلى الذكاء الاصطناعي على أنه حوادث متكبدة ، يمكننا العودة إلى ملاحظاتي حول طرق المزهرية. ضع في اعتبارك هذا المثال عن قيام الذكاء الاصطناعي بذلك: "هذه المشكلة لها علاقة بأشياء يتم القيام بها عن طريق الصدفة أو اللامبالاة من قبل الذكاء الاصطناعي. أحد الأمثلة على ذلك هو روبوت التنظيف الذي يطرق مزهرية. تحتوي البيئات المعقدة على أنواع كثيرة من "المزهريات" التي من غير المرجح أن نتمكن من البرمجة بركلة جزاء لجميع الآثار الجانبية "(وفقًا للورقة التي أعدها روبرت ويليامز ورومان يامبولسكي).

يبدو أن نظام الذكاء الاصطناعي الذي يتم استخدامه في المنزل ثم يقرع إناء "عن طريق الخطأ" يشير إلى أنه لا ينبغي لوم أحد على هذا الإجراء المعاكس للذكاء الاصطناعي. لقد كان مجرد حادث ، قد يشجبه المرء بأسف. من ناحية أخرى ، يجب أن نسأل بحق عن سبب عدم برمجة نظام الذكاء الاصطناعي للتعامل مع ظروف المزهرية بشكل عام. حتى لو لم يتوقع مطورو الذكاء الاصطناعي أن تكون المزهرية في حد ذاتها ضمن نطاق الأشياء التي يمكن مواجهتها ، يمكننا بالتأكيد أن نتساءل عن سبب عدم وجود بعض تجنب الأشياء الشامل الذي كان من شأنه أن يمنع نظام الذكاء الاصطناعي من التغلب على إناء (وبالتالي ، قد لا يصنف الذكاء الاصطناعي المزهرية على أنها مزهرية ، ولكن لا يزال بإمكانها تجنبها ككائن يمكن اكتشافه يجب تجنبه).

لقد توقعت وما زلت أتوقع أننا نتجه تدريجياً نحو معركة قانونية ضخمة حول ظهور أنظمة الذكاء الاصطناعي التي تدخل نفسها في "حوادث الذكاء الاصطناعي" وتسبب بعض أشكال الضرر. حتى الآن ، لم يتفاعل المجتمع بأي طريقة كبيرة للرد بشكل قانوني على الذكاء الاصطناعي الذي يتم دفعه إلى السوق وينتج عنه عواقب سلبية ، إما عن قصد أو عن غير قصد. أصبحت عربة الذكاء الاصطناعي اليوم ، التي أصبحت بمثابة سحق ذهب لصانعي الذكاء الاصطناعي نصف المخبوز وأولئك الذين يسنون نشر الذكاء الاصطناعي على عجل ، محظوظين الآن ولا يزالون بمنأى نسبيًا عن الدعاوى القضائية المدنية والمحاكمات الجنائية.

ردة الفعل القانونية التي أذكتها منظمة العفو الدولية ستأتي عاجلاً أم آجلاً.

بالمضي قدمًا ، كيف نحاول التعامل مع حتمية ما يسمى بحوادث الذكاء الاصطناعي؟

شيء واحد يمكننا القيام به على الفور هو محاولة توقع كيفية حدوث حوادث الذكاء الاصطناعي. من خلال توقع حوادث الذكاء الاصطناعي ، يمكننا على الأقل السعي لابتكار وسائل للحد منها أو تقليل احتمالية حدوثها. علاوة على ذلك ، يمكننا محاولة وضع حواجز حماية بحيث عند وقوع حادث ذكاء اصطناعي ، تقل فرص حدوث ضرر توضيحي.

مجموعة مفيدة من العوامل التي تم وصفها في مقالة البحث المذكورة سابقًا فهم وتجنب فشل الذكاء الاصطناعي: دليل عملي يتضمن هذه الخصائص (كما هو مقتبس من ورقة البحث):

  • النظام الذي يتأثر بمخرجات الذكاء الاصطناعي.
  • التأخير الزمني بين مخرجات الذكاء الاصطناعي والنظام الأكبر ، وإمكانية مراقبة النظام ، ومستوى الاهتمام البشري ، وقدرة المشغلين على تصحيح خلل في الذكاء الاصطناعي.
  • أقصى ضرر ممكن من خلال الاستخدام الضار للأنظمة التي يتحكم فيها الذكاء الاصطناعي.
  • اقتران المكونات بالقرب من الذكاء الاصطناعي وتعقيد التفاعلات.
  • فجوة المعرفة بالذكاء الاصطناعي والتقنيات الأخرى المستخدمة ومستوى طاقة النظام.

في هذه المرحلة من هذه المناقشة الضخمة ، أراهن أنك ترغب في بعض الأمثلة التوضيحية التي قد توضح موضوع حوادث الذكاء الاصطناعي. هناك مجموعة خاصة وشعبية بالتأكيد من الأمثلة القريبة من قلبي. كما ترى ، بصفتي خبيرًا في الذكاء الاصطناعي بما في ذلك التداعيات الأخلاقية والقانونية ، يُطلب مني كثيرًا تحديد أمثلة واقعية تعرض معضلات أخلاقيات الذكاء الاصطناعي بحيث يمكن فهم الطبيعة النظرية إلى حد ما للموضوع بسهولة أكبر. واحدة من أكثر المجالات إثارة للذكريات التي تقدم بوضوح هذا المأزق الأخلاقي للذكاء الاصطناعي هو ظهور سيارات ذاتية القيادة حقيقية قائمة على الذكاء الاصطناعي. سيكون هذا بمثابة حالة استخدام مفيدة أو نموذجًا لمناقشة مستفيضة حول هذا الموضوع.

إليك إذن سؤال جدير بالملاحظة يستحق التفكير فيه: هل ظهور السيارات الحقيقية ذاتية القيادة القائمة على الذكاء الاصطناعي يسلط الضوء على أي شيء يتعلق بظهور ما يسمى بحوادث الذكاء الاصطناعي ، وإذا كان الأمر كذلك ، فما الذي يعرضه هذا؟

اسمح لي بلحظة لفك السؤال.

أولاً ، لاحظ أنه لا يوجد سائق بشري متورط في سيارة حقيقية ذاتية القيادة. ضع في اعتبارك أن السيارات الحقيقية ذاتية القيادة يتم قيادتها عبر نظام قيادة بالذكاء الاصطناعي. ليست هناك حاجة لسائق بشري على عجلة القيادة ، ولا يوجد شرط لقيادة الإنسان للسيارة. لتغطيتي الواسعة والمستمرة للمركبات ذاتية القيادة (AVs) وخاصة السيارات ذاتية القيادة ، انظر الرابط هنا.

أود أن أوضح ما هو المقصود عندما أشير إلى السيارات الحقيقية ذاتية القيادة.

فهم مستويات السيارات ذاتية القيادة

للتوضيح ، السيارات الحقيقية ذاتية القيادة هي تلك التي يقود فيها الذكاء الاصطناعي السيارة بالكامل من تلقاء نفسه ولا توجد أي مساعدة بشرية أثناء مهمة القيادة.

تعتبر هذه المركبات ذاتية القيادة من المستوى 4 والمستوى 5 (انظر الشرح في هذا الرابط هنا) ، في حين أن السيارة التي تتطلب سائقًا بشريًا للمشاركة في جهد القيادة يتم اعتبارها عادةً في المستوى 2 أو المستوى 3. يتم وصف السيارات التي تشارك في مهمة القيادة بأنها شبه مستقلة ، وتحتوي عادةً على مجموعة متنوعة من الوظائف الإضافية المؤتمتة التي يشار إليها باسم ADAS (أنظمة مساعدة السائق المتقدمة).

لا توجد حتى الآن سيارة ذاتية القيادة حقيقية في المستوى الخامس ، ولا نعرف حتى الآن ما إذا كان من الممكن تحقيق ذلك ، ولا كم من الوقت سيستغرق الوصول إليه.

وفي الوقت نفسه ، تحاول جهود المستوى 4 تدريجياً الحصول على بعض الجاذبية من خلال الخضوع لتجارب طرق عامة ضيقة للغاية وانتقائية ، على الرغم من وجود جدل حول ما إذا كان يجب السماح بهذا الاختبار في حد ذاته (نحن جميعًا حيوانات تجارب حياة أو موت في التجربة التي تجري على طرقنا السريعة والطرق الفرعية ، يدعي البعض ، انظر تغطيتي في هذا الرابط هنا).

نظرًا لأن السيارات شبه المستقلة تتطلب سائقًا بشريًا ، فإن اعتماد هذه الأنواع من السيارات لن يكون مختلفًا بشكل ملحوظ عن قيادة المركبات التقليدية ، لذلك لا يوجد الكثير في حد ذاته لتغطية هذه المواضيع (على الرغم من ذلك ، كما سترى في لحظة ، النقاط التالية تنطبق بشكل عام).

بالنسبة للسيارات شبه المستقلة ، من المهم أن يتم تحذير الجمهور بشأن جانب مزعج ظهر مؤخرًا ، أي أنه على الرغم من هؤلاء السائقين البشر الذين يستمرون في نشر مقاطع فيديو لأنفسهم ينامون على عجلة سيارة من المستوى 2 أو المستوى 3 علينا جميعًا أن نتجنب التضليل حتى نصدق أن السائق يمكنه أن يلفت انتباهه عن مهمة القيادة أثناء قيادة سيارة شبه مستقلة.

أنت الطرف المسؤول عن إجراءات القيادة في السيارة ، بغض النظر عن مقدار الأتمتة التي قد يتم قذفها في المستوى 2 أو المستوى 3.

السيارات ذاتية القيادة وحوادث الذكاء الاصطناعي

بالنسبة للمركبات ذاتية القيادة الحقيقية من المستوى 4 والمستوى 5 ، لن يكون هناك سائق بشري يشارك في مهمة القيادة.

سيكون جميع الركاب من الركاب.

تقوم منظمة العفو الدولية بالقيادة.

أحد الجوانب التي يجب مناقشتها على الفور يستلزم حقيقة أن الذكاء الاصطناعي المتضمن في أنظمة قيادة الذكاء الاصطناعي اليوم ليس واعيًا. بعبارة أخرى ، الذكاء الاصطناعي عبارة عن مجموعة من البرمجة والخوارزميات المستندة إلى الكمبيوتر ، وهو بالتأكيد غير قادر على التفكير بنفس الطريقة التي يستطيع بها البشر.

لماذا هذا التركيز الإضافي على الذكاء الاصطناعي ليس واعيا؟

لأنني أريد أن أؤكد أنه عند مناقشة دور نظام القيادة للذكاء الاصطناعي ، فأنا لا أنسب الصفات البشرية للذكاء الاصطناعي. يرجى العلم أن هناك اتجاهًا مستمرًا وخطيرًا هذه الأيام لتجسيد الذكاء الاصطناعي. من حيث الجوهر ، يخصص الناس ذكاءً شبيهاً بالإنسان إلى الذكاء الاصطناعي اليوم ، على الرغم من الحقيقة التي لا يمكن إنكارها والتي لا جدال فيها وهي عدم وجود مثل هذا الذكاء الاصطناعي حتى الآن.

مع هذا التوضيح ، يمكنك أن تتخيل أن نظام القيادة بالذكاء الاصطناعي لن "يعرف" بطريقة أو بأخرى جوانب القيادة. القيادة وكل ما تتطلبه يجب برمجتها كجزء من أجهزة وبرامج السيارة ذاتية القيادة.

دعونا نتعمق في عدد لا يحصى من الجوانب التي تأتي للعب في هذا الموضوع.

أولاً ، من المهم أن ندرك أنه ليست كل سيارات الذكاء الاصطناعي ذاتية القيادة هي نفسها. تتبنى كل شركة تصنيع سيارات وشركة تقنية ذاتية القيادة نهجها في ابتكار سيارات ذاتية القيادة. على هذا النحو ، من الصعب الإدلاء ببيانات شاملة حول ما ستفعله أو لا تفعله أنظمة القيادة بالذكاء الاصطناعي.

علاوة على ذلك ، عندما يذكر أن نظام القيادة بالذكاء الاصطناعي لا يفعل شيئًا معينًا ، يمكن ، لاحقًا ، تجاوز هذا الأمر من قبل المطورين الذين يقومون في الواقع ببرمجة الكمبيوتر للقيام بهذا الشيء بالذات. خطوة بخطوة ، يتم تحسين أنظمة القيادة بالذكاء الاصطناعي وتوسيعها تدريجياً. قد لا يوجد قيد موجود اليوم في تكرار أو إصدار مستقبلي من النظام.

أنا على ثقة من أن ذلك يوفر مجموعة كافية من المحاذير لإبراز ما أنا على وشك ربطه.

نحن مستعدون الآن للقيام بغطس عميق في السيارات ذاتية القيادة وإمكانيات الذكاء الاصطناعي الأخلاقية التي تستلزم ظهور ما يسمى بحوادث الذكاء الاصطناعي.

تخيل أن سيارة ذاتية القيادة قائمة على الذكاء الاصطناعي جارية في شوارع منطقتك ويبدو أنها تقود بأمان. في البداية ، كنت قد كرست اهتمامًا خاصًا لكل مرة تمكنت فيها من إلقاء نظرة على السيارة ذاتية القيادة. تميزت السيارة المستقلة بحاملها من المستشعرات الإلكترونية التي تضمنت كاميرات فيديو ووحدات رادار وأجهزة LIDAR وما شابه. بعد عدة أسابيع من تجول السيارة ذاتية القيادة حول مجتمعك ، بالكاد تلاحظ ذلك. بقدر ما تشعر بالقلق ، إنها مجرد سيارة أخرى على الطرق العامة المزدحمة بالفعل.

لئلا تعتقد أنه من المستحيل أو غير المعقول أن تصبح على دراية برؤية السيارات ذاتية القيادة ، فقد كتبت مرارًا وتكرارًا عن كيف أن الأماكن التي تقع في نطاق تجارب السيارات ذاتية القيادة قد اعتادت تدريجيًا على رؤية السيارات المتدرجة. تحول العديد من السكان المحليين في نهاية المطاف من التثاؤب المليء بالفم إلى إطلاق تثاؤب ممتد من الملل لمشاهدة تلك السيارات ذاتية القيادة المتعرجة.

ربما يكون السبب الرئيسي الآن وراء ملاحظة السيارات ذاتية القيادة هو عامل التهيج والسخط. تتأكد أنظمة القيادة المدعومة بالذكاء الاصطناعي من الكتاب المقدس من أن السيارات تمتثل لجميع حدود السرعة وقواعد الطريق. بالنسبة للسائقين البشر المحمومون في سياراتهم التقليدية التي يقودها الإنسان ، فإنك تنزعج في بعض الأحيان عندما تعلق خلف السيارات ذاتية القيادة القائمة على الذكاء الاصطناعي والتي تلتزم بالقانون بدقة.

هذا شيء قد نحتاج جميعًا إلى التعود عليه ، صوابًا أو خطأً.

العودة إلى حكايتنا.

ذات يوم تتعرض السيارة ذاتية القيادة لحادث.

أثناء الانعطاف إلى اليمين ، قام نظام القيادة بالذكاء الاصطناعي بتأرجح السيارة المستقلة على نطاق واسع وأصيبت سيارة يقودها الإنسان. كانت السيارة التي يقودها الإنسان تسير إلى الأمام مباشرة في الممر المناسب لحركة المرور. لم تكن هناك فرصة خاصة للسائق البشري للانحراف أو تجنب التعرض للضرب. بالإضافة إلى ذلك ، لم يكن هناك أي تحذير أو إشارة من السيارة ذاتية القيادة بأنها سوف تقوم بالانعطاف الصحيح على نطاق واسع.

هل هذا حادث؟

يمكننا بالتأكيد أن نقول إنه مضمن في عنوان كونه حادث ذكاء اصطناعي. أساس هذا التأكيد هو وجود نظام قيادة AI على عجلة السيارة ذاتية القيادة. بطريقة ما ، ولأي سبب كان ، اختار الذكاء الاصطناعي القيام بتأرجح واسع عند الانعطاف الصحيح. وأدت النتيجة إلى اصطدام السيارة ذاتية القيادة بسيارة يقودها إنسان.

تذكر المناقشة السابقة حول الدلالات المرتبطة بكلمة "حادث" وانظر كيف تظهر هذه النغمات في هذا السيناريو. تذكر أيضًا أننا ناقشنا حالة سائق بشري يقوم بمنعطف عريض يمينًا ويصطدم بسيارة أخرى يقودها الإنسان. لقد أدركنا أن فكرة أن هذا الفعل هو "حادث" مضلل ومحير. يمكن للسائق البشري الذي قام بالتأرجح العريض أن يختبئ وراء فكرة أن الحادث وقع فقط على ما يبدو بسبب الصدفة أو تقلبات القدر.

بدلاً من وصف السيناريو بأنه "حادث ذكاء اصطناعي" في حالة انتقال السيارة ذاتية القيادة القائمة على الذكاء الاصطناعي إلى نطاق واسع وضرب السيارة التي يقودها الإنسان ، ربما ينبغي أن نقول إنه كان حادث سيارة أو اصطدام سيارة ينطوي على اصطدام ذاتي. قيادة السيارة وسيارة يقودها الإنسان. يمكننا بعد ذلك الاستغناء عن الالتباس الفارغ المتمثل في كونها مصادفة لوسائل غير معروفة.

ما رأيك سيكون رد فعل الجمهور على الحادث؟

حسنًا ، إذا كان بإمكان صانع السيارات أو شركة التكنولوجيا ذاتية القيادة التمسك بتسمية الأمر باعتباره حادثًا ، فقد يكونون قادرين على الالتفاف حول رد الفعل العكسي المحتمل من المجتمع ككل. من المحتمل أن يتدفق الشعور بالتعاطف مع الحوادث التي يتم إخبارها جميعًا على الظروف الخاصة. لمزيد من المعلومات حول كيفية رد فعل المدن والمقاطعات وقادة الولايات على حوادث المركبات ذاتية التحكم بالذكاء الاصطناعي ، راجع مناقشة دراسة هارفارد التي شاركت في قيادتها وكما هو موضح في الرابط هنا.

إذا تم وصف الموقف بوضوح على أنه حادث سيارة أو تصادم سيارة ، فربما يسمح ذلك بعد ذلك بإدراك أن شخصًا ما أو شيء ما ربما يكون هو المسؤول عن الحادث. قد يكون رد الفعل السريع هو تحميل الذكاء الاصطناعي المسؤولية. الأمر هو ، حتى أو إذا قررنا تحديد الذكاء الاصطناعي على أنه يشبه الشخصية الاعتبارية ، فلن تكون قادرًا على تحميل المسؤولية على الذكاء الاصطناعي في حد ذاته (انظر مناقشتي حول الذكاء الاصطناعي والشخصية القانونية في الرابط هنا).

يمكننا فحص نظام القيادة بالذكاء الاصطناعي لمحاولة معرفة ما أدى إلى القيادة التي تبدو غير مناسبة وما تلاها من حادث سيارة. هذا لا يعني أن منظمة العفو الدولية ستتم محاسبتها. الجهات المسؤولة تشمل مطوري الذكاء الاصطناعي ، ومشغل أسطول السيارة ذاتية القيادة ، وغيرهم. أقوم بتضمين الآخرين أيضًا نظرًا لوجود احتمال أن تكون المدينة مسؤولة جزئيًا عن تصميم الركن الذي حدث فيه الدوران. بالإضافة إلى ذلك ، افترض أن أحد المشاة كان يندفع بعيدًا عن الزاوية وأن نظام القيادة بالذكاء الاصطناعي اختار تجنب الشخص ثم انغمس في حادث السيارة.

وهلم جرا.

وفي الختام

نود أن نعرف ما الذي كان الذكاء الاصطناعي يحسبه حسابيًا وما الذي تمت برمجته للقيام به. هل فعل الذكاء الاصطناعي ما تم ترميزه؟ ربما واجه الذكاء الاصطناعي خطأً أو خطأً في البرمجة ، والذي لا يبرر الإجراءات ولكنه يوفر دليلًا أكثر على كيفية حدوث الانهيار.

ما نوع حواجز الحماية التي تعمل بالذكاء الاصطناعي والتي تمت برمجتها في نظام القيادة بالذكاء الاصطناعي؟ إذا كانت هناك حواجز حماية ، فنحن نرغب في معرفة سبب عدم منعها على ما يبدو من حادث السيارة. ربما كان من الممكن أن يتوقف نظام القيادة الذي يعمل بالذكاء الاصطناعي بدلاً من أن ينعطف. نود أن نعرف ما هي البدائل التي قام الذكاء الاصطناعي بتقييمها حسابيًا أثناء وقوع الحادث.

إلى جانب الوصول إلى الجزء السفلي من الحادثة المعينة ، هناك مخاوف مشروعة أخرى تتمثل في ما إذا كان نظام القيادة بالذكاء الاصطناعي به عيب أو جانب آخر مضمّن من شأنه أن يقوم بأنواع مماثلة من الأفعال المعاكسة. في جوهرها ، قد يكون هذا الحادث مؤشرًا واضحًا على المزيد في المستقبل. كيف تم استخدام المحاكاة الحاسوبية لمواقف القيادة لمحاولة توقع هذا النوع من أنظمة القيادة بالذكاء الاصطناعي؟ هل كانت هناك اختبارات كافية للقيادة على الطرق لاستكشاف مشكلات الذكاء الاصطناعي التي ربما أدت إلى حادث السيارة؟

يسلط هذا السيناريو الضوء على لغز مثير للجدل يواجه ظهور سيارات ذاتية القيادة قائمة على الذكاء الاصطناعي.

يذهب هكذا.

من ناحية أخرى ، هناك رغبة مجتمعية في تبني السيارات ذاتية القيادة على وجه السرعة بسبب الأمل في أن تكون أنظمة القيادة بالذكاء الاصطناعي آمنة أو ربما أكثر أمانًا من السائقين البشر. في الولايات المتحدة وحدها ، يوجد حاليًا ما يقرب من 40,000 حالة وفاة بشرية سنويًا بسبب حوادث السيارات وحوالي 2.5 مليون إصابة بشرية. تشير التحليلات إلى أن جزءًا كبيرًا من حوادث السيارات هذه يُعزى إلى خطأ بشري مثل القيادة أثناء السكر ، والقيادة أثناء تشتيت الانتباه ، وما إلى ذلك (انظر تقييمي لهذه الإحصائيات في الرابط هنا).

أنظمة القيادة بالذكاء الاصطناعي لن تشرب وتقود. لن يحتاجوا إلى الراحة ولن يتعبوا أثناء القيادة. الافتراض هو أنه من خلال إنشاء سيارات ذاتية القيادة كوسيلة نقل قابلة للتطبيق ، يمكننا تقليل عدد السائقين من البشر. وهذا بدوره يعني أننا سنخفض بشكل موجز عدد الوفيات والإصابات البشرية السنوية الناجمة عن حوادث السيارات.

قال بعض النقاد إننا سننتهي بدون أي وفيات أو إصابات ، ومن المفترض أن تكون تلك السيارات ذاتية القيادة غير قابلة للكسر ، لكن هذه مجموعة توقعات سخيفة وخاطئة تمامًا. لقد شرحت لماذا هذا مخادع للغاية في الرابط هنا.

على أي حال ، افترض أننا سنواجه قدرًا من حوادث السيارات التي تتورط فيها السيارات ذاتية القيادة. افترض أيضًا أن حوادث السيارات هذه ستؤدي إلى قدر من الوفيات والإصابات. السؤال الذي يتألم حوله هو ما إذا كنا كمجتمع على استعداد لتحمل مثل هذه الحالات على الإطلاق. يقول البعض أنه في حالة حدوث وفاة واحدة أو إصابة واحدة نتيجة لسيارات ذاتية القيادة حقيقية ، يجب إغلاق المجموعة الكاملة وكابودل.

وجهة النظر التعويضية هي أنه إذا كانت الأرواح التي تم إنقاذها تقلل من الأعداد السنوية ، فيجب أن نستمر في تشجيع ظهور السيارات ذاتية القيادة وعدم الرد بطريقة غير منطقية. سنحتاج إلى قبول فرضية أن بعض الوفيات والإصابات ستظل موجودة ، حتى مع السيارات ذاتية القيادة ، ومع ذلك ندرك أن العدد السنوي إذا انخفض يشير إلى أننا نسير على الطريق الصحيح.

بالطبع ، يجادل البعض بأنه لا ينبغي أن يكون لدينا سيارات ذاتية القيادة على طرقنا العامة حتى يتم السماح لها بمثل هذا الاستخدام كنتيجة لعمليات المحاكاة الشاملة والشاملة القائمة على الكمبيوتر أو عن طريق اختبار المسار المغلق الخاص. الحجة المضادة هي أن الطريقة الوحيدة القابلة للتطبيق والأسرع للحصول على سيارات ذاتية القيادة هي استخدام الطرق العامة وأن أي تأخير في اعتماد السيارات ذاتية القيادة سوف يسمح بخلاف ذلك بتواصل التهم المروعة لتحطم السيارة التي يقودها الإنسان. لقد غطيت هذا النقاش بإسهاب في أعمدتي وأحث القراء على إلقاء نظرة على تلك المناقشات للحصول على الإحساس الكامل بوجهات النظر حول هذه المسألة المثيرة للجدل.

دعونا نختتم الأمور الآن.

حوادث الذكاء الاصطناعي ستحدث. يجب أن نقاوم الدافع لتفسير حادث ذكاء اصطناعي على ما يبدو من غير قصد و ergo يسمحان بشكل خاطئ للمُصنّعين وأولئك الذين ينشرون الذكاء الاصطناعي بأن يكونوا خارج الخطورة بشكل قاطع.

هناك لمسة إضافية أتركها لك كفكرة أخيرة مثيرة للاهتمام ليومك.

وبحسب ما ورد قال الممثل الكوميدي دان كوك هذه النكتة عن حوادث السيارات: "قبل يومين ، تعرضت لحادث سيارة. ليس خطئي. حتى لو لم يكن هذا خطأك ، فإن الشخص الآخر يخرج من سيارته وينظر إليك وكأنه خطأك: لماذا توقفت عند إشارة ضوئية حمراء ودعني أضربك بفعل 80! "

حيث يظهر الالتواء في المقدمة هو احتمال أن يختار نظام الذكاء الاصطناعي الإصرار على أنه عندما يقع حادث ذكاء اصطناعي يتضمن ذكاءً اصطناعيًا بعينه ، فإن الذكاء الاصطناعي يصرح بأن الحادث كان خطأ الإنسان وليس بالتأكيد خطأ الذكاء الاصطناعي. بالمناسبة ، قد يكون هذا صحيحًا تمامًا وقد يحاول الإنسان كبش فداء الذكاء الاصطناعي من خلال الادعاء بأن ذلك كان خطأ الذكاء الاصطناعي.

أو ربما يحاول الذكاء الاصطناعي كبش فداء الإنسان.

كما ترى ، قد يكون الذكاء الاصطناعي الذي نبتكره صعبًا بهذه الطريقة ، إما عن طريق الصدفة أو بغير قصد.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- قيادة-سيارات-أيضا /