أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي يوضحان حقيقة ما هو جدير بالثقة لمنظمة العفو الدولية

الثقة هي كل شيء ، هكذا يقولون.

قال الفيلسوف الشهير لاو تزو إن أولئك الذين لا يثقون بما يكفي لن يتم الوثوق بهم. صرح إرنست همنغواي ، الروائي المحترم ، أن أفضل طريقة لمعرفة ما إذا كان بإمكانك الوثوق بشخص ما هي من خلال الوثوق به.

في غضون ذلك ، يبدو أن الثقة ثمينة وهشة. الثقة التي يتمتع بها المرء يمكن أن تنهار مثل منزل من ورق أو تنفجر فجأة مثل بالون مفرقع.

أكد الممثل التراجيدي اليوناني سوفوكليس أن الثقة تموت ولكن عدم الثقة أزهار. أكد الفيلسوف وعالم الرياضيات الفرنسي ديكارت أنه من الحكمة عدم الوثوق تمامًا بأولئك الذين خدعونا ولو مرة واحدة. حث الملياردير المستثمر في الأعمال التجارية وارين بافيت على أن يستغرق الأمر عشرين عامًا لبناء سمعة جديرة بالثقة وخمس دقائق لتدميرها.

قد تندهش من معرفة أن كل هذه الآراء المتنوعة والآراء الاستفزازية حول الثقة ضرورية لظهور الذكاء الاصطناعي (AI).

نعم ، هناك شيء يشار إليه بشدة باسم منظمة العفو الدولية جديرة بالثقة التي لا تزال تحصل على الكثير من الاهتمام هذه الأيام ، بما في ذلك صيحات التنبيه اليدوية من داخل مجال الذكاء الاصطناعي وأيضًا الانفجارات الصاخبة من قبل أولئك الذين هم خارج عالم الذكاء الاصطناعي. يستلزم المفهوم العام ما إذا كان المجتمع مستعدًا أم لا لوضع الثقة في أمثال أنظمة الذكاء الاصطناعي.

من المفترض ، إذا لم يثق المجتمع في الذكاء الاصطناعي أو لم يستطع الوثوق به ، فمن المحتمل أن تفشل أنظمة الذكاء الاصطناعي في الحصول على قوة دفع. الذكاء الاصطناعي كما نعرفه حاليًا سوف يتم دفعه جانبًا ويقتصر على جمع الغبار. بشكل مثير للصدمة ، يمكن أن ينتهي الأمر بالذكاء الاصطناعي إلى كومة غير مرغوب فيها ، حيث تم إنزاله تاريخيًا إلى لا شيء أكثر من تجربة تقنية عالية حاولت يائسًا لكنها فشلت بشكل مذهل. من المحتمل أن تواجه أي جهود لتنشيط الذكاء الاصطناعي معركة شاقة هائلة وستتوقف بكل أنواع الاعتراضات والاحتجاجات الصريحة. ظاهريًا ، بسبب عدم الثقة في الذكاء الاصطناعي.

أيهما يجب أن يكون ، هل نثق في الذكاء الاصطناعي ، أم أننا لا نثق به؟

في الأساس ، هل سنمتلك ذكاءً اصطناعيًا موثوقًا به حقًا؟

هذه أسئلة سابقة ولم يتم حلها. دعونا نفكها.

أخلاقيات الذكاء الاصطناعي والنضال من أجل الذكاء الاصطناعي الجدير بالثقة

يعتقد الكثيرون داخل الذكاء الاصطناعي أن مطوري أنظمة الذكاء الاصطناعي يمكنهم كسب الثقة في الذكاء الاصطناعي من خلال ابتكار الذكاء الاصطناعي الجدير بالثقة بشكل مناسب. الجوهر هو أنه لا يمكنك أن تأمل في اكتساب الثقة إذا لم يكن الذكاء الاصطناعي جديرًا بالثقة في البداية. من خلال صياغة أنظمة الذكاء الاصطناعي بطريقة يُنظر إليها على أنها جديرة بالثقة ، هناك فرصة قوية لأن يقبل الناس الذكاء الاصطناعي ويتبنون استخدامات الذكاء الاصطناعي.

أحد الأمور المزعجة بالفعل في هذا الاعتبار الجدير بالثقة للذكاء الاصطناعي هو أننا قد نكون بالفعل في نطاق عجز ثقة الجمهور عندما يتعلق الأمر بالذكاء الاصطناعي. يمكنك القول أن الذكاء الاصطناعي الذي رأيناه بالفعل قد حفر حفرة وألقى بثقة كبيرة بكميات هائلة. وبالتالي ، بدلاً من البدء في قاعدة كافية من الجدارة بالثقة ، سيتعين على الذكاء الاصطناعي أن يتخطى العجز بشكل مذهل ، ليحصد كل أوقية مرغوبة من الثقة الإضافية التي ستكون مطلوبة لإقناع الناس بأن الذكاء الاصطناعي في الواقع جدير بالثقة.

يأتي في هذا التحدي أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي.

تكافح أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي بشدة لمحاولة معرفة ما يتطلبه الأمر لجعل الذكاء الاصطناعي جديرًا بالثقة. يقترح البعض أن هناك صيغة أو قوانين صارمة من شأنها أن تجعل الذكاء الاصطناعي يصل إلى السماء الجديرة بالثقة. يشير آخرون إلى أن الأمر سيستغرق عملاً شاقًا والتزامًا ثابتًا لا هوادة فيه بأخلاقيات الذكاء الاصطناعي ومبادئ قانون الذكاء الاصطناعي للحصول على ثقة المجتمع التي يتفاخر بها.

اللغز المعاصر حول الثقة في الذكاء الاصطناعي ليس جديدًا في حد ذاته.

يمكنك العودة بسهولة إلى أواخر التسعينيات وتتبع ظهور الرغبة المنشودة في "الحوسبة الموثوقة" منذ تلك الأيام. كان هذا جهدًا واسع النطاق في صناعة التكنولوجيا لتمييز ما إذا كانت أجهزة الكمبيوتر التي تم إخبارها كلها يمكن تصنيعها بطريقة يفسرها المجتمع على أنها جديرة بالثقة.

تتكون الأسئلة الرئيسية من:

  • هل يمكن تصنيع أجهزة الكمبيوتر بحيث تكون جديرة بالثقة؟
  • هل يمكن تصميم البرامج بحيث تكون جديرة بالثقة؟
  • هل يمكننا وضع أجهزة كمبيوتر شبكية عالمية جديرة بالثقة؟
  • وهلم جرا.

الشعور السائد في ذلك الوقت والذي يستمر حتى يومنا هذا هو أن الحوسبة الجديرة بالثقة لا تزال نوعًا من الكأس المقدسة التي لا تزال للأسف في متناول أيدينا (كما هو مذكور في ورقة بعنوان "الذكاء الاصطناعي الجدير بالثقة" في اتصالات ACM). يمكنك أن تجادل بشكل مقنع بأن الذكاء الاصطناعي هو عنصر آخر في غلاف الجدارة بالثقة في الحوسبة ، ومع ذلك فإن الذكاء الاصطناعي يجعل السعي وراء الثقة أكثر صعوبة وغير مؤكد. أصبح الذكاء الاصطناعي هو المفسد المحتمل في المعركة من أجل الحصول على حوسبة جديرة بالثقة. ربما الحلقة الأضعف في السلسلة ، كما كانت.

دعنا نلقي نظرة سريعة على السبب الذي جعل الذكاء الاصطناعي يتخلى عن كونه أقل من جدير بالثقة. بالإضافة إلى ذلك ، سوف نستكشف مبادئ أخلاقيات الذكاء الاصطناعي التي نأمل أن تساعد في دعم الثقة المتصورة شبه تحت الماء (أو انعدام الثقة) في الذكاء الاصطناعي اليوم. للاطلاع على تغطيتي المستمرة والواسعة لأخلاقيات الذكاء الاصطناعي ، انظر الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

يتكون جزء أو جزء معين من أخلاقيات الذكاء الاصطناعي الذي حظي بالكثير من اهتمام وسائل الإعلام من الذكاء الاصطناعي الذي يُظهر تحيزات وأوجه عدم مساواة غير مرغوب فيها. قد تدرك أنه عندما بدأ العصر الأخير للذكاء الاصطناعي ، كان هناك اندفاع هائل من الحماس لما يسميه البعض الآن منظمة العفو الدولية من أجل الخير. لسوء الحظ ، في أعقاب تلك الإثارة المتدفقة ، بدأنا نشهد منظمة العفو الدولية للسوء. على سبيل المثال ، تم الكشف عن العديد من أنظمة التعرف على الوجه القائمة على الذكاء الاصطناعي على أنها تحتوي على تحيزات عنصرية وتحيزات بين الجنسين ، والتي ناقشتها في الرابط هنا.

جهود للقتال ضد منظمة العفو الدولية للسوء بنشاط جارية. إلى جانب صاخبة السياسات مساعي كبح جماح المخالفات ، هناك أيضًا دافع جوهري نحو تبني أخلاقيات الذكاء الاصطناعي لتصحيح ضعف الذكاء الاصطناعي. الفكرة هي أننا يجب أن نتبنى ونصادق على المبادئ الأخلاقية الرئيسية للذكاء الاصطناعي لتطوير الذكاء الاصطناعي وإدخاله في الميدان لتقويض منظمة العفو الدولية للسوء والتبشير والترويج في الوقت نفسه لما هو مفضل منظمة العفو الدولية من أجل الخير.

فيما يتعلق بمفهوم ذي صلة ، أنا من المدافعين عن محاولة استخدام الذكاء الاصطناعي كجزء من حل مشاكل الذكاء الاصطناعي ، ومكافحة النيران بالنار بهذه الطريقة من التفكير. قد نقوم على سبيل المثال بتضمين المكونات الأخلاقية للذكاء الاصطناعي في نظام ذكاء اصطناعي يراقب كيفية قيام بقية الذكاء الاصطناعي بالأشياء ، وبالتالي من المحتمل أن نكتشف في الوقت الفعلي أي جهود تمييزية ، انظر نقاشي في الرابط هنا. يمكن أن يكون لدينا أيضًا نظام ذكاء اصطناعي منفصل يعمل كنوع من أجهزة مراقبة أخلاقيات الذكاء الاصطناعي. يعمل نظام الذكاء الاصطناعي كمشرف لتتبع واكتشاف متى يدخل ذكاء اصطناعي آخر في الهاوية غير الأخلاقية (انظر تحليلي لهذه القدرات في الرابط هنا).

بعد قليل ، سوف أشارككم بعض المبادئ الشاملة التي تقوم عليها أخلاقيات الذكاء الاصطناعي. هناك الكثير من هذه الأنواع من القوائم التي تطفو هنا وهناك. يمكنك القول أنه لا توجد حتى الآن قائمة فردية للنداء والتوافق العالميين. هذه هي الأخبار المؤسفة. الخبر السار هو أن هناك على الأقل قوائم أخلاقيات الذكاء الاصطناعي متاحة بسهولة وتميل إلى أن تكون متشابهة تمامًا. أخيرًا ، يشير هذا إلى أنه من خلال شكل من أشكال التقارب المنطقي ، فإننا نجد طريقنا نحو قواسم مشتركة عامة لما تتكون منه أخلاقيات الذكاء الاصطناعي.

أولاً ، دعنا نغطي بإيجاز بعض المبادئ الأخلاقية الشاملة للذكاء الاصطناعي لتوضيح ما يجب أن يكون اعتبارًا حيويًا لأي شخص يقوم بصياغة أو استخدام أو استخدام الذكاء الاصطناعي.

على سبيل المثال ، كما صرح الفاتيكان في دعوة روما لأخلاقيات الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • الشفافية: من حيث المبدأ ، يجب أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير
  • إدراجه: يجب أن تؤخذ احتياجات جميع البشر في الاعتبار حتى يستفيد الجميع ، ويمكن لجميع الأفراد توفير أفضل الظروف الممكنة للتعبير عن أنفسهم وتطويرهم.
  • المسئولية: يجب على أولئك الذين يصممون وينشرون استخدام الذكاء الاصطناعي أن يتابعوا المسؤولية والشفافية
  • النزاهة: لا تخلق أو تتصرف على أساس التحيز ، وبالتالي الحفاظ على العدالة والكرامة الإنسانية
  • الموثوقية: يجب أن تكون أنظمة الذكاء الاصطناعي قادرة على العمل بشكل موثوق
  • الأمن والخصوصية: يجب أن تعمل أنظمة الذكاء الاصطناعي بشكل آمن وتحترم خصوصية المستخدمين.

كما صرحت وزارة الدفاع الأمريكية (DoD) في المبادئ الأخلاقية لاستخدام الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • مسؤول: سوف يمارس موظفو وزارة الدفاع مستويات مناسبة من الحكم والرعاية مع الاستمرار في المسؤولية عن تطوير ونشر واستخدام قدرات الذكاء الاصطناعي.
  • العادل: ستتخذ الإدارة خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي.
  • تعقبها: سيتم تطوير ونشر قدرات الذكاء الاصطناعي في الإدارة بحيث يمتلك الموظفون المعنيون فهمًا مناسبًا للتكنولوجيا وعمليات التطوير والأساليب التشغيلية المطبقة على قدرات الذكاء الاصطناعي ، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق ومصادر البيانات وإجراءات التصميم والتوثيق.
  • موثوق: سيكون لإمكانيات الذكاء الاصطناعي في الإدارة استخدامات واضحة ومحددة جيدًا ، وستخضع سلامة وأمن وفعالية هذه القدرات للاختبار والتأكيد ضمن تلك الاستخدامات المحددة عبر دورات حياتها بأكملها.
  • للحكم: ستقوم الإدارة بتصميم وهندسة قدرات الذكاء الاصطناعي للوفاء بالوظائف المقصودة مع امتلاك القدرة على اكتشاف وتجنب العواقب غير المقصودة ، والقدرة على فك أو إلغاء تنشيط الأنظمة المنشورة التي تظهر سلوكًا غير مقصود.

لقد ناقشت أيضًا العديد من التحليلات الجماعية للمبادئ الأخلاقية للذكاء الاصطناعي ، بما في ذلك تغطية مجموعة ابتكرها باحثون قاموا بفحص وتكثيف جوهر العديد من مبادئ أخلاقيات الذكاء الاصطناعي الوطنية والدولية في ورقة بعنوان "المشهد العالمي لإرشادات أخلاقيات الذكاء الاصطناعي" (تم نشره) في الطبيعة) ، وأن تغطيتي تستكشف في الرابط هنا، مما أدى إلى هذه القائمة الأساسية:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

كما قد تخمن بشكل مباشر ، فإن محاولة تحديد التفاصيل التي تقوم عليها هذه المبادئ قد يكون صعبًا للغاية. والأكثر من ذلك ، فإن الجهد المبذول لتحويل هذه المبادئ العريضة إلى شيء ملموس ومفصل تمامًا بما يكفي لاستخدامه عند صياغة أنظمة الذكاء الاصطناعي يعد أيضًا من الصعب كسرها. من السهل بشكل عام القيام ببعض التلويح اليدوي حول ماهية مبادئ أخلاقيات الذكاء الاصطناعي وكيف ينبغي مراعاتها بشكل عام ، في حين أنه وضع أكثر تعقيدًا في ترميز الذكاء الاصطناعي يجب أن يكون المطاط الحقيقي الذي يلبي الطريق.

يجب استخدام مبادئ أخلاقيات الذكاء الاصطناعي من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف. يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. كما ذكرنا سابقًا ، فإن الأمر يتطلب قرية لابتكار واستخدام الذكاء الاصطناعي ، ومن أجل ذلك يجب أن تكون القرية بأكملها على دراية بمبادئ أخلاقيات الذكاء الاصطناعي والالتزام بها.

دعنا نتأكد أيضًا من أننا على نفس الصفحة حول طبيعة الذكاء الاصطناعي اليوم.

لا يوجد أي ذكاء اصطناعي واعي اليوم. ليس لدينا هذا. لا نعرف ما إذا كان الذكاء الاصطناعي الواعي سيكون ممكنًا. لا أحد يستطيع أن يتنبأ بجدارة بما إذا كنا سنحقق ذكاءً اصطناعيًا واعيًا ، ولا ما إذا كان الذكاء الاصطناعي الواعي سينشأ بطريقة ما بأعجوبة تلقائيًا في شكل مستعر أعظم معرفي حسابي (يشار إليه عادةً باسم التفرد ، انظر تغطيتي في الرابط هنا).

نوع الذكاء الاصطناعي الذي أركز عليه يتكون من الذكاء الاصطناعي غير الواعي الذي لدينا اليوم. إذا أردنا التكهن بشدة حساس الذكاء الاصطناعي ، يمكن أن تسير هذه المناقشة في اتجاه مختلف جذريًا. من المفترض أن يكون الذكاء الاصطناعي الواعي ذا جودة بشرية. ستحتاج إلى اعتبار أن الذكاء الاصطناعي الواعي هو المكافئ المعرفي للإنسان. أكثر من ذلك ، نظرًا لأن البعض يتوقع أن يكون لدينا ذكاء اصطناعي فائق الذكاء ، فمن المتصور أن مثل هذا الذكاء الاصطناعي يمكن أن يصبح أكثر ذكاءً من البشر (لاستكشافي للذكاء الاصطناعي الفائق كإمكانية ، انظر التغطية هنا).

دعونا نحافظ على الأمور أكثر واقعية ونفكر في الذكاء الاصطناعي غير الحسابي اليوم.

ندرك أن الذكاء الاصطناعي اليوم غير قادر على "التفكير" بأي شكل من الأشكال على قدم المساواة مع التفكير البشري. عندما تتفاعل مع Alexa أو Siri ، قد تبدو قدرات المحادثة شبيهة بالقدرات البشرية ، لكن الحقيقة هي أنها حسابية وتفتقر إلى الإدراك البشري. استفاد العصر الأخير من الذكاء الاصطناعي بشكل مكثف من التعلم الآلي (ML) والتعلم العميق (DL) ، مما يعزز مطابقة الأنماط الحسابية. وقد أدى ذلك إلى ظهور أنظمة ذكاء اصطناعي تبدو وكأنها ميول شبيهة بالإنسان. وفي الوقت نفسه ، لا يوجد أي ذكاء اصطناعي اليوم يشبه الفطرة السليمة وليس لديه أي من التعجب المعرفي للتفكير البشري القوي.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين يتخذون نمطًا بناءً على القرارات قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق خفية ولكنها مهمة. سيحاول التعلم الآلي أو مطابقة الأنماط الحسابية للتعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة المصممة بالذكاء الاصطناعي في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة في ML / DL من الصعب اكتشاف التحيزات الخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا أكثر تعقيدًا مما قد يبدو. توجد فرصة قوية أنه حتى مع إجراء اختبارات مكثفة نسبيًا ، لا تزال هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

يمكنك إلى حد ما استخدام القول المأثور الشهير أو سيئ السمعة من القمامة في القمامة. الشيء هو ، هذا أقرب إلى التحيزات - التي يتم غرسها بشكل خبيث على أنها تحيزات مغمورة داخل الذكاء الاصطناعي. تصبح عملية اتخاذ القرار الخوارزمية (ADM) للذكاء الاصطناعي بشكل بديهي محملة بعدم المساواة.

غير جيد.

دعنا نربط هذا بالسؤال حول الذكاء الاصطناعي الجدير بالثقة

بالتأكيد لا يبدو أننا على استعداد للثقة في الذكاء الاصطناعي الذي يُظهر التحيزات السلبية والإجراءات التمييزية. إيماننا ، في هذه الحالة ، سيكون أن مثل هذا الذكاء الاصطناعي ليس جديرًا بالثقة بالتأكيد ، وبالتالي فإننا نميل نحو عدم الثقة بنشاط في الذكاء الاصطناعي. بدون المبالغة في المقارنة المجسمة (سأقول المزيد عن تجسيد الذكاء الاصطناعي في لحظة) ، فإن الإنسان الذي أظهر تحيزات غير مرغوب فيها سيكون أيضًا عرضة للتصنيف على أنه غير جدير بالثقة بشكل خاص.

الحفر في الثقة والجدارة بالثقة

ربما يتعين علينا أن نلقي نظرة على ما نعنيه عندما نؤكد أننا نثق أو لا نثق بشخص أو شيء ما. أولاً ، ضع في اعتبارك العديد من تعريفات القاموس اليومية للثقة.

أمثلة على ما تعنيه الثقة من حيث التعريف هي:

  • الاعتماد المؤكد على شخصية أو قدرة أو قوة أو حقيقة شخص ما أو شيء ما (قاموس ميريام وبستر على الإنترنت).
  • الاعتماد على النزاهة والقوة والقدرة والضمان ، وما إلى ذلك ، لشخص أو شيء (Dictionary.com)
  • إيمان راسخ بمصداقية أو حقيقة أو قدرة أو قوة شخص أو شيء ما (قاموس أكسفورد للغات على الإنترنت).

أود أن أشير إلى أن كل هذه التعريفات تشير إلى "شخص ما" وبالمثل تشير إلى "شيء ما" على أنه جدير بالثقة. هذا جدير بالملاحظة لأن البعض قد يصر على أننا نثق في البشر فقط وأن عمل الثقة يقتصر حصريًا على الجنس البشري باعتباره هدفنا للثقة. ليس كذلك. يمكنك أن تثق في محمصة مطبخك. إذا كان يبدو أن الخبز المحمص يعمل بشكل موثوق ويعمل بشكل روتيني للقيام بذلك ، فيمكنك بالتأكيد أن يكون لديك ما يشبه الثقة حول ما إذا كانت محمصة الخبز جديرة بالثقة في الواقع.

في نفس خط التفكير ، يمكن أن يكون الذكاء الاصطناعي أيضًا موضوعًا لوجهة نظر الثقة لدينا. الاحتمالات هي أن الثقة المرتبطة بالذكاء الاصطناعي ستكون أكثر تعقيدًا بكثير من قول محمصة عادية. يمكن للمحمصة عادة القيام بعدد قليل من الإجراءات. من المرجح أن يكون نظام الذكاء الاصطناعي أكثر تعقيدًا ويبدو أنه يعمل بشكل أقل شفافية. لا بد أن تكون قدرتنا على تقييم مصداقية الذكاء الاصطناعي والتأكد من مصداقيتها أكثر صعوبة وتقدم تحديات متميزة.

إلى جانب كونه أكثر تعقيدًا ، يُقال إن نظام الذكاء الاصطناعي النموذجي غير حتمي ومن المحتمل أن يكون ذاتي التنظيم أو ذاتي الضبط. يمكننا استكشاف هذه الفكرة بإيجاز.

تميل الآلة الحتمية إلى القيام بنفس الأشياء مرارًا وتكرارًا ، كما هو متوقع وبنمط يمكن تمييزه عن كيفية عملها. قد تقول أن محمصة خبز محمصة شائعة بنفس الطريقة تقريبًا ولديها عناصر تحكم في التحميص تعمل على تعديل التحميص ، وكلها يمكن توقعها بشكل عام من قبل الشخص الذي يستخدم المحمصة. في المقابل ، غالبًا ما يتم تصميم أنظمة الذكاء الاصطناعي المعقدة لتكون غير حتمية ، مما يعني أنها قد تقوم بأشياء مختلفة تمامًا عما كنت تتوقعه بخلاف ذلك. يمكن أيضًا تضخيم هذا جزئيًا إذا تمت كتابة الذكاء الاصطناعي لضبط نفسه ذاتيًا ، وهو جانب يمكن أن يسمح بشكل مفيد للذكاء الاصطناعي بالتحسين في حالة ML / DL ، على الرغم من أنه يمكن أيضًا أن يتسبب بشكل مقلق في تعثر الذكاء الاصطناعي أو الدخول في الرتب. من سوء الذكاء الاصطناعي. قد لا تعرف ما الذي أصابك ، بطريقة التحدث ، حيث تم القبض عليك تمامًا بسبب تصرفات الذكاء الاصطناعي.

ما الذي يمكننا فعله لمحاولة تقريب الذكاء الاصطناعي من الجدارة بالثقة؟

تتمثل إحدى المقاربات في محاولة التأكد من أن أولئك الذين يبنون الذكاء الاصطناعي وينشرونه يلتزمون بمجموعة من مبادئ أخلاقيات الذكاء الاصطناعي. كما ذكر باحثو الذكاء الاصطناعي هؤلاء: "الثقة هي موقف يتصرف فيه الوكيل كما هو متوقع ويمكن الاعتماد عليه للوصول إلى هدفه. تنهار الثقة بعد حدوث خطأ أو سوء تفاهم بين الوكيل والشخص المؤتمن. إن الحالة النفسية للثقة في الذكاء الاصطناعي هي خاصية ناشئة لنظام معقد ، وعادة ما يتضمن العديد من دورات التصميم والتدريب والنشر وقياس الأداء والتنظيم وإعادة التصميم وإعادة التدريب "(المشار إليها في اتصالات ACM، "الثقة والتنظيم والذكاء الاصطناعي البشري في الحلقة داخل المنطقة الأوروبية" بقلم ستيوارت ميدلتون وإيمانويل ليتوز وعلي حسيني وأدريان تشابمان ، أبريل 2022).

الجوهر هو أنه إذا تمكنا من جعل مطوري الذكاء الاصطناعي يلتزمون بالذكاء الاصطناعي الأخلاقي ، فمن المأمول أن ينتهي بهم الأمر إلى إنتاج ذكاء اصطناعي جدير بالثقة. كل هذا جيد وجيد ، لكنه يبدو غير عملي إلى حد ما على أساس العالم الحقيقي ، رغم أنه بالتأكيد مسار يستحق المتابعة.

إليكم ما أقصده

لنفترض أن مطوري الذكاء الاصطناعي يبذلون جهدًا دؤوبًا يصممون نظامًا للذكاء الاصطناعي لغرض ما سنسميه عمومًا X. فهم يتأكدون بعناية من أن الذكاء الاصطناعي يلتزم بمبادئ الشفافية الخاصة بأخلاقيات الذكاء الاصطناعي. إنهم يضمنون بشدة أن الخصوصية مدمجة بشكل مناسب في الذكاء الاصطناعي. بالنسبة إلى جميع مبادئ أخلاقيات الذكاء الاصطناعي المعتادة تقريبًا ، يضمن مطورو الذكاء الاصطناعي بشكل شامل أن الذكاء الاصطناعي يفي بالمبدأ المحدد.

هل يجب أن تثق الآن في ذلك الذكاء الاصطناعي؟

اسمح لي بالمساعدة في ترشيح أفكارك حول هذا السؤال المفتوح.

تبين أن المحتالين عبر الإنترنت تمكنوا من التسلل إلى الذكاء الاصطناعي وجعل الذكاء الاصطناعي يقوم بأداء X بشكل خفي ، ومع ذلك قاموا أيضًا بإطعام المتسللين عبر الإنترنت بجميع البيانات التي يجمعها الذكاء الاصطناعي. من خلال القيام بذلك ، فإن هؤلاء الأشرار يقوضون بشكل خفي مبدأ الخصوصية. أنت غير مدرك لحسن الحظ أن هذا يحدث تحت غطاء الذكاء الاصطناعي.

بهذه المعلومة المضافة ، سأطرح عليك نفس السؤال مرة أخرى.

هل تثق في ذلك الذكاء الاصطناعي؟

أجرؤ على القول إن معظم الناس سيعلنون على الفور أنهم يفعلون ذلك بالتأكيد ليس ثق في هذا الذكاء الاصطناعي بالذات. ربما كانوا يثقون به في وقت سابق. لقد اختاروا الآن عدم اعتبار الذكاء الاصطناعي جديرًا بالثقة.

بعض الأفكار الرئيسية المبنية على هذا المثال البسيط تستحق التأمل:

  • ديناميات الثقة. حتى أفضل النوايا لتغطية جميع أسس ضمان أن تكون أخلاقيات الذكاء الاصطناعي مدمجة في نظام الذكاء الاصطناعي لا تضمن ما يمكن أن يكون عليه الذكاء الاصطناعي أو يصبح عليه. بمجرد وضع الذكاء الاصطناعي قيد الاستخدام ، من المحتمل أن يقوض الغرباء التعزيزات الأخلاقية للذكاء الاصطناعي.
  • تقويض الثقة من الداخل. لا يجب بالضرورة أن يكون عمل تقويض الجدارة بالثقة من الخارج. الشخص المطلع الذي يقوم بصيانة منتظمة لنظام الذكاء الاصطناعي قد يخطئ ويضعف الذكاء الاصطناعي ليصبح أقل جدارة بالثقة. قد يكون مطور الذكاء الاصطناعي هذا جاهلًا بما فعلوه.
  • التنازلات غير المقصودة عن الثقة. قد يعدل الذكاء الاصطناعي ذاتي الضبط أو التنظيم الذاتي نفسه في مرحلة ما وينحرف إلى منطقة غير جديرة بالثقة. ربما يحاول الذكاء الاصطناعي تعزيز شفافية الذكاء الاصطناعي وفي نفس الوقت يعرض جوانب الخصوصية للخطر بشكل غير لائق.
  • تشتت الثقة. إن محاولة تحقيق جميع مبادئ أخلاقيات الذكاء الاصطناعي بنفس الدرجة القصوى من الجدارة بالثقة عادة ما تكون غير قابلة للتطبيق بسهولة لأنها غالبًا ما تكون في أغراض متعارضة أو لديها صراعات محتملة أخرى متأصلة. إنه منظور مثالي إلى حد ما للاعتقاد بأن جميع المبادئ الأخلاقية للذكاء الاصطناعي تتماشى بشكل حالم ويمكن تحقيقها جميعًا بدرجة متساوية يمكن تعظيمها.
  • يمكن أن يكون تحقيق الثقة مكلفًا. ستكون تكلفة محاولة تحقيق ما يشبه أفضل ما في الذكاء الاصطناعي الجدير بالثقة من خلال اتخاذ مختلف الخطوات الشاملة والشاملة والالتزام بسلسلة مبادئ أخلاقيات الذكاء الاصطناعي مرتفعة نسبيًا. يمكنك بسهولة أن تجادل بأن التكلفة ستكون باهظة من حيث استخدام بعض أنظمة الذكاء الاصطناعي التي لها قيمة مهمة للمجتمع ، حتى لو كان الذكاء الاصطناعي أقل من المثالية من رغبة جديرة بالثقة.
  • وهلم جرا.

لا تسيء تفسير الملاحظات السابقة للإشارة إلى أنه يجب علينا بطريقة أو بأخرى تجنب الجهد المبذول لبناء ذكاء اصطناعي جدير بالثقة وإدارته. كنت ستقذف الطفل بماء الاستحمام بإيجاز ، كما كان. التفسير الصحيح هو أننا بحاجة إلى القيام بأنشطة الثقة تلك لجعل الذكاء الاصطناعي في اعتبار جدير بالثقة ، ومع ذلك فإن هذا وحده ليس علاجًا للجميع أو حلًا سحريًا.

مسارات متعددة الجوانب للوصول إلى ذكاء اصطناعي جدير بالثقة

هناك طرق إضافية مهمة ومتعددة الجوانب للسعي نحو الذكاء الاصطناعي الجدير بالثقة.

على سبيل المثال ، كما غطيت سابقًا في أعمدتي ، يهدف عدد لا يحصى من القوانين واللوائح الناشئة حديثًا المتعلقة بالذكاء الاصطناعي إلى دفع صانعي الذكاء الاصطناعي نحو ابتكار ذكاء اصطناعي جدير بالثقة ، راجع الرابط هنا و الرابط هنا.

تعتبر حواجز الحماية القانونية هذه ضرورية كوسيلة شاملة للتأكد من أن أولئك الذين يبتكرون الذكاء الاصطناعي يتحملون المسؤولية الكاملة عن الذكاء الاصطناعي الخاص بهم. بدون مثل هذه العلاجات القانونية المحتملة والعقوبات القانونية ، من المرجح أن يواصل أولئك الذين يندفعون بالذكاء الاصطناعي إلى السوق القيام بذلك دون أي اعتبار جاد لتحقيق ذكاء اصطناعي جدير بالثقة. قد أضيف بشكل خاص ، أنه إذا كانت هذه القوانين واللوائح سيئة التصميم أو تم تنفيذها بشكل غير كافٍ ، فمن الممكن للأسف أن تقوض السعي وراء الذكاء الاصطناعي الجدير بالثقة ، وربما بشكل غريب ومن المفارقات تعزيز الذكاء الاصطناعي غير الجدير بالثقة على الذكاء الاصطناعي الجدير بالثقة (انظر مناقشات عمودي لمزيد من التوضيح).

لقد كنت أيضًا من أشد المدافعين عن ما كنت أشير إليه بحماس AI الروبوتات الملاك الحارس (انظر تغطيتي في الرابط هنا). هذه طريقة أو نهج قادم لمحاولة مكافحة النار بالنار ، أي استخدام الذكاء الاصطناعي لمساعدتنا في التعامل مع ذكاء اصطناعي آخر قد يكون أو لا يكون جديرًا بالثقة.

أولاً ، سيكون بعض سياق الخلفية مفيدًا.

افترض أنك تختار الاعتماد على نظام ذكاء اصطناعي لست متأكدًا من مصداقيته. قد يكون مصدر القلق الرئيسي أنك وحدك في محاولاتك لاكتشاف ما إذا كان يجب الوثوق بالذكاء الاصطناعي أم لا. يحتمل أن يكون الذكاء الاصطناعي أسرع منك من الناحية الحسابية ويمكنه الاستفادة منك. أنت بحاجة إلى شخص ما أو شيء ما بجانبك للمساعدة.

تتمثل إحدى وجهات النظر في أنه يجب أن يكون هناك دائمًا إنسان في الحلقة يعمل على مساعدتك أثناء استخدامك لنظام الذكاء الاصطناعي. على الرغم من أن هذا حل إشكالي. إذا كان الذكاء الاصطناعي يعمل في الوقت الفعلي ، وهو ما سنناقشه للحظات عندما يتعلق الأمر بظهور السيارات ذاتية القيادة القائمة على الذكاء الاصطناعي ، فقد لا يكون وجود إنسان في الحلقة كافياً. يمكن أن يعمل الذكاء الاصطناعي في الوقت الفعلي وبحلول الوقت الذي يدخل فيه الإنسان المعين في الحلقة الصورة لمعرفة ما إذا كان الذكاء الاصطناعي يعمل بشكل صحيح ، قد تكون هناك نتيجة كارثية قد حدثت بالفعل.

جانبا ، هذا يطرح عاملا آخر عن الثقة. عادةً ما نخصص مستوى ثقة بناءً على السياق أو الظروف التي نواجهها. قد تثق تمامًا في أن ابنك أو ابنتك ستكون مخلصًا لك ، ولكن إذا كنت في الخارج في نزهة على الأقدام وقررت الاعتماد على الطفل الصغير لإخبارك ما إذا كان من الآمن أن تخطو على حافة منحدر ، أعتقد أنك ستكون حكيماً للنظر فيما إذا كان بإمكان الطفل أن يقدم هذا النوع من النصائح حول الحياة أو الموت. قد يقوم الطفل بذلك بجدية وإخلاص ، ومع ذلك ، قد لا يكون قادرًا على تقديم هذه المشورة بشكل مناسب.

نفس الفكرة مرتبطة بالثقة عندما يتعلق الأمر بالذكاء الاصطناعي. ربما لا يشارك نظام الذكاء الاصطناعي الذي تستخدمه للعب الداما أو الشطرنج في أي مداولات حول الحياة أو الموت. يمكنك أن تكون أكثر سهولة مع تعيينك للثقة. تتطلب السيارة ذاتية القيادة القائمة على الذكاء الاصطناعي والتي تسير على طريق سريع بسرعات عالية مستوىً أكثر صعوبة من الثقة. يمكن أن تؤدي أدنى إشارة ضوئية من قبل نظام القيادة بالذكاء الاصطناعي مباشرة إلى موتك وموت الآخرين.

في مقابلة منشورة مع بينا عماناث ، المدير التنفيذي لمعهد Global Deloitte AI ومؤلف الكتاب منظمة العفو الدولية جديرة بالثقة ، تركيز مماثل على النظر في الجوانب السياقية للمكان الذي تلعب فيه الجدارة بالثقة في الذكاء الاصطناعي: "إذا كنت تبني حلاً للذكاء الاصطناعي يقوم بتشخيص المريض ، فإن الإنصاف والتحيز أمران في غاية الأهمية. ولكن إذا كنت تقوم ببناء خوارزمية تتنبأ بفشل المحرك النفاث ، فلن يكون الإنصاف والتحيز بنفس الأهمية. الذكاء الاصطناعي الجدير بالثقة هو في الحقيقة هيكل يجعلك تبدأ في التفكير في أبعاد الثقة داخل مؤسستك "(VentureBeat، 22 مارس 2022).

عند مناقشة الذكاء الاصطناعي الجدير بالثقة ، يمكنك تفسير هذا الموضوع بعدة طرق.

على سبيل المثال، منظمة العفو الدولية جديرة بالثقة هو شيء نعتبره جميعًا هدفًا مرغوبًا وطموحًا ، أي أننا يجب أن نكون راغبين في ابتكار وإصدار ذكاء اصطناعي جدير بالثقة. هناك استخدام آخر لشعار الشعار. استخدام بديل إلى حد ما هو ذلك منظمة العفو الدولية جديرة بالثقة هي حالة حالة أو قياس ، بحيث قد يؤكد شخص ما أنه قد صنع نظامًا للذكاء الاصطناعي يمثل مثالًا على الذكاء الاصطناعي الجدير بالثقة. يمكنك أيضا استخدام العبارة منظمة العفو الدولية جديرة بالثقة لاقتراح طريقة أو نهج يمكن استخدامه لتحقيق الثقة في الذكاء الاصطناعي. إلخ.

في ملاحظة ذات صلة ، أثق في أنك تدرك أنه ليس كل الذكاء الاصطناعي هو نفسه وأنه يجب علينا أن ننتبه إلى عدم الإدلاء ببيانات شاملة حول الذكاء الاصطناعي بالكامل. من المرجح أن يختلف نظام ذكاء اصطناعي معين اختلافًا كبيرًا عن نظام ذكاء اصطناعي آخر. قد يكون أحد أنظمة الذكاء الاصطناعي هذه جديرًا بالثقة بدرجة كبيرة ، بينما قد يكون الآخر جديرًا بالثقة بشكل هامشي. كن حذرًا في افتراض أن الذكاء الاصطناعي هو كتلة متراصة إما جديرة بالثقة تمامًا أو غير جديرة بالثقة تمامًا.

هذا ببساطة ليس هو الحال.

أود أن أغطي بعد ذلك بإيجاز بعضًا من أبحاثي الجارية حول الذكاء الاصطناعي الموثوق به والتي قد تجدها ذات أهمية ، وتغطي الدور الناشئ لـ AI الروبوتات الملاك الحارس.

إليك كيف ستسير الأمور.

ستكون مسلحًا بنظام AI (روبوت ملاك حارس AI) مصمم لقياس مصداقية بعض أنظمة الذكاء الاصطناعي الأخرى. يركز روبوت الملاك الحارس بالذكاء الاصطناعي على سلامتك بشكل أساسي. فكر في هذا كما لو كان لديك الوسائل لمراقبة الذكاء الاصطناعي الذي تعتمد عليه من خلال وجود نظام ذكاء اصطناعي مختلف في جيبك الحقيقي ، ربما يعمل على هاتفك الذكي أو أجهزة أخرى من هذا القبيل. يمكن لولي الأمر الذي يُضرب به الذكاء الاصطناعي أن يحسب على أساس أن الذكاء الاصطناعي الذي تعتمد عليه يفعل ذلك أيضًا ، حيث يعمل بسرعات عالية ويحسب الموقف الحالي في الوقت الفعلي ، أسرع بكثير مما يمكن أن يفعله إنسان في الحلقة.

قد تعتقد للوهلة الأولى أن الذكاء الاصطناعي الذي تعتمد عليه بالفعل يجب أن يكون لديك بعض داخلي تعمل حواجز حماية AI بنفس الطريقة التي يتم بها حساب الروبوت guardian angel بشكل منفصل. نعم ، سيكون ذلك بالتأكيد مرغوبًا فيه. أحد المضايقات هو أن حواجز الحماية للذكاء الاصطناعي المدمجة في نظام الذكاء الاصطناعي قد تكون متوافقة بشكل كامل وغير متحيز مع الذكاء الاصطناعي في حد ذاته ، وبالتالي لم يعد حاجز الحماية المفترض للذكاء الاصطناعي قادرًا على التحقق أو التحقق من صحة الذكاء الاصطناعي بشكل مستقل.

الفكرة المتناقضة هي أن روبوت الملاك الحارس للذكاء الاصطناعي الخاص بك هو آلية ذكاء اصطناعي مستقلة أو تابعة لجهة خارجية تختلف عن الذكاء الاصطناعي الذي تعتمد عليه. إنه موجود خارج الذكاء الاصطناعي الآخر ، ويبقى مكرسًا لك وغير مكرس للذكاء الاصطناعي الذي يتم مراقبته أو تقييمه.

يمكن التعبير عن وسيلة مباشرة للتفكير في هذا من خلال العبارات المبسطة التالية الشبيهة بالمعادلة. قد نقول إن "P" ترغب في الثقة في "R" للقيام بمهمة معينة "X":

سيكون هذا هو ما يلي عندما يشارك الأشخاص فقط:

  • يثق الشخص P في الشخص R للقيام بالمهمة X.

عندما نختار الاعتماد على الذكاء الاصطناعي ، فإن البيان يعاد تشكيله على النحو التالي:

  • يثق الشخص P في مثيل AI-R للقيام بالمهمة X.

يمكننا إضافة روبوت الملاك الحارس لمنظمة العفو الدولية بقول هذا:

  • يثق الشخص P بمثيل AI-R للقيام بالمهمة X حيث تتم مراقبتها بواسطة AI guardian angel bot example-Z

يقوم روبوت الملاك الحارس لمنظمة العفو الدولية بتقييم الذكاء الاصطناعي الذي تعتمد عليه بلا كلل وبلا هوادة. على هذا النحو ، قد ينبهك الوصي على الذكاء الاصطناعي إلى أن ثقة هذا الذكاء الاصطناعي الآخر لا مبرر لها. أو ، قد يتفاعل وصي الذكاء الاصطناعي إلكترونيًا مع الذكاء الاصطناعي الآخر لمحاولة التأكد من تصحيح أي اختلاف بعيدًا عن كونه جديرًا بالثقة بسرعة ، وما إلى ذلك (راجع تغطيتي على هذه التفاصيل على الرابط هنا).

استعارة Trusty Trust Reservoir

نظرًا لأننا نناقش مستويات مختلفة من الثقة ، فقد تجد استخدام استعارة مفيدة حول الجدارة بالثقة من خلال تصور الثقة كنوع من الخزان.

لديك قدر معين من الثقة لشخص معين أو شيء معين في ظرف معين في وقت معين. سوف يرتفع مستوى الثقة أو ينخفض ​​، اعتمادًا على ما يحدث أيضًا فيما يتعلق بهذا الشخص أو الشيء المعين. يمكن أن تكون الثقة عند مستوى الصفر عندما لا تثق على الإطلاق في الشخص أو الشيء. يمكن أن تكون الثقة سلبية عندما تغامر بالارتياب في ذلك الشخص أو الشيء.

في حالة أنظمة الذكاء الاصطناعي ، فإن خزان الثقة الخاص بك للذكاء الاصطناعي المعين الذي تعتمد عليه في ظرف معين سيرتفع أو ينخفض ​​اعتمادًا على قياسك لمصداقية الذكاء الاصطناعي. في بعض الأحيان ، قد تكون على دراية بهذا المستوى المتفاوت من الثقة بشأن الذكاء الاصطناعي ، بينما في حالات أخرى قد تكون أقل وعياً وأكثر من ذلك من خلال إصدار أحكام حول المصداقية.

تتضمن الطرق التي ناقشناها هنا وسائل تعزيز مستويات الثقة في الذكاء الاصطناعي ما يلي:

  • الالتزام بأخلاقيات الذكاء الاصطناعي. إذا تم تصميم الذكاء الاصطناعي الذي تعتمد عليه من خلال محاولة الالتزام بمبادئ أخلاقيات الذكاء الاصطناعي المناسبة ، فمن المفترض أنك ستستخدم هذا الفهم لتعزيز مستوى خزان الثقة الخاص بنظام الذكاء الاصطناعي هذا. كملاحظة جانبية ، من الممكن أيضًا أن تعمم على أنظمة الذكاء الاصطناعي الأخرى فيما يتعلق بمدى مصداقيتها ، على الرغم من أن هذا قد يكون في بعض الأحيان شكلاً مضللاً لما أسميه هالة الثقة بالذكاء الاصطناعي تنتشر (كن حذرا في القيام بذلك!).
  • استخدم الإنسان في الحلقة. إذا كان للذكاء الاصطناعي إنسان في الحلقة ، فقد تضيف بشكل إيجابي إلى ثقتك المتصورة في الذكاء الاصطناعي.
  • وضع القوانين واللوائح. إذا كانت هناك قوانين ولوائح مرتبطة بهذا النوع المعين من الذكاء الاصطناعي ، فيمكنك أيضًا تعزيز مستوى ثقتك.
  • توظيف الروبوت الملاك الحارس AI. إذا كان لديك روبوت ملاك حارس AI جاهز ، فسيؤدي ذلك أيضًا إلى رفع مستوى ثقتك.

كما ذكرنا سابقًا ، يمكن أن تكون الثقة هشة تمامًا وتتفكك في لحظة (على سبيل المثال ، يتخلص خزان الثقة بسرعة وفجأة من كل الثقة المتراكمة).

تخيل أنك داخل سيارة ذاتية القيادة تعتمد على الذكاء الاصطناعي وأن القيادة بالذكاء الاصطناعي تقوم فجأة بمنعطف جذري لليمين ، مما يتسبب في صرير العجلات وإجبار السيارة المستقلة تقريبًا على الانقلاب. ماذا سيحدث لمستوى ثقتك؟ يبدو أنه حتى لو كنت قد حملت الذكاء الاصطناعي سابقًا على مستوى عالٍ من الثقة ، فإنك ستنخفض مستوى ثقتك بشكل كبير ومفاجئ ، بشكل معقول.

في هذه المرحلة من هذه المناقشة المهمة ، أراهن أنك ترغب في الحصول على أمثلة توضيحية إضافية قد تعرض طبيعة ونطاق الذكاء الاصطناعي الجدير بالثقة. هناك مجموعة خاصة وشعبية بالتأكيد من الأمثلة القريبة من قلبي. كما ترى ، بصفتي خبيرًا في الذكاء الاصطناعي بما في ذلك التداعيات الأخلاقية والقانونية ، يُطلب مني كثيرًا تحديد أمثلة واقعية تعرض معضلات أخلاقيات الذكاء الاصطناعي بحيث يمكن فهم الطبيعة النظرية إلى حد ما للموضوع بسهولة أكبر. واحدة من أكثر المجالات إثارة للذكريات التي تقدم بوضوح هذا المأزق الأخلاقي للذكاء الاصطناعي هو ظهور سيارات ذاتية القيادة حقيقية قائمة على الذكاء الاصطناعي. سيكون هذا بمثابة حالة استخدام مفيدة أو نموذجًا لمناقشة مستفيضة حول هذا الموضوع.

إليك إذن سؤال جدير بالملاحظة يستحق التفكير فيه: هل يبرز ظهور السيارات ذاتية القيادة الحقيقية القائمة على الذكاء الاصطناعي أي شيء يتعلق بالسعي وراء الذكاء الاصطناعي الجدير بالثقة ، وإذا كان الأمر كذلك ، فما الذي يعرضه هذا؟

اسمح لي بلحظة لفك السؤال.

أولاً ، لاحظ أنه لا يوجد سائق بشري متورط في سيارة حقيقية ذاتية القيادة. ضع في اعتبارك أن السيارات الحقيقية ذاتية القيادة يتم قيادتها عبر نظام قيادة بالذكاء الاصطناعي. ليست هناك حاجة لسائق بشري على عجلة القيادة ، ولا يوجد شرط لقيادة الإنسان للسيارة. لتغطيتي الواسعة والمستمرة للمركبات ذاتية القيادة (AVs) وخاصة السيارات ذاتية القيادة ، انظر الرابط هنا.

أود أن أوضح ما هو المقصود عندما أشير إلى السيارات الحقيقية ذاتية القيادة.

فهم مستويات السيارات ذاتية القيادة

للتوضيح ، السيارات الحقيقية ذاتية القيادة هي تلك التي يقود فيها الذكاء الاصطناعي السيارة بالكامل من تلقاء نفسه ولا توجد أي مساعدة بشرية أثناء مهمة القيادة.

تعتبر هذه المركبات ذاتية القيادة من المستوى 4 والمستوى 5 (انظر الشرح في هذا الرابط هنا) ، في حين أن السيارة التي تتطلب سائقًا بشريًا للمشاركة في جهد القيادة يتم اعتبارها عادةً في المستوى 2 أو المستوى 3. يتم وصف السيارات التي تشارك في مهمة القيادة بأنها شبه مستقلة ، وتحتوي عادةً على مجموعة متنوعة من الوظائف الإضافية المؤتمتة التي يشار إليها باسم ADAS (أنظمة مساعدة السائق المتقدمة).

لا توجد حتى الآن سيارة ذاتية القيادة حقيقية في المستوى الخامس ، ولا نعرف حتى الآن ما إذا كان من الممكن تحقيق ذلك ، ولا كم من الوقت سيستغرق الوصول إليه.

وفي الوقت نفسه ، تحاول جهود المستوى 4 تدريجياً الحصول على بعض الجاذبية من خلال الخضوع لتجارب طرق عامة ضيقة للغاية وانتقائية ، على الرغم من وجود جدل حول ما إذا كان يجب السماح بهذا الاختبار في حد ذاته (نحن جميعًا حيوانات تجارب حياة أو موت في التجربة التي تجري على طرقنا السريعة والطرق الفرعية ، يدعي البعض ، انظر تغطيتي في هذا الرابط هنا).

نظرًا لأن السيارات شبه المستقلة تتطلب سائقًا بشريًا ، فإن اعتماد هذه الأنواع من السيارات لن يكون مختلفًا بشكل ملحوظ عن قيادة المركبات التقليدية ، لذلك لا يوجد الكثير في حد ذاته لتغطية هذه المواضيع (على الرغم من ذلك ، كما سترى في لحظة ، النقاط التالية تنطبق بشكل عام).

بالنسبة للسيارات شبه المستقلة ، من المهم أن يتم تحذير الجمهور بشأن جانب مزعج ظهر مؤخرًا ، أي أنه على الرغم من هؤلاء السائقين البشر الذين يستمرون في نشر مقاطع فيديو لأنفسهم ينامون على عجلة سيارة من المستوى 2 أو المستوى 3 علينا جميعًا أن نتجنب التضليل حتى نصدق أن السائق يمكنه أن يلفت انتباهه عن مهمة القيادة أثناء قيادة سيارة شبه مستقلة.

أنت الطرف المسؤول عن إجراءات القيادة في السيارة ، بغض النظر عن مقدار الأتمتة التي قد يتم قذفها في المستوى 2 أو المستوى 3.

سيارات ذاتية القيادة وذكاء اصطناعي جدير بالثقة

بالنسبة للمركبات ذاتية القيادة الحقيقية من المستوى 4 والمستوى 5 ، لن يكون هناك سائق بشري يشارك في مهمة القيادة.

سيكون جميع الركاب من الركاب.

تقوم منظمة العفو الدولية بالقيادة.

أحد الجوانب التي يجب مناقشتها على الفور يستلزم حقيقة أن الذكاء الاصطناعي المتضمن في أنظمة قيادة الذكاء الاصطناعي اليوم ليس واعيًا. بعبارة أخرى ، الذكاء الاصطناعي عبارة عن مجموعة من البرمجة والخوارزميات المستندة إلى الكمبيوتر ، وهو بالتأكيد غير قادر على التفكير بنفس الطريقة التي يستطيع بها البشر.

لماذا هذا التركيز الإضافي على الذكاء الاصطناعي ليس واعيا؟

لأنني أريد أن أؤكد أنه عند مناقشة دور نظام القيادة للذكاء الاصطناعي ، فأنا لا أنسب الصفات البشرية للذكاء الاصطناعي. يرجى العلم أن هناك اتجاهًا مستمرًا وخطيرًا هذه الأيام لتجسيد الذكاء الاصطناعي. من حيث الجوهر ، يخصص الناس ذكاءً شبيهاً بالإنسان إلى الذكاء الاصطناعي اليوم ، على الرغم من الحقيقة التي لا يمكن إنكارها والتي لا جدال فيها وهي عدم وجود مثل هذا الذكاء الاصطناعي حتى الآن.

مع هذا التوضيح ، يمكنك أن تتخيل أن نظام القيادة بالذكاء الاصطناعي لن "يعرف" بطريقة أو بأخرى جوانب القيادة. القيادة وكل ما تتطلبه يجب برمجتها كجزء من أجهزة وبرامج السيارة ذاتية القيادة.

دعونا نتعمق في عدد لا يحصى من الجوانب التي تأتي للعب في هذا الموضوع.

أولاً ، من المهم أن ندرك أنه ليست كل سيارات الذكاء الاصطناعي ذاتية القيادة هي نفسها. تتبنى كل شركة تصنيع سيارات وشركة تقنية ذاتية القيادة نهجها في ابتكار سيارات ذاتية القيادة. على هذا النحو ، من الصعب الإدلاء ببيانات شاملة حول ما ستفعله أو لا تفعله أنظمة القيادة بالذكاء الاصطناعي.

علاوة على ذلك ، عندما يذكر أن نظام القيادة بالذكاء الاصطناعي لا يفعل شيئًا معينًا ، يمكن ، لاحقًا ، تجاوز هذا الأمر من قبل المطورين الذين يقومون في الواقع ببرمجة الكمبيوتر للقيام بهذا الشيء بالذات. خطوة بخطوة ، يتم تحسين أنظمة القيادة بالذكاء الاصطناعي وتوسيعها تدريجياً. قد لا يوجد قيد موجود اليوم في تكرار أو إصدار مستقبلي من النظام.

أنا على ثقة من أن ذلك يوفر مجموعة كافية من المحاذير لإبراز ما أنا على وشك ربطه.

نحن مستعدون الآن للقيام بالغوص العميق في السيارات ذاتية القيادة والذكاء الاصطناعي الجدير بالثقة.

الثقة هي كل شيء ، خاصة في حالة السيارات ذاتية القيادة القائمة على الذكاء الاصطناعي.

يبدو أن المجتمع يتطلع بحذر إلى ظهور السيارات ذاتية القيادة. من ناحية أخرى ، هناك أمل كبير في أن يؤدي ظهور السيارات ذاتية القيادة الحقيقية إلى تقليل عدد الوفيات السنوية المتعلقة بالسيارات بشكل واضح. في الولايات المتحدة وحدها ، هناك حوالي 40,000 ألف حالة وفاة سنوية وحوالي 2.5 مليون إصابة بسبب حوادث السيارات ، انظر مجموعتي للإحصائيات في الرابط هنا. البشر يشربون ويقودون. يقود البشر وهم مشتت الذهن. يبدو أن مهمة قيادة السيارة تتكون من القدرة على التركيز بشكل متكرر وبدون خطأ على القيادة وتجنب الوقوع في حوادث السيارات. على هذا النحو ، قد نأمل أن تقوم أنظمة القيادة بالذكاء الاصطناعي بتوجيه السيارات ذاتية القيادة بشكل متكرر وبدون أخطاء. يمكنك تفسير السيارات ذاتية القيادة على أنها ثنائية ، تتكون من تقليل حجم الوفيات والإصابات الناجمة عن حوادث السيارات ، إلى جانب إمكانية جعل التنقل متاحًا على نطاق أوسع بكثير ويمكن الوصول إليه.

لكن القلق في هذه الأثناء يلوح في الأفق حول التصورات المجتمعية حول ما إذا كانت السيارات ذاتية القيادة ستكون آمنة بما يكفي لتكون على طرقنا العامة بشكل عام.

إذا تعرضت سيارة واحدة ذاتية القيادة لحادث أو اصطدام أدى إلى وفاة واحدة أو إصابة خطيرة ، فمن المحتمل أن تتوقع أن الثقة المبنية إلى حد ما تجاه تلك السيارات ذاتية القيادة القائمة على الذكاء الاصطناعي ستنخفض بشكل كبير. لقد رأينا هذا يحدث عندما وقعت الحادثة الشائنة الآن في ولاية أريزونا والتي اشتملت على سيارة ذاتية القيادة إلى حد ما (ليست في الحقيقة) اصطدمت بأحد المشاة وقتلتهم (انظر تغطيتي في هذا الرابط هنا).

يشير بعض النقاد إلى أنه من غير العادل وغير الملائم بناء ثقة السيارات ذاتية القيادة بالذكاء الاصطناعي على وجه أن حادثًا أو تصادمًا واحدًا فقط من هذا القبيل يمكن أن يقوض تجارب الطرق العامة الخالية نسبيًا من الاصطدام. بالإضافة إلى ذلك ، وعلى أساس غير عادل آخر ، فإن الاحتمالات هي أنه بغض النظر عن العلامة التجارية أو الطراز الخاص للسيارة ذاتية القيادة بالذكاء الاصطناعي الذي يتورط في حادث مؤسف ، فإن المجتمع سيلقي باللوم بلا شك على جميع ماركات السيارات ذاتية القيادة.

يمكن تلطيخ مجمل السيارات ذاتية القيادة بشكل سريع وقد تعاني الصناعة ككل من رد فعل عنيف كبير يؤدي إلى إيقاف محتمل لجميع تجارب الطرق العامة.

تم العثور على مساهم في مثل هذه النكسة في التصريحات غير المنطقية من قبل مؤيدي السيارات ذاتية القيادة الصريحين بأن جميع السيارات ذاتية القيادة ستكون غير قابلة للكسر. إن فكرة كونك غير قابل للكسر ليست فقط خاطئة تمامًا (انظر الرابط هنا) ، فهي تقوم بشكل خفي بتأسيس صناعة السيارات ذاتية القيادة لمجموعة من التوقعات غير المألوفة تمامًا. هذه التصريحات الغريبة وغير القابلة للتحقيق التي تفيد بأنه سيكون هناك صفر وفيات بسبب السيارات ذاتية القيادة تغذي الاعتقاد الخاطئ بأن أي حوادث سيارات بدون سائق هي علامة أكيدة على أن المجموعة الكاملة وكابودل هي هباء.

هناك حزن واضح لإدراك أن التقدم نحو السيارات ذاتية القيادة وتراكم الثقة المجتمعية شبرًا تلو الآخر يمكن أن يتلاشى في لحظة. سيكون هذا عرضًا واحدًا لهشاشة الثقة.

وفي الختام

يلتزم العديد من صانعي السيارات وشركات التكنولوجيا ذاتية القيادة عمومًا بمبادئ أخلاقيات الذكاء الاصطناعي ، ويفعلون ذلك لمحاولة بناء واستخدام ذكاء اصطناعي موثوق به فيما يتعلق بسيارات ذاتية القيادة آمنة وموثوقة تعتمد على الذكاء الاصطناعي. يرجى إدراك أن بعض هذه الشركات أقوى وأكثر تكريسًا لمبادئ الذكاء الاصطناعي الأخلاقية من غيرها. هناك أيضًا بعض الشركات الناشئة ذات الصلة بالسيارات ذات الصلة بالسيارات الهامشية أو المبتدئة والتي يبدو أنها تتجاهل الكثير من الركائز الأساسية لأخلاقيات الذكاء الاصطناعي (انظر تقييمي في الرابط هنا).

على جبهات أخرى ، تم وضع قوانين ولوائح جديدة تغطي السيارات ذاتية القيادة تدريجياً في الكتب القانونية. مسألة ما إذا كان لديهم الأسنان اللازمة لدعمهم أمر مختلف ، وكذلك ما إذا كان يتم أخذ تطبيق هذه القوانين على محمل الجد أو التغاضي عنه (راجع أعمدتي للحصول على تحليلات حول هذا).

هناك أيضًا زاوية عالية التقنية لهذا أيضًا. لقد توقعت أننا سنرى تدريجيًا أنواعًا مختلفة من روبوتات الملاك الحارس للذكاء الاصطناعي والتي ستظهر في الصدارة في مجال السيارات ذاتية القيادة والسيارات ذاتية القيادة. نحن لسنا هناك بعد. سيصبح هذا أكثر انتشارًا بمجرد انتشار شعبية السيارات ذاتية القيادة.

تثير هذه النقطة الأخيرة سطرًا مشهورًا عن الثقة الذي تعرفه بالفعل عن ظهر قلب.

ثق ولكن تحقق.

يمكننا أن نسمح لأنفسنا بتوسيع ثقتنا ، ربما بسخاء. وفي الوقت نفسه ، يجب علينا أيضًا أن نراقب مثل الصقر للتأكد من أن الثقة التي نولدها يتم التحقق منها من خلال الأقوال والأفعال. دعنا نضع بعض الثقة في الذكاء الاصطناعي ، ولكن تحقق إلى ما لا نهاية من أننا نضع ثقتنا بشكل مناسب وأعيننا مفتوحة على مصراعيها.

يمكنك الوثوق بي في ذلك.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/