تشكك أخلاقيات الذكاء الاصطناعي في وضع ما يسمى بقوانين الذكاء الاصطناعي ذات العلم الأحمر لاستدعاء الخوارزميات المتحيزة في أنظمة الذكاء الاصطناعي المستقلة

لنتحدث عن قوانين العلم الأحمر.

أنت تعلم بلا شك أن فكرة قوانين العلم الأحمر قد تمت تغطيتها على نطاق واسع في الأخبار مؤخرًا. العناوين الرئيسية التي تغطي الموضوع وفيرة. العواطف والمناقشات الحماسية حول مثل هذه الأمور هي على رأس اهتمامات المجتمع وتنطوي على قوانين أسلحة العلم الأحمر الناشئة بسرعة في الوقت الحاضر.

أجرؤ على القول على الرغم من أنك قد لا تكون على دراية بقوانين العلم الأحمر الأخرى التي تم سنها في أواخر القرن التاسع عشر فيما يتعلق بالمركبات الآلية وسابقات السيارات الحديثة اليومية. نعم ، هذا صحيح ، قوانين العلم الأحمر تعود إلى التاريخ ، على الرغم من أنها تغطي موضوعات أخرى مقارنة بالتركيز المعاصر اليوم. يشار إلى هذه عادة باسم قوانين حركة العلم الأحمر.

هذه القوانين التي مضى عليها قرن من الزمان والتي انتهت صلاحيتها تمامًا تتطلب أن يكون أي عربة أو محرك يعمل بالبخار في ذلك الوقت يسبقها شخص بالغ ويحمل علمًا أحمر لأغراض التحذير. كانت الفكرة هي أن الماشية قد تنزعج من تلك الأشياء الغريبة الصاخبة التي تنطلق ببطء وبشكل غير متساوٍ على التراب أو الطرق المعبدة بشكل هامشي ، وبالتالي فإن وجود شخص ما يسير على طول أمام الجهاز بينما يلوح بقوة بعلم أحمر يمكن أن نأمل في تجنب وقوع الكوارث. في حال كنت تتساءل ، تم اعتبار السكك الحديدية والقطارات مستبعدة من نفس القوانين لأنها كانت مركبات مرتبطة بشكل كامل بالسكك الحديدية ولديها قوانين أخرى تغطي أفعالها.

تخيل الاضطرار إلى رفع الأعلام الحمراء اليوم كشرط لكل سيارة على طرقنا العامة.

على سبيل المثال ، سيتعين على سائق السيارة العادي الذي ينزل في شارع منطقتك التأكد من وجود شخص بالغ يلوح بعلم أحمر ويظهر أمام السيارة المتحركة. يجب أن يحدث هذا لكل مركبة تمر في شارعك. ربما يصبح الناس عمالاً يعملون بعلم أحمر وظفوا سائقين سيارات عابرين لم يكن لديهم صديق أو قريب يمكن أن يقف أمامهم ويقوم بإجراءات التلويح المنصوص عليها.

نميل في الوقت الحاضر إلى ربط العلم الأحمر المرتبط بالطرق السريعة بمواقع بناء الطرق. عندما تقترب من طريق محفور ، سيرفع العمال علمًا أحمر عالياً لجذب انتباهك. يخبرك هذا أن تبطئ وأن تكون في حالة تأهب. يمكن أن تكون هناك جرافة تتجه نحو طريقك. قد يكون هناك ثقب عملاق في الأمام وستحتاج إلى اجتيازه بحذر.

لكن دعنا نعود إلى استخدام الأعلام الحمراء في القرن التاسع عشر.

صدق أو لا تصدق ، كان من المفترض أن يكون لوح الراية الحمراء على الأقل ثُمن ميل إضافيًا قبل الماكينة الآلية القادمة. هذا يبدو وكأنه مسافة طويلة جدا. يفترض المرء على الرغم من أن هذا كان منطقيًا وفيرًا في تلك الأيام. قد تكون الأصوات المذهلة للمحرك وربما مجرد رؤية السيارة كافية لإثارة قلق الحيوانات. تتطلب بعض قوانين العلم الأحمر في تلك الحقبة أيضًا إبقاء الضوء الأحمر الساطع عالياً أثناء الليل بحيث يمكن رؤية تحذير احترازي أحمر مرئي من مسافة مظلمة.

بشكل عام ، أعتقد أنه من الإنصاف التأكيد على أننا كمجتمع نميل إلى ربط العلم الأحمر كنوع من الإشارات أو اللافتات التي تشير إلى احتمال وجود خطأ ما أو على الأقل يحتاج إلى اهتمامنا المخلص.

استعد قليلاً من الالتواء على ظاهرة العلم الأحمر.

هناك حجة مطروحة مفادها أننا يجب أن نطلب أحكام العلم الأحمر عندما يتعلق الأمر بالذكاء الاصطناعي (AI).

هذا مفهوم مذهل بعض الشيء ومدهشًا يؤدي إلى خدش العديد من الرؤوس. قد تكون في حيرة من أمر كيف أو لماذا يجب أن يكون هناك ما يسمى قوانين العلم الأحمر للذكاء الاصطناعي. يرجى ملاحظة أنني أصنف هذا على أنه قوانين Red Flag AI للتمييز بين هذه المسألة وقوانين المرور ذات العلم الأحمر (مثل تلك التي كانت في أواخر القرن التاسع عشر) وأيضًا لتمييزها عن قوانين مسدس العلم الأحمر الأخرى الأكثر انتشارًا اليوم.

هل نحن بحاجة فعلاً إلى قوانين الذكاء الاصطناعي ذات العلم الأحمر التي تركز بشكل واضح وموجه فقط على مسائل الذكاء الاصطناعي؟

أولئك الذين يفضلون النهج المقترح سيصرون على أننا بحاجة ماسة إلى أحكام قانونية من شأنها أن تساعد في تضييق الخناق على الذكاء الاصطناعي الذي يحتوي على تحيزات لا داعي لها وتتصرف بطرق تمييزية. في الوقت الحالي ، يشبه بناء الذكاء الاصطناعي ونشره ظروف أي شيء يسير في الغرب المتوحش. تعتمد الجهود المبذولة لكبح جماح الذكاء الاصطناعي السيئ حاليًا على صياغة واعتماد المبادئ التوجيهية لأخلاقيات الذكاء الاصطناعي. للاطلاع على تغطيتي المستمرة والواسعة لأخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي ، انظر الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

يتم وضع القوانين الموجودة في هذا الإطار في منظمة العفو الدولية السيئة وسنها ببطء ، انظر تغطيتي في الرابط هنا. يشعر البعض بالقلق من أن المشرعين لا يتقدمون بالسرعة الكافية. يبدو أن بوابات الفيضان التي تسمح بتعزيز الذكاء الاصطناعي المتحيز في العالم مفتوحة إلى حد كبير في الوقت الحالي. يقول Hand-wringing إنه بحلول الوقت الذي تدخل فيه القوانين الجديدة إلى الكتب ، سيكون الجني الشرير قد خرج بالفعل من القمقم.

ليس بهذه السرعة ، تذهب الحجج المضادة. هناك مخاوف من أنه إذا تم وضع القوانين بسرعة كبيرة ، فسنقتل الأوزة الذهبية ، كما كانت ، حيث ستتلاشى جهود الذكاء الاصطناعي ولن نحصل على الفوائد المعززة اجتماعيًا لأنظمة الذكاء الاصطناعي الجديدة. قد يشعر مطورو الذكاء الاصطناعي والشركات الراغبة في استخدام الذكاء الاصطناعي بالفزع إذا تم وضع مجموعة بيزنطية من القوانين الجديدة التي تحكم الذكاء الاصطناعي فجأة على المستويات الفيدرالية والولائية والمحلية ، ناهيك عن القوانين الدولية المتعلقة بالذكاء الاصطناعي التي تمضي قدمًا أيضًا.

في هذه القضية الفوضوية تأتي الدعوة إلى قوانين العلم الأحمر للذكاء الاصطناعي.

قبل الدخول في مزيد من اللحوم والبطاطس حول الاعتبارات البرية والصوفية التي يقوم عليها قانون العلم الأحمر للذكاء الاصطناعي ، دعنا نضع بعض الأساسيات الإضافية حول الموضوعات الأساسية للغاية. نحن بحاجة إلى الغوص لفترة وجيزة في أخلاقيات الذكاء الاصطناعي وخاصة ظهور التعلم الآلي (ML) والتعلم العميق (DL).

قد تكون مدركًا بشكل غامض أن أحد أعلى الأصوات هذه الأيام في مجال الذكاء الاصطناعي وحتى خارج مجال الذكاء الاصطناعي يتكون من المطالبة بمظهر أشبه بالذكاء الاصطناعي الأخلاقي. دعونا نلقي نظرة على معنى الإشارة إلى أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي. علاوة على ذلك ، سوف نستكشف ما أعنيه عندما أتحدث عن التعلم الآلي والتعلم العميق.

يتكون جزء أو جزء معين من أخلاقيات الذكاء الاصطناعي الذي حظي بالكثير من اهتمام وسائل الإعلام من الذكاء الاصطناعي الذي يُظهر تحيزات وأوجه عدم مساواة غير مرغوب فيها. قد تدرك أنه عندما بدأ العصر الأخير للذكاء الاصطناعي ، كان هناك اندفاع هائل من الحماس لما يسميه البعض الآن منظمة العفو الدولية من أجل الخير. لسوء الحظ ، في أعقاب تلك الإثارة المتدفقة ، بدأنا نشهد منظمة العفو الدولية للسوء. على سبيل المثال ، تم الكشف عن العديد من أنظمة التعرف على الوجه القائمة على الذكاء الاصطناعي على أنها تحتوي على تحيزات عنصرية وتحيزات بين الجنسين ، والتي ناقشتها في الرابط هنا.

جهود للقتال ضد منظمة العفو الدولية للسوء بنشاط جارية. إلى جانب صاخبة السياسات مساعي كبح جماح المخالفات ، هناك أيضًا دافع جوهري نحو تبني أخلاقيات الذكاء الاصطناعي لتصحيح ضعف الذكاء الاصطناعي. الفكرة هي أننا يجب أن نتبنى ونصادق على المبادئ الأخلاقية الرئيسية للذكاء الاصطناعي لتطوير الذكاء الاصطناعي وإدخاله في الميدان لتقويض منظمة العفو الدولية للسوء والتبشير والترويج في الوقت نفسه لما هو مفضل منظمة العفو الدولية من أجل الخير.

فيما يتعلق بمفهوم ذي صلة ، أنا من المدافعين عن محاولة استخدام الذكاء الاصطناعي كجزء من حل مشاكل الذكاء الاصطناعي ، ومكافحة النيران بالنار بهذه الطريقة من التفكير. قد نقوم على سبيل المثال بتضمين المكونات الأخلاقية للذكاء الاصطناعي في نظام ذكاء اصطناعي يراقب كيفية قيام بقية الذكاء الاصطناعي بالأشياء ، وبالتالي من المحتمل أن نكتشف في الوقت الفعلي أي جهود تمييزية ، انظر نقاشي في الرابط هنا. يمكن أن يكون لدينا أيضًا نظام ذكاء اصطناعي منفصل يعمل كنوع من أجهزة مراقبة أخلاقيات الذكاء الاصطناعي. يعمل نظام الذكاء الاصطناعي كمشرف لتتبع واكتشاف متى يدخل ذكاء اصطناعي آخر في الهاوية غير الأخلاقية (انظر تحليلي لهذه القدرات في الرابط هنا).

بعد قليل ، سوف أشارككم بعض المبادئ الشاملة التي تقوم عليها أخلاقيات الذكاء الاصطناعي. هناك الكثير من هذه الأنواع من القوائم التي تطفو هنا وهناك. يمكنك القول أنه لا توجد حتى الآن قائمة فردية للنداء والتوافق العالميين. هذه هي الأخبار المؤسفة. الخبر السار هو أن هناك على الأقل قوائم أخلاقيات الذكاء الاصطناعي متاحة بسهولة وتميل إلى أن تكون متشابهة تمامًا. أخيرًا ، يشير هذا إلى أنه من خلال شكل من أشكال التقارب المنطقي ، فإننا نجد طريقنا نحو قواسم مشتركة عامة لما تتكون منه أخلاقيات الذكاء الاصطناعي.

أولاً ، دعنا نغطي بإيجاز بعض المبادئ الأخلاقية الشاملة للذكاء الاصطناعي لتوضيح ما يجب أن يكون اعتبارًا حيويًا لأي شخص يقوم بصياغة أو استخدام أو استخدام الذكاء الاصطناعي.

على سبيل المثال ، كما صرح الفاتيكان في دعوة روما لأخلاقيات الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • الشفافية: من حيث المبدأ ، يجب أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير
  • إدراجه: يجب أن تؤخذ احتياجات جميع البشر في الاعتبار حتى يستفيد الجميع ، ويمكن لجميع الأفراد توفير أفضل الظروف الممكنة للتعبير عن أنفسهم وتطويرهم.
  • المسئولية: يجب على أولئك الذين يصممون وينشرون استخدام الذكاء الاصطناعي أن يتابعوا المسؤولية والشفافية
  • النزاهة: لا تخلق أو تتصرف على أساس التحيز ، وبالتالي الحفاظ على العدالة والكرامة الإنسانية
  • الموثوقية: يجب أن تكون أنظمة الذكاء الاصطناعي قادرة على العمل بشكل موثوق
  • الأمن والخصوصية: يجب أن تعمل أنظمة الذكاء الاصطناعي بشكل آمن وتحترم خصوصية المستخدمين.

كما صرحت وزارة الدفاع الأمريكية (DoD) في المبادئ الأخلاقية لاستخدام الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • مسؤول: سوف يمارس موظفو وزارة الدفاع مستويات مناسبة من الحكم والرعاية مع الاستمرار في المسؤولية عن تطوير ونشر واستخدام قدرات الذكاء الاصطناعي.
  • العادل: ستتخذ الإدارة خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي.
  • تعقبها: سيتم تطوير ونشر قدرات الذكاء الاصطناعي في الإدارة بحيث يمتلك الموظفون المعنيون فهمًا مناسبًا للتكنولوجيا وعمليات التطوير والأساليب التشغيلية المطبقة على قدرات الذكاء الاصطناعي ، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق ومصادر البيانات وإجراءات التصميم والتوثيق.
  • موثوق: سيكون لإمكانيات الذكاء الاصطناعي في الإدارة استخدامات واضحة ومحددة جيدًا ، وستخضع سلامة وأمن وفعالية هذه القدرات للاختبار والتأكيد ضمن تلك الاستخدامات المحددة عبر دورات حياتها بأكملها.
  • للحكم: ستقوم الإدارة بتصميم وهندسة قدرات الذكاء الاصطناعي للوفاء بالوظائف المقصودة مع امتلاك القدرة على اكتشاف وتجنب العواقب غير المقصودة ، والقدرة على فك أو إلغاء تنشيط الأنظمة المنشورة التي تظهر سلوكًا غير مقصود.

لقد ناقشت أيضًا العديد من التحليلات الجماعية للمبادئ الأخلاقية للذكاء الاصطناعي ، بما في ذلك تغطية مجموعة ابتكرها باحثون قاموا بفحص وتكثيف جوهر العديد من مبادئ أخلاقيات الذكاء الاصطناعي الوطنية والدولية في ورقة بعنوان "المشهد العالمي لإرشادات أخلاقيات الذكاء الاصطناعي" (تم نشره) في الطبيعة) ، وأن تغطيتي تستكشف في الرابط هنا، مما أدى إلى هذه القائمة الأساسية:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

كما قد تخمن بشكل مباشر ، فإن محاولة تحديد التفاصيل التي تقوم عليها هذه المبادئ قد يكون صعبًا للغاية. والأكثر من ذلك ، فإن الجهد المبذول لتحويل هذه المبادئ العريضة إلى شيء ملموس ومفصل تمامًا بما يكفي لاستخدامه عند صياغة أنظمة الذكاء الاصطناعي يعد أيضًا من الصعب كسرها. من السهل بشكل عام القيام ببعض التلويح اليدوي حول ماهية مبادئ أخلاقيات الذكاء الاصطناعي وكيف ينبغي مراعاتها بشكل عام ، في حين أنه وضع أكثر تعقيدًا في ترميز الذكاء الاصطناعي يجب أن يكون المطاط الحقيقي الذي يلبي الطريق.

يجب استخدام مبادئ أخلاقيات الذكاء الاصطناعي من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف. يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. كما ذكرنا سابقًا ، فإن الأمر يتطلب قرية لابتكار واستخدام الذكاء الاصطناعي ، ومن أجل ذلك يجب أن تكون القرية بأكملها على دراية بمبادئ أخلاقيات الذكاء الاصطناعي والالتزام بها.

دعنا نتأكد أيضًا من أننا على نفس الصفحة حول طبيعة الذكاء الاصطناعي اليوم.

لا يوجد أي ذكاء اصطناعي واعي اليوم. ليس لدينا هذا. لا نعرف ما إذا كان الذكاء الاصطناعي الواعي سيكون ممكنًا. لا أحد يستطيع أن يتنبأ بجدارة بما إذا كنا سنحقق ذكاءً اصطناعيًا واعيًا ، ولا ما إذا كان الذكاء الاصطناعي الواعي سينشأ بطريقة ما بأعجوبة تلقائيًا في شكل مستعر أعظم معرفي حسابي (يشار إليه عادةً باسم التفرد ، انظر تغطيتي في الرابط هنا).

نوع الذكاء الاصطناعي الذي أركز عليه يتكون من الذكاء الاصطناعي غير الواعي الذي لدينا اليوم. إذا أردنا التكهن بشدة حساس الذكاء الاصطناعي ، يمكن أن تسير هذه المناقشة في اتجاه مختلف جذريًا. من المفترض أن يكون الذكاء الاصطناعي الواعي ذا جودة بشرية. ستحتاج إلى اعتبار أن الذكاء الاصطناعي الواعي هو المكافئ المعرفي للإنسان. أكثر من ذلك ، نظرًا لأن البعض يتوقع أن يكون لدينا ذكاء اصطناعي فائق الذكاء ، فمن المتصور أن مثل هذا الذكاء الاصطناعي يمكن أن يصبح أكثر ذكاءً من البشر (لاستكشافي للذكاء الاصطناعي الفائق كإمكانية ، انظر التغطية هنا).

دعونا نحافظ على الأمور أكثر واقعية ونفكر في الذكاء الاصطناعي غير الحسابي اليوم.

ندرك أن الذكاء الاصطناعي اليوم غير قادر على "التفكير" بأي شكل من الأشكال على قدم المساواة مع التفكير البشري. عندما تتفاعل مع Alexa أو Siri ، قد تبدو قدرات المحادثة شبيهة بالقدرات البشرية ، لكن الحقيقة هي أنها حسابية وتفتقر إلى الإدراك البشري. استفاد العصر الأخير من الذكاء الاصطناعي بشكل مكثف من التعلم الآلي (ML) والتعلم العميق (DL) ، مما يعزز مطابقة الأنماط الحسابية. وقد أدى ذلك إلى ظهور أنظمة ذكاء اصطناعي تبدو وكأنها ميول شبيهة بالإنسان. وفي الوقت نفسه ، لا يوجد أي ذكاء اصطناعي اليوم يشبه الفطرة السليمة وليس لديه أي من التعجب المعرفي للتفكير البشري القوي.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين يتخذون نمطًا بناءً على القرارات قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق خفية ولكنها مهمة. سيحاول التعلم الآلي أو مطابقة الأنماط الحسابية للتعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة المصممة بالذكاء الاصطناعي في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة في ML / DL من الصعب اكتشاف التحيزات الخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا أكثر تعقيدًا مما قد يبدو. توجد فرصة قوية أنه حتى مع إجراء اختبارات مكثفة نسبيًا ، لا تزال هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

يمكنك إلى حد ما استخدام القول المأثور الشهير أو سيئ السمعة من القمامة في القمامة. الشيء هو ، هذا أقرب إلى التحيزات - التي يتم غرسها بشكل خبيث على أنها تحيزات مغمورة داخل الذكاء الاصطناعي. تصبح عملية اتخاذ القرار الخوارزمية (ADM) للذكاء الاصطناعي بشكل بديهي محملة بعدم المساواة.

غير جيد.

دعنا نعود إلى تركيزنا على قوانين العلم الأحمر للذكاء الاصطناعي.

المفهوم الأساسي هو أن الناس سيكونون قادرين على رفع علم أحمر كلما اعتقدوا أن نظام ذكاء اصطناعي يعمل بطريقة متحيزة أو تمييزية بلا داع. لن ترفع علمًا ماديًا في حد ذاته ، وبدلاً من ذلك ستستخدم بعض الوسائل الإلكترونية للتعبير عن مخاوفك. جزء العلم الأحمر من المخطط أو النهج هو أكثر من مجرد استعارة من تجسيد مادي.

افترض أنك تقدمت بطلب للحصول على قرض سكني. أنت تختار استخدام خدمة مصرفية عبر الإنترنت لتقديم طلب للحصول على قرض. بعد إدخال بعض البيانات الشخصية ، تنتظر للحظة نظام الذكاء الاصطناعي الذي يتم استخدامه لتقرير ما إذا كنت تستحق القرض أم لا. يخبرك الذكاء الاصطناعي أنه قد تم رفض القرض. عند طلب تفسير سبب الرفض ، يبدو أن السرد النصي يوحي لك بأن الذكاء الاصطناعي كان يستخدم عوامل منحازة لا داعي لها كجزء من خوارزمية اتخاذ القرار.

حان الوقت لرفع العلم الأحمر حول الذكاء الاصطناعي.

أين بالضبط سوف يلوح هذا العلم الأحمر؟

هذا سؤال مليون دولار.

تتمثل إحدى وجهات النظر في أنه يجب علينا إنشاء قاعدة بيانات وطنية تسمح للأشخاص بوضع علامات التحذير المتعلقة بالذكاء الاصطناعي. يقول البعض أن هذا يجب أن تنظمه الحكومة الفيدرالية. ستكون الوكالات الفيدرالية مسؤولة عن فحص الأعلام الحمراء وتقديم المساعدة لعامة الناس فيما يتعلق بالصدق والتعامل مع "الذكاء الاصطناعي السيئ" المفترض الذي أذكى الإبلاغ عن التقارير الحمراء.

يبدو أن الكونجرس سيضع قانونًا وطنيًا للعلم الأحمر للذكاء الاصطناعي. سيوضح القانون ماهية العلم الأحمر المتعلق بالذكاء الاصطناعي. سيصف القانون كيف يتم رفع هذه الأعلام الحمراء المزعجة للذكاء الاصطناعي. وهلم جرا. قد يكون الأمر كذلك أن الدول الفردية قد تختار أيضًا صياغة قوانين الذكاء الاصطناعي الخاصة بها. ربما يفعلون ذلك بدلاً من مبادرة وطنية ، أو يفعلون ذلك لتضخيم التفاصيل التي تروق بشكل خاص لدولتهم المحددة.

قد يجادل منتقدو برنامج Red Flag AI المدعوم من الحكومة أو الفيدرالي بأن هذا شيء يمكن أن تفعله الصناعة الخاصة ولا نحتاج إلى ظهور الأخ الأكبر في المقدمة. يمكن أن تنشئ الصناعة مستودعًا عبر الإنترنت يمكن للناس فيه تسجيل العلامات الحمراء حول أنظمة الذكاء الاصطناعي. إن عمل الشرطة الذاتية من قبل الصناعة من شأنه أن يتعامل بشكل كاف مع هذه القضايا.

هناك قلق بشأن نهج الصناعة المزعوم وهو أنه يبدو وكأنه نفحة من المحسوبية. هل ستكون الشركات على استعداد للالتزام ببعض قاعدة بيانات Red Flag AI التي يديرها القطاع الخاص؟ من المحتمل أن تتجاهل العديد من الشركات العلامات الحمراء المميزة حول الذكاء الاصطناعي الخاص بها. لن تكون هناك أسنان حادة في حمل الشركات على التعامل مع العلامات الحمراء التي تم إدخالها.

مرحبًا ، يبدو أن مؤيدي نهج القطاع الخاص بعيدون ، سيكون هذا أقرب إلى خدمة شبيهة بخدمة Yelp الوطنية. يمكن للمستهلكين أن ينظروا إلى العلامات الحمراء ويقرروا بأنفسهم ما إذا كانوا يريدون التعامل مع الشركات التي رفعت عددًا كبيرًا من الأعلام الحمراء الموجهة للذكاء الاصطناعي. سيتعين على البنك الذي كان يتلقى أطنانًا من الأعلام الحمراء بشأن الذكاء الاصطناعي الخاص به أن ينتبه ويطور أنظمة الذكاء الاصطناعي الخاصة به ، لذلك يذهب المنطق ، وإلا سيتجنب المستهلكون الشركة مثل الطاعون.

ما إذا كان هذا النهج برمته قد تم من قبل الحكومة أو من قبل الصناعة هو مجرد غيض من فيض حول الأسئلة الشائكة التي تواجه فرضية قوانين العلم الأحمر للذكاء الاصطناعي المقترحة.

ضع نفسك في مكان شركة طورت أو تستخدم الذكاء الاصطناعي. يمكن أن يرفع المستهلكون الرايات الحمراء على الرغم من عدم وجود أساس قابل للتطبيق للقيام بذلك. إذا كان بإمكان الأشخاص نشر علم أحمر بشأن الذكاء الاصطناعي بحرية ، فقد يميلون إلى القيام بذلك لمجرد نزوة ، أو ربما للانتقام من شركة لم تفعل شيئًا خاطئًا تجاه المستهلك.

باختصار ، يمكن أن يكون هناك الكثير من الإشارات الحمراء الإيجابية الخاطئة حول الذكاء الاصطناعي.

هناك اعتبار آخر وهو الحجم الهائل أو حجم الأعلام الحمراء الناتجة. يمكن بسهولة رفع الملايين والملايين من الأعلام الحمراء. من الذي سيتابع كل تلك العلامات الحمراء؟ ما هي التكلفة للقيام بذلك؟ من سيدفع ثمن جهود متابعة العلم الأحمر؟ إلخ.

إذا كنت ستقول إن أي شخص يقوم بالتسجيل أو الإبلاغ عن علامة حمراء حول الذكاء الاصطناعي يجب أن يدفع رسومًا ، فقد دخلت في عالم غامض وماكر. قد يكون القلق هو أن الأثرياء فقط هم من يستطيعون رفع الأعلام الحمراء. وهذا بدوره يعني أن الفقراء لن يكونوا قادرين على المشاركة على قدم المساواة في أنشطة العلم الأحمر وليس لديهم مكانًا للتحذير من الذكاء الاصطناعي المعاكس.

هناك تطور إضافي إضافي في الوقت الحالي ، وهو أن هذا النوع من قوانين أو إرشادات العلم الأحمر حول الذكاء الاصطناعي يبدو أنه يلاحق الحقيقة بدلاً من أن يكون بمثابة تحذير مسبقًا.

بالعودة إلى قوانين حركة العلم الأحمر ، كان التركيز على استخدام العلم الأحمر لتجنب وقوع كارثة في البداية. كان من المفترض أن يكون المتلألئ الأحمر متقدمًا على السيارة القادمة. من خلال التواجد أمام السيارة ، سيتم تنبيه الماشية وأولئك الذين يحرسون الماشية سيعرفون أنه يجب عليهم اتخاذ الاحتياطات بسبب المصدر المقلق الذي سيصل قريبًا.

إذا كان الناس قادرين فقط على رفع علم أحمر حول الذكاء الاصطناعي الذي يبدو أنه قد أضر بالفعل أو ينتقص من حقوقهم ، فإن الحصان الذي يضرب به المثل قد خرج بالفعل من الحظيرة. كل ما يبدو أنه يحققه هو أنه من المأمول أن يعرف الأشخاص الآخرون الذين يأتون معنا الآن أنهم حذرون من نظام الذكاء الاصطناعي هذا. وفي غضون ذلك ، فإن الشخص الذي يُزعم أنه تعرض للظلم قد عانى بالفعل.

يقترح البعض أنه ربما يمكننا السماح للأشخاص برفع الأعلام الحمراء حول الذكاء الاصطناعي مشتبه فيه قد يكون متحيزًا ، حتى لو لم يستخدموا الذكاء الاصطناعي ولم يتأثروا بشكل مباشر بالذكاء الاصطناعي. وبالتالي ، يتم تلويح العلم الأحمر قبل حدوث الضرر.

عذرًا ، ستجعل حقًا الأعلام الحمراء للتعامل مع الذكاء الاصطناعي في قضية فوضوية لا يمكن السيطرة عليها تمامًا. إذا تمكن أي شخص لأي سبب من الأسباب من رفع علامة حمراء بشأن نظام ذكاء اصطناعي ، على الرغم من عدم القيام بأي شيء على الإطلاق باستخدام هذا الذكاء الاصطناعي ، فسوف تغمرك الأعلام الحمراء. والأسوأ من ذلك أنك لن تتمكن من تمييز القشر عن القشر. سينهار نهج العلم الأحمر بأكمله تحت ثقله ، مما يؤدي إلى القضاء على جودة الفكرة من خلال السماح لـ flotsam و riffraff بإغراق السفينة بأكملها.

مذهل ومربك.

في هذه المرحلة من هذه المناقشة المهمة ، أراهن أنك ترغب في بعض الأمثلة التوضيحية التي قد تعرض هذا الموضوع. هناك مجموعة خاصة وشعبية بالتأكيد من الأمثلة القريبة من قلبي. كما ترى ، بصفتي خبيرًا في الذكاء الاصطناعي بما في ذلك التداعيات الأخلاقية والقانونية ، يُطلب مني كثيرًا تحديد أمثلة واقعية تعرض معضلات أخلاقيات الذكاء الاصطناعي بحيث يمكن فهم الطبيعة النظرية إلى حد ما للموضوع بسهولة أكبر. واحدة من أكثر المجالات إثارة للذكريات التي تقدم بوضوح هذا المأزق الأخلاقي للذكاء الاصطناعي هو ظهور سيارات ذاتية القيادة حقيقية قائمة على الذكاء الاصطناعي. سيكون هذا بمثابة حالة استخدام مفيدة أو نموذجًا لمناقشة مستفيضة حول هذا الموضوع.

إليك إذن سؤال جدير بالملاحظة يستحق التفكير فيه: هل يبرز ظهور السيارات ذاتية القيادة الحقيقية القائمة على الذكاء الاصطناعي أي شيء عن قوانين Red Flag AI ، وإذا كان الأمر كذلك ، فما الذي يعرضه هذا؟

اسمح لي بلحظة لفك السؤال.

أولاً ، لاحظ أنه لا يوجد سائق بشري متورط في سيارة حقيقية ذاتية القيادة. ضع في اعتبارك أن السيارات الحقيقية ذاتية القيادة يتم قيادتها عبر نظام قيادة بالذكاء الاصطناعي. ليست هناك حاجة لسائق بشري على عجلة القيادة ، ولا يوجد شرط لقيادة الإنسان للسيارة. لتغطيتي الواسعة والمستمرة للمركبات ذاتية القيادة (AVs) وخاصة السيارات ذاتية القيادة ، انظر الرابط هنا.

أود أن أوضح ما هو المقصود عندما أشير إلى السيارات الحقيقية ذاتية القيادة.

فهم مستويات السيارات ذاتية القيادة

للتوضيح ، السيارات الحقيقية ذاتية القيادة هي تلك التي يقود فيها الذكاء الاصطناعي السيارة بالكامل من تلقاء نفسه ولا توجد أي مساعدة بشرية أثناء مهمة القيادة.

تعتبر هذه المركبات ذاتية القيادة من المستوى 4 والمستوى 5 (انظر الشرح في هذا الرابط هنا) ، في حين أن السيارة التي تتطلب سائقًا بشريًا للمشاركة في جهد القيادة يتم اعتبارها عادةً في المستوى 2 أو المستوى 3. يتم وصف السيارات التي تشارك في مهمة القيادة بأنها شبه مستقلة ، وتحتوي عادةً على مجموعة متنوعة من الوظائف الإضافية المؤتمتة التي يشار إليها باسم ADAS (أنظمة مساعدة السائق المتقدمة).

لا توجد حتى الآن سيارة ذاتية القيادة حقيقية في المستوى الخامس ، ولا نعرف حتى الآن ما إذا كان من الممكن تحقيق ذلك ، ولا كم من الوقت سيستغرق الوصول إليه.

وفي الوقت نفسه ، تحاول جهود المستوى 4 تدريجياً الحصول على بعض الجاذبية من خلال الخضوع لتجارب طرق عامة ضيقة للغاية وانتقائية ، على الرغم من وجود جدل حول ما إذا كان يجب السماح بهذا الاختبار في حد ذاته (نحن جميعًا حيوانات تجارب حياة أو موت في التجربة التي تجري على طرقنا السريعة والطرق الفرعية ، يدعي البعض ، انظر تغطيتي في هذا الرابط هنا).

نظرًا لأن السيارات شبه المستقلة تتطلب سائقًا بشريًا ، فإن اعتماد هذه الأنواع من السيارات لن يكون مختلفًا بشكل ملحوظ عن قيادة المركبات التقليدية ، لذلك لا يوجد الكثير في حد ذاته لتغطية هذه المواضيع (على الرغم من ذلك ، كما سترى في لحظة ، النقاط التالية تنطبق بشكل عام).

بالنسبة للسيارات شبه المستقلة ، من المهم أن يتم تحذير الجمهور بشأن جانب مزعج ظهر مؤخرًا ، أي أنه على الرغم من هؤلاء السائقين البشر الذين يستمرون في نشر مقاطع فيديو لأنفسهم ينامون على عجلة سيارة من المستوى 2 أو المستوى 3 علينا جميعًا أن نتجنب التضليل حتى نصدق أن السائق يمكنه أن يلفت انتباهه عن مهمة القيادة أثناء قيادة سيارة شبه مستقلة.

أنت الطرف المسؤول عن إجراءات القيادة في السيارة ، بغض النظر عن مقدار الأتمتة التي قد يتم قذفها في المستوى 2 أو المستوى 3.

السيارات ذاتية القيادة وقوانين الذكاء الاصطناعي ذات العلم الأحمر

بالنسبة للمركبات ذاتية القيادة الحقيقية من المستوى 4 والمستوى 5 ، لن يكون هناك سائق بشري يشارك في مهمة القيادة.

سيكون جميع الركاب من الركاب.

تقوم منظمة العفو الدولية بالقيادة.

أحد الجوانب التي يجب مناقشتها على الفور يستلزم حقيقة أن الذكاء الاصطناعي المتضمن في أنظمة قيادة الذكاء الاصطناعي اليوم ليس واعيًا. بعبارة أخرى ، الذكاء الاصطناعي عبارة عن مجموعة من البرمجة والخوارزميات المستندة إلى الكمبيوتر ، وهو بالتأكيد غير قادر على التفكير بنفس الطريقة التي يستطيع بها البشر.

لماذا هذا التركيز الإضافي على الذكاء الاصطناعي ليس واعيا؟

لأنني أريد أن أؤكد أنه عند مناقشة دور نظام القيادة للذكاء الاصطناعي ، فأنا لا أنسب الصفات البشرية للذكاء الاصطناعي. يرجى العلم أن هناك اتجاهًا مستمرًا وخطيرًا هذه الأيام لتجسيد الذكاء الاصطناعي. من حيث الجوهر ، يخصص الناس ذكاءً شبيهاً بالإنسان إلى الذكاء الاصطناعي اليوم ، على الرغم من الحقيقة التي لا يمكن إنكارها والتي لا جدال فيها وهي عدم وجود مثل هذا الذكاء الاصطناعي حتى الآن.

مع هذا التوضيح ، يمكنك أن تتخيل أن نظام القيادة بالذكاء الاصطناعي لن "يعرف" بطريقة أو بأخرى جوانب القيادة. القيادة وكل ما تتطلبه يجب برمجتها كجزء من أجهزة وبرامج السيارة ذاتية القيادة.

دعونا نتعمق في عدد لا يحصى من الجوانب التي تأتي للعب في هذا الموضوع.

أولاً ، من المهم أن ندرك أنه ليست كل سيارات الذكاء الاصطناعي ذاتية القيادة هي نفسها. تتبنى كل شركة تصنيع سيارات وشركة تقنية ذاتية القيادة نهجها في ابتكار سيارات ذاتية القيادة. على هذا النحو ، من الصعب الإدلاء ببيانات شاملة حول ما ستفعله أو لا تفعله أنظمة القيادة بالذكاء الاصطناعي.

علاوة على ذلك ، عندما يذكر أن نظام القيادة بالذكاء الاصطناعي لا يفعل شيئًا معينًا ، يمكن ، لاحقًا ، تجاوز هذا الأمر من قبل المطورين الذين يقومون في الواقع ببرمجة الكمبيوتر للقيام بهذا الشيء بالذات. خطوة بخطوة ، يتم تحسين أنظمة القيادة بالذكاء الاصطناعي وتوسيعها تدريجياً. قد لا يوجد قيد موجود اليوم في تكرار أو إصدار مستقبلي من النظام.

آمل أن يوفر ذلك مجموعة كافية من المحاذير لإبراز ما أنا على وشك ربطه.

دعنا نرسم سيناريو قد يستفيد من قانون العلم الأحمر للذكاء الاصطناعي.

تدخل في سيارة ذاتية القيادة قائمة على الذكاء الاصطناعي وترغب في أن تقودك السيارة المستقلة إلى متجر البقالة المحلي. خلال الرحلة القصيرة نسبيًا ، يتخذ الذكاء الاصطناعي طريقًا يبدو لك أنه خاطئ إلى حد ما. بدلاً من السير بالطريقة الأكثر مباشرة ، يتنقل الذكاء الاصطناعي إلى الشوارع البعيدة مما يتسبب في زيادة وقت القيادة عن المعتاد.

ما الذي يجري؟

بافتراض أنك تدفع مقابل استخدام السيارة ذاتية القيادة ، فقد تشك في أن الذكاء الاصطناعي قد تمت برمجته لقيادة طريق أطول لمحاولة دفع أجرة أو تكلفة الرحلة. يعرف أي شخص سبق له أن أخذ سيارة أجرة تقليدية يقودها الإنسان بالخدعة التي يمكن أن تحدث للحصول على المزيد من العجين على العداد. بالطبع ، مع وجود الأشخاص الذين لديهم نظام تحديد المواقع العالمي (GPS) على هواتفهم الذكية أثناء ركوب سيارة أجرة أو ما يعادلها ، يمكنك بسهولة اللحاق بسائق بشري يبدو أنه يسلك طرقًا طويلة بشكل غير ضروري.

تبين أن لديك قلقًا آخر بشأن اختيار المسار ، وهو أمر يقضمك حقًا.

لنفترض أن التوجيه قد تم لتجنب أجزاء معينة من المدينة بسبب الجوانب العرقية. هناك حالات موثقة لسائقين بشريين تم ضبطهم وهم يتخذون هذه الأنواع من الخيارات ، انظر نقاشي في الرابط هنا. ربما تمت برمجة الذكاء الاصطناعي بشكل عكسي.

قررت رفع العلم الأحمر.

دعنا نفترض من أجل المناقشة أنه تم سن قانون العلم الأحمر للذكاء الاصطناعي الذي يغطي ولايتك القضائية. قد يكون القانون المحلي أو قانون الولاية أو القانون الفيدرالي أو القانون الدولي. للحصول على تحليل شاركت في تأليفه مع مبادرة سياسة المركبات ذاتية القيادة (AVPI) بجامعة هارفارد حول الأهمية المتزايدة للقيادة المحلية عندما تتبنى المجتمعات استخدام السيارات ذاتية القيادة ، انظر الرابط هنا.

لذلك ، تذهب عبر الإنترنت إلى قاعدة بيانات Red Flag AI. في قاعدة بيانات الحوادث ، تقوم بإدخال المعلومات الخاصة برحلة السيارة ذاتية القيادة. يتضمن ذلك تاريخ ووقت رحلة القيادة ، إلى جانب العلامة التجارية وطراز السيارة ذاتية القيادة. ثم تدخل المسار الملاحي الذي بدا أنه مريب ، وتقترح أو ربما تدعي صراحة أن الذكاء الاصطناعي قد تم تصميمه بقصد وقدرات متحيزة أو تمييزية.

سيتعين علينا التكهن بالتفاصيل الأخرى لقانون العلم الأحمر للذكاء الاصطناعي فيما يتعلق بما سيحدث بعد ذلك في هذا السيناريو المحدد. من الناحية النظرية ، سيكون هناك حكم لشخص ما لمراجعة العلم الأحمر. من المفترض أن يسعوا للحصول على شركة صناعة السيارات أو شركة التكنولوجيا ذاتية القيادة لتوضيح وجهة نظرهم على العلم الأحمر المسجل. كم عدد الأعلام الحمراء الأخرى التي تم تسجيلها؟ ما هي النتائج التي أسفرت عنها تلك العلامات الحمراء؟

وهكذا ستذهب.

وفي الختام

بعض المتشككين يحثون على ذلك.

نحن لسنا بحاجة إلى قوانين العلم الأحمر للذكاء الاصطناعي ، فهي تمارس بصرامة. سيؤدي القيام بأي شيء من هذا القبيل إلى إنهاء الأعمال عندما يتعلق الأمر بوتيرة الذكاء الاصطناعي وتقدمه. أي قوانين من هذا القبيل ستكون غير عملية. كنت ستخلق مشكلة لا تحل مشكلة. هناك طرق أخرى سيئة للتعامل مع الذكاء الاصطناعي. لا تمسك القش بشكل أعمى للتعامل مع الذكاء الاصطناعي المتحيز.

عند تغيير التروس ، نعلم جميعًا أن مصارعي الثيران يستخدمون الرؤوس الحمراء لجذب انتباه الثور الغاضب على ما يبدو. على الرغم من أن اللون الأحمر هو اللون الذي نربطه كثيرًا بهذه الممارسة ، فقد تفاجأ بمعرفة أن العلماء يقولون إن الثيران لا تدرك اللون الأحمر للموليتا (فهي مصابة بعمى الألوان عن اللون الأحمر). العرض الشعبي مثبوسترس] أجرى فحصًا ترفيهيًا للغاية لهذه المسألة. حركة الحرملة هي العنصر الأساسي وليس اللون المختار.

بالنسبة لأولئك الذين يتجاهلون الحاجة إلى قوانين Red Flag AI ، فإن الدعوى المضادة هي أننا بحاجة إلى شيء ذي طبيعة تلوح بالدراماتيكية ولا لبس فيها للتأكد من أن مطوري الذكاء الاصطناعي والشركات التي تنشر الذكاء الاصطناعي ستبتعد عن الذكاء الاصطناعي المتحيز أو السيئ. إذا لم يكن الأمر يتعلق بعلم أحمر ، فربما يكون هناك رداء مرفرف أو أي نوع من نهج التنبيه قد يكون ضمن مجال الحصول على الاعتبار الواجب.

نحن نعلم على وجه اليقين أن الذكاء الاصطناعي السيئ موجود وأن المزيد من الذكاء الاصطناعي السيئ سيتجه في اتجاهنا. إن إيجاد طرق لحماية أنفسنا من الذكاء الاصطناعي المعاكس أمر بالغ الأهمية. وبالمثل ، فإن وضع حواجز حماية لمحاولة منع الذكاء الاصطناعي السيئ من الدخول إلى العالم له نفس القدر من الأهمية.

قال إرنست همنغواي الشهير إنه لا أحد يعيش حياته على الإطلاق باستثناء مصارعي الثيران. نحن بحاجة للتأكد من أن البشر يمكن أن يعيشوا حياتهم على طول الطريق ، بغض النظر عن أي سوء أو جنون في الذكاء الاصطناعي ينتشر علينا.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- خوارزميات متحيزة في أنظمة ذكاء اصطناعي مستقلة /