أخلاقيات الذكاء الاصطناعي تثير الصدمة عندما كشف أن تدريب الذكاء الاصطناعي على أن يكون سامًا أو متحيزًا قد يكون مفيدًا ، بما في ذلك تلك السيارات ذاتية القيادة

هذا سطر قديم وأنا متأكد من أنك سمعته من قبل.

لا يعرفه إلا من هو مثله.

قد لا تدرك أن هذا تعبير يمكن إرجاعه إلى أوائل القرن العشرين وكان يتم استدعاؤه عادةً عند الإشارة إلى المخالفين (ترجع الأشكال الأخرى من العبارة الرئيسية إلى القرن السابع عشر). مثال على كيفية استخدام هذا الكلام يستلزم فكرة أنه إذا كنت ترغب في القبض على لص ، فأنت بحاجة إلى استخدام لص للقيام بذلك. يعرض هذا التأكيد على أن المرء يحتاج إلى معرفة واحدة. استفادت العديد من الأفلام والبرامج التلفزيونية من هذا الجزء العملي من الحكمة الحكيمة ، وغالبًا ما تصور أن الوسيلة الوحيدة القابلة للتطبيق للقبض على محتال تستلزم توظيف محتال فاسد بنفس القدر لملاحقة المذنب.

من خلال تغيير التروس ، قد يستفيد البعض من هذا المنطق نفسه للقول بأن الطريقة المناسبة لتمييز ما إذا كان شخص ما يجسد التحيزات غير المبررة والمعتقدات التمييزية هي العثور على شخص لديه بالفعل مثل هذه الميول. من المفترض أن الشخص المليء بالفعل بالتحيزات سيكون قادرًا على الشعور بسهولة أكبر بأن هذا الإنسان الآخر ممتلئ بالمثل حتى أسنانه بالسمية. مرة أخرى ، يتطلب الأمر من المرء أن يعرف أن واحدًا هو المانترا المعلنة.

قد يكون رد فعلك الأولي لإمكانية استخدام شخص متحيز لكشف شخص متحيز آخر هو التشكيك وعدم التصديق. ألا يمكننا معرفة ما إذا كان شخص ما يحمل تحيزات غير مرغوب فيها بمجرد فحصها وعدم الاضطرار إلى اللجوء إلى العثور على شخص آخر من نفس الطبيعة؟ قد يبدو من الغريب أن تسعى عن قصد لاكتشاف شخص متحيز من أجل الكشف عن الآخرين الذين هم أيضًا متحيزون للسموم.

أعتقد أن ذلك يعتمد جزئيًا على ما إذا كنت على استعداد لقبول النغمة المفترضة التي يتطلبها معرفة المرء. لاحظ أن هذا لا يشير إلى أن الطريقة الوحيدة للقبض على السارق تتطلب منك بشكل حصري ودائمًا الاستفادة من اللص. قد يبدو أنك تجادل بشكل معقول بأن هذا مجرد مسار إضافي يمكن إعطاؤه الاعتبار الواجب. ربما تكون في بعض الأحيان على استعداد للاستمتاع بإمكانية استخدام لص للقبض على لص ، في حين أن ظروفًا أخرى قد تجعل هذا تكتيكًا لا يسبر غوره.

استخدم الأداة المناسبة للإعداد الصحيح ، كما يقولون.

الآن بعد أن وضعت تلك الأساسيات ، يمكننا المضي قدمًا في الجزء الذي ربما يكون مخيفًا وصادمًا ظاهريًا من هذه الحكاية.

هل أنت مستعد؟

يسعى مجال الذكاء الاصطناعي بنشاط إلى نفس المبدأ الذي يتطلب أحيانًا معرفة أحدهم ، لا سيما في حالة محاولة اكتشاف الذكاء الاصطناعي المتحيز أو التصرف بطريقة تمييزية. نعم ، الفكرة المحيرة للعقل هي أننا قد نرغب عن قصد في ابتكار ذكاء اصطناعي متحيز وتمييزي بشكل كامل وبدون خجل ، وذلك من أجل استخدام هذا كوسيلة لاكتشاف وكشف وجود ذكاء اصطناعي آخر لديه نفس السمية. كما سترى بعد قليل ، هناك مجموعة متنوعة من قضايا أخلاقيات الذكاء الاصطناعي المزعجة التي تكمن وراء هذه المسألة. للاطلاع على تغطيتي الشاملة المستمرة والشاملة لأخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي ، انظر الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

أعتقد أنه يمكنك التعبير عن هذا الاستخدام للذكاء الاصطناعي السام لملاحقة الذكاء الاصطناعي السام الآخر مثل مفهوم مكافحة النار بالنار (يمكننا استدعاء الكثير من التعبيرات الملطفة والاستعارات التوضيحية لتصوير هذا الموقف). أو ، كما تم التأكيد عليه بالفعل ، قد نشير ببخل إلى التأكيد على أن الأمر يتطلب معرفة المرء.

المفهوم الشامل هو أنه بدلاً من محاولة معرفة ما إذا كان نظام ذكاء اصطناعي معين يحتوي على تحيزات غير مبررة باستخدام الأساليب التقليدية ، ربما يجب أن نسعى إلى استخدام وسائل أقل تقليدية أيضًا. تتمثل إحدى هذه الوسائل غير التقليدية في ابتكار ذكاء اصطناعي يحتوي على أسوأ التحيزات والسميات غير المقبولة اجتماعيًا ، ثم استخدام هذا الذكاء الاصطناعي للمساعدة في توجيه ذكاء اصطناعي آخر لديه نفس ميول الشر.

عندما تفكر في هذا الأمر سريعًا ، فإنه يبدو بالتأكيد منطقيًا تمامًا. يمكننا أن نهدف إلى بناء ذكاء اصطناعي سام إلى أقصى الحدود. ثم يتم استخدام هذا الذكاء الاصطناعي السام لاكتشاف ذكاء اصطناعي آخر له سمية أيضًا. بالنسبة إلى الذكاء الاصطناعي "السيئ" الذي تم الكشف عنه آنذاك ، يمكننا التعامل معه إما بإلغاء السمية والتخلي عن الذكاء الاصطناعي تمامًا (انظر تغطيتي لإزعاج الذكاء الاصطناعي أو تدميره في هذا الرابط هنا) ، أو حبس الذكاء الاصطناعي (انظر تغطيتي لحجز الذكاء الاصطناعي في هذا الرابط هنا) ، أو فعل أي شيء آخر يبدو قابلاً للتطبيق.

الحجة المضادة هي أنه يجب علينا فحص رؤوسنا بأننا نبتكر عن قصد وعن طيب خاطر ذكاءً اصطناعيًا سامًا ومليئًا بالتحيزات. هذا هو آخر شيء يجب أن نفكر فيه على الإطلاق ، وقد يحثه البعض. ركز على جعل الذكاء الاصطناعي يتكون بالكامل من الخير. لا تركز على ابتكار ذكاء اصطناعي به شرور وبقايا التحيزات غير المبررة. فكرة مثل هذا السعي تبدو مثيرة للاشمئزاز بالنسبة للبعض.

هناك المزيد من الهواجس حول هذا المسعى المثير للجدل.

ربما لن تؤدي مهمة ابتكار ذكاء اصطناعي سام إلا إلى تشجيع أولئك الذين يرغبون في صياغة ذكاء اصطناعي قادر على تقويض المجتمع. يبدو الأمر كما لو أننا نقول إن تصنيع ذكاء اصطناعي يحتوي على تحيزات غير مناسبة وغير مرغوب فيه أمر جيد تمامًا. لا تقلق ، لا تردد. نسعى إلى ابتكار ذكاء اصطناعي سام لمحتوى قلبك ، فنحن ننتقل بصوت عالٍ إلى بناة الذكاء الاصطناعي في جميع أنحاء العالم. إنها (غمزة غمزة) كلها باسم الخير.

علاوة على ذلك ، لنفترض أن هذا النوع من الذكاء الاصطناعي السام قد اصطاد. من الممكن أن يتم استخدام الذكاء الاصطناعي وإعادة استخدامه من قبل العديد من منشئي الذكاء الاصطناعي الآخرين. في النهاية ، يتم إخفاء الذكاء الاصطناعي السام داخل جميع أنواع أنظمة الذكاء الاصطناعي. يمكن إجراء تشبيه لابتكار فيروس يقوض الإنسان يهرب من مختبر محكم الإغلاق. الشيء التالي الذي تعرفه هو أن الشيء المرتعش موجود في كل مكان وقد قضينا على أنفسنا.

انتظر للحظة ، سيذهب الرد على هذه الحجج المضادة ، فأنت تهرب من الفوضى مع جميع أنواع الافتراضات المجنونة وغير المدعومة. خذ نفس عميق. هدئ نفسك.

يمكننا أن نجعل الذكاء الاصطناعي سامًا بأمان ونحصره. يمكننا استخدام الذكاء الاصطناعي السام لإيجاد والمساعدة في الحد من الانتشار المتزايد للذكاء الاصطناعي الذي للأسف لديه تحيزات لا داعي لها. أي من هذه التعجبات الجامحة التي لا أساس لها من الصحة والتي لا أساس لها من الصحة هي ردود فعل غير متوقعة محضة ، وهي حماقة للأسف وغباء صريح. لا تحاول التخلص من الطفل بماء الاستحمام ، فأنت محذر.

فكر في الأمر بهذه الطريقة ، كما يجادل المؤيدون. يُعد البناء السليم للذكاء الاصطناعي السام واستخدامه لأغراض البحث والتقييم والتصرف كمحقق للكشف عن أنظمة الذكاء الاصطناعي الأخرى المسيئة اجتماعيًا نهجًا جديرًا ويجب الحصول على اهتزاز عادل عند متابعته. ضع جانبا ردود أفعال الطفح الجلدي. تعال إلى الأرض وانظر إلى هذا بعقلانية. تتجه أعيننا إلى الجائزة ، وهي كشف وإلغاء وفرة أنظمة الذكاء الاصطناعي القائمة على التحيز والتأكد من أننا كمجتمع لا نتغلب عليه بالذكاء الاصطناعي السام.

فترة. نقطة.

هناك العديد من الطرق الأساسية للتعمق في فكرة استخدام الذكاء الاصطناعي السام أو المتحيز لأغراض مفيدة ، بما في ذلك:

  • إعداد مجموعات البيانات التي تحتوي عمدًا على بيانات متحيزة وسامة تمامًا والتي يمكن استخدامها لتدريب الذكاء الاصطناعي فيما يتعلق بما لا يجب فعله و / أو ما يجب مراقبته
  • استخدم مجموعات البيانات هذه لتدريب نماذج التعلم الآلي (ML) والتعلم العميق (DL) حول اكتشاف التحيزات واكتشاف الأنماط الحسابية التي تنطوي على سمية مجتمعية
  • قم بتطبيق ML / DL المدربة على السمية تجاه الذكاء الاصطناعي الآخر للتأكد مما إذا كان الذكاء الاصطناعي المستهدف متحيزًا وسامًا
  • إتاحة ML / DL المدربة على السمية لعرض ما يجب الانتباه إليه لمنشئي الذكاء الاصطناعي حتى يتمكنوا من فحص النماذج بسهولة لمعرفة كيف تنشأ التحيزات المشبعة خوارزميًا
  • قم بتجسيد مخاطر الذكاء الاصطناعي السام كجزء من أخلاقيات الذكاء الاصطناعي والوعي الأخلاقي بالذكاء الاصطناعي ، وكل ذلك تم إخباره من خلال سلسلة نماذج الذكاء الاصطناعي التي تتضمن مشكلة الطفل السيء حتى العظم
  • أخرى

قبل الدخول في تفاصيل هذه المسارات العديدة ، دعنا نضع بعض التفاصيل التأسيسية الإضافية.

قد تكون مدركًا بشكل غامض أن أحد أعلى الأصوات هذه الأيام في مجال الذكاء الاصطناعي وحتى خارج مجال الذكاء الاصطناعي يتكون من المطالبة بمظهر أشبه بالذكاء الاصطناعي الأخلاقي. دعونا نلقي نظرة على معنى الإشارة إلى أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي. علاوة على ذلك ، يمكننا تمهيد الطريق من خلال استكشاف ما أعنيه عندما أتحدث عن التعلم الآلي والتعلم العميق.

يتكون جزء أو جزء معين من أخلاقيات الذكاء الاصطناعي الذي حظي بالكثير من اهتمام وسائل الإعلام من الذكاء الاصطناعي الذي يُظهر تحيزات وأوجه عدم مساواة غير مرغوب فيها. قد تدرك أنه عندما بدأ العصر الأخير للذكاء الاصطناعي ، كان هناك اندفاع هائل من الحماس لما يسميه البعض الآن منظمة العفو الدولية من أجل الخير. لسوء الحظ ، في أعقاب تلك الإثارة المتدفقة ، بدأنا نشهد منظمة العفو الدولية للسوء. على سبيل المثال ، تم الكشف عن العديد من أنظمة التعرف على الوجه القائمة على الذكاء الاصطناعي على أنها تحتوي على تحيزات عنصرية وتحيزات بين الجنسين ، والتي ناقشتها في الرابط هنا.

جهود للقتال ضد منظمة العفو الدولية للسوء بنشاط جارية. إلى جانب صاخبة السياسات مساعي كبح جماح المخالفات ، هناك أيضًا دافع جوهري نحو تبني أخلاقيات الذكاء الاصطناعي لتصحيح ضعف الذكاء الاصطناعي. الفكرة هي أننا يجب أن نتبنى ونصادق على المبادئ الأخلاقية الرئيسية للذكاء الاصطناعي لتطوير الذكاء الاصطناعي وإدخاله في الميدان لتقويض منظمة العفو الدولية للسوء والتبشير والترويج في الوقت نفسه لما هو مفضل منظمة العفو الدولية من أجل الخير.

فيما يتعلق بمفهوم ذي صلة ، أنا من المدافعين عن محاولة استخدام الذكاء الاصطناعي كجزء من حل مشاكل الذكاء الاصطناعي ، ومكافحة النيران بالنار بهذه الطريقة من التفكير. قد نقوم على سبيل المثال بتضمين المكونات الأخلاقية للذكاء الاصطناعي في نظام ذكاء اصطناعي يراقب كيفية قيام بقية الذكاء الاصطناعي بالأشياء ، وبالتالي من المحتمل أن نكتشف في الوقت الفعلي أي جهود تمييزية ، انظر نقاشي في الرابط هنا. يمكن أن يكون لدينا أيضًا نظام ذكاء اصطناعي منفصل يعمل كنوع من أجهزة مراقبة أخلاقيات الذكاء الاصطناعي. يعمل نظام الذكاء الاصطناعي كمشرف لتتبع واكتشاف متى يدخل ذكاء اصطناعي آخر في الهاوية غير الأخلاقية (انظر تحليلي لهذه القدرات في الرابط هنا).

بعد قليل ، سوف أشارككم بعض المبادئ الشاملة التي تقوم عليها أخلاقيات الذكاء الاصطناعي. هناك الكثير من هذه الأنواع من القوائم التي تطفو هنا وهناك. يمكنك القول أنه لا توجد حتى الآن قائمة فردية للنداء والتوافق العالميين. هذه هي الأخبار المؤسفة. الخبر السار هو أن هناك على الأقل قوائم أخلاقيات الذكاء الاصطناعي متاحة بسهولة وتميل إلى أن تكون متشابهة تمامًا. أخيرًا ، يشير هذا إلى أنه من خلال شكل من أشكال التقارب المنطقي ، فإننا نجد طريقنا نحو قواسم مشتركة عامة لما تتكون منه أخلاقيات الذكاء الاصطناعي.

أولاً ، دعنا نغطي بإيجاز بعض المبادئ الأخلاقية الشاملة للذكاء الاصطناعي لتوضيح ما يجب أن يكون اعتبارًا حيويًا لأي شخص يقوم بصياغة أو استخدام أو استخدام الذكاء الاصطناعي.

على سبيل المثال ، كما صرح الفاتيكان في دعوة روما لأخلاقيات الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • الشفافية: من حيث المبدأ ، يجب أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير
  • إدراجه: يجب أن تؤخذ احتياجات جميع البشر في الاعتبار حتى يستفيد الجميع ، ويمكن لجميع الأفراد توفير أفضل الظروف الممكنة للتعبير عن أنفسهم وتطويرهم.
  • المسئولية: يجب على أولئك الذين يصممون وينشرون استخدام الذكاء الاصطناعي أن يتابعوا المسؤولية والشفافية
  • النزاهة: لا تخلق أو تتصرف على أساس التحيز ، وبالتالي الحفاظ على العدالة والكرامة الإنسانية
  • الموثوقية: يجب أن تكون أنظمة الذكاء الاصطناعي قادرة على العمل بشكل موثوق
  • الأمن والخصوصية: يجب أن تعمل أنظمة الذكاء الاصطناعي بشكل آمن وتحترم خصوصية المستخدمين.

كما صرحت وزارة الدفاع الأمريكية (DoD) في المبادئ الأخلاقية لاستخدام الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • مسؤول: سوف يمارس موظفو وزارة الدفاع مستويات مناسبة من الحكم والرعاية مع الاستمرار في المسؤولية عن تطوير ونشر واستخدام قدرات الذكاء الاصطناعي.
  • العادل: ستتخذ الإدارة خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي.
  • تعقبها: سيتم تطوير ونشر قدرات الذكاء الاصطناعي في الإدارة بحيث يمتلك الموظفون المعنيون فهمًا مناسبًا للتكنولوجيا وعمليات التطوير والأساليب التشغيلية المطبقة على قدرات الذكاء الاصطناعي ، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق ومصادر البيانات وإجراءات التصميم والتوثيق.
  • موثوق: سيكون لإمكانيات الذكاء الاصطناعي في الإدارة استخدامات واضحة ومحددة جيدًا ، وستخضع سلامة وأمن وفعالية هذه القدرات للاختبار والتأكيد ضمن تلك الاستخدامات المحددة عبر دورات حياتها بأكملها.
  • للحكم: ستقوم الإدارة بتصميم وهندسة قدرات الذكاء الاصطناعي للوفاء بالوظائف المقصودة مع امتلاك القدرة على اكتشاف وتجنب العواقب غير المقصودة ، والقدرة على فك أو إلغاء تنشيط الأنظمة المنشورة التي تظهر سلوكًا غير مقصود.

لقد ناقشت أيضًا العديد من التحليلات الجماعية للمبادئ الأخلاقية للذكاء الاصطناعي ، بما في ذلك تغطية مجموعة ابتكرها باحثون قاموا بفحص وتكثيف جوهر العديد من مبادئ أخلاقيات الذكاء الاصطناعي الوطنية والدولية في ورقة بعنوان "المشهد العالمي لإرشادات أخلاقيات الذكاء الاصطناعي" (تم نشره) في الطبيعة) ، وأن تغطيتي تستكشف في الرابط هنا، مما أدى إلى هذه القائمة الأساسية:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

كما قد تخمن بشكل مباشر ، فإن محاولة تحديد التفاصيل التي تقوم عليها هذه المبادئ قد يكون صعبًا للغاية. والأكثر من ذلك ، فإن الجهد المبذول لتحويل هذه المبادئ العريضة إلى شيء ملموس ومفصل تمامًا بما يكفي لاستخدامه عند صياغة أنظمة الذكاء الاصطناعي يعد أيضًا من الصعب كسرها. من السهل بشكل عام القيام ببعض التلويح اليدوي حول ماهية مبادئ أخلاقيات الذكاء الاصطناعي وكيف ينبغي مراعاتها بشكل عام ، في حين أنه وضع أكثر تعقيدًا في ترميز الذكاء الاصطناعي يجب أن يكون المطاط الحقيقي الذي يلبي الطريق.

يجب استخدام مبادئ أخلاقيات الذكاء الاصطناعي من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف. يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. كما ذكرنا سابقًا ، فإن الأمر يتطلب قرية لابتكار واستخدام الذكاء الاصطناعي ، ومن أجل ذلك يجب أن تكون القرية بأكملها على دراية بمبادئ أخلاقيات الذكاء الاصطناعي والالتزام بها.

دعنا نتأكد أيضًا من أننا على نفس الصفحة حول طبيعة الذكاء الاصطناعي اليوم.

لا يوجد أي ذكاء اصطناعي واعي اليوم. ليس لدينا هذا. لا نعرف ما إذا كان الذكاء الاصطناعي الواعي سيكون ممكنًا. لا أحد يستطيع أن يتنبأ بجدارة بما إذا كنا سنحقق ذكاءً اصطناعيًا واعيًا ، ولا ما إذا كان الذكاء الاصطناعي الواعي سينشأ بطريقة ما بأعجوبة تلقائيًا في شكل مستعر أعظم معرفي حسابي (يشار إليه عادةً باسم التفرد ، انظر تغطيتي في الرابط هنا).

نوع الذكاء الاصطناعي الذي أركز عليه يتكون من الذكاء الاصطناعي غير الواعي الذي لدينا اليوم. إذا أردنا التكهن بشدة حساس الذكاء الاصطناعي ، يمكن أن تسير هذه المناقشة في اتجاه مختلف جذريًا. من المفترض أن يكون الذكاء الاصطناعي الواعي ذا جودة بشرية. ستحتاج إلى اعتبار أن الذكاء الاصطناعي الواعي هو المكافئ المعرفي للإنسان. أكثر من ذلك ، نظرًا لأن البعض يتوقع أن يكون لدينا ذكاء اصطناعي فائق الذكاء ، فمن المتصور أن مثل هذا الذكاء الاصطناعي يمكن أن يصبح أكثر ذكاءً من البشر (لاستكشافي للذكاء الاصطناعي الفائق كإمكانية ، انظر التغطية هنا).

دعونا نحافظ على الأمور أكثر واقعية ونفكر في الذكاء الاصطناعي غير الحسابي اليوم.

ندرك أن الذكاء الاصطناعي اليوم غير قادر على "التفكير" بأي شكل من الأشكال على قدم المساواة مع التفكير البشري. عندما تتفاعل مع Alexa أو Siri ، قد تبدو قدرات المحادثة شبيهة بالقدرات البشرية ، لكن الحقيقة هي أنها حسابية وتفتقر إلى الإدراك البشري. استفاد العصر الأخير من الذكاء الاصطناعي بشكل مكثف من التعلم الآلي (ML) والتعلم العميق (DL) ، مما يعزز مطابقة الأنماط الحسابية. وقد أدى ذلك إلى ظهور أنظمة ذكاء اصطناعي تبدو وكأنها ميول شبيهة بالإنسان. وفي الوقت نفسه ، لا يوجد أي ذكاء اصطناعي اليوم يشبه الفطرة السليمة وليس لديه أي من التعجب المعرفي للتفكير البشري القوي.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين يتخذون نمطًا بناءً على القرارات قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق خفية ولكنها مهمة. سيحاول التعلم الآلي أو مطابقة الأنماط الحسابية للتعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة المصممة بالذكاء الاصطناعي في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة في ML / DL من الصعب اكتشاف التحيزات الخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا أكثر تعقيدًا مما قد يبدو. توجد فرصة قوية أنه حتى مع إجراء اختبارات مكثفة نسبيًا ، لا تزال هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

يمكنك إلى حد ما استخدام القول المأثور الشهير أو سيئ السمعة من القمامة في القمامة. الشيء هو ، هذا أقرب إلى التحيزات - التي يتم غرسها بشكل خبيث على أنها تحيزات مغمورة داخل الذكاء الاصطناعي. تصبح عملية اتخاذ القرار الخوارزمية (ADM) للذكاء الاصطناعي بشكل بديهي محملة بعدم المساواة.

غير جيد.

ما الذي يمكن فعله أيضًا حيال كل هذا؟

دعنا نعود إلى القائمة التي تم طرحها سابقًا حول كيفية محاولة التعامل مع انحيازات الذكاء الاصطناعي أو الذكاء الاصطناعي السام باستخدام نهج غير تقليدي إلى حد ما "يتطلب الأمر معرفة أحدهم". تذكر أن القائمة تتكون من هذه النقاط الأساسية:

  • إعداد مجموعات البيانات التي تحتوي عمدًا على بيانات متحيزة وسامة تمامًا والتي يمكن استخدامها لتدريب الذكاء الاصطناعي فيما يتعلق بما لا يجب فعله و / أو ما يجب مراقبته
  • استخدم مجموعات البيانات هذه لتدريب نماذج التعلم الآلي (ML) والتعلم العميق (DL) حول اكتشاف التحيزات واكتشاف الأنماط الحسابية التي تنطوي على سمية مجتمعية
  • قم بتطبيق ML / DL المدربة على السمية تجاه الذكاء الاصطناعي الآخر للتأكد مما إذا كان الذكاء الاصطناعي المستهدف متحيزًا وسامًا
  • إتاحة ML / DL المدربة على السمية لعرض ما يجب الانتباه إليه لمنشئي الذكاء الاصطناعي حتى يتمكنوا من فحص النماذج بسهولة لمعرفة كيف تنشأ التحيزات المشبعة خوارزميًا
  • قم بتجسيد مخاطر الذكاء الاصطناعي السام كجزء من أخلاقيات الذكاء الاصطناعي والوعي الأخلاقي للذكاء الاصطناعي ، وكل ذلك تم إخباره من خلال هذه السلسلة من نماذج الذكاء الاصطناعي التي تتضمن مشكلة الطفل السيء إلى العظم.
  • أخرى

سنلقي نظرة عن قرب على أولى تلك النقاط البارزة.

إعداد مجموعات البيانات الخاصة بالبيانات السامة

من الأمثلة الثاقبة لمحاولة إنشاء مجموعات بيانات تحتوي على تحيزات مجتمعية بغيضة مجموعة بيانات CivilComments لمجموعة WILDS المنسقة.

أولا ، بعض المعلومات الأساسية السريعة.

WILDS عبارة عن مجموعة مفتوحة المصدر من مجموعات البيانات التي يمكن استخدامها لتدريب ML / DL. الغرض الأساسي المعلن من WILDS هو أنه يسمح لمطوري الذكاء الاصطناعي بالوصول الفوري إلى البيانات التي تمثلها نوبات التوزيع في مجالات محددة مختلفة. تشمل بعض المجالات المتاحة حاليًا مجالات مثل أنواع الحيوانات ، والأورام في الأنسجة الحية ، وكثافة رأس القمح ، ومجالات أخرى مثل التعليقات المدنية التي سأصفها للحظات.

يعد التعامل مع تحولات التوزيع جزءًا مهمًا من صياغة أنظمة AI ML / DL بشكل صحيح. ها هي الصفقة. في بعض الأحيان ، يتبين أن البيانات التي تستخدمها للتدريب مختلفة تمامًا عن بيانات الاختبار أو بيانات "في البرية" ، وبالتالي فإن ML / DL التي تدربت عليها هي على غير ما يرام عما سيكون عليه العالم الحقيقي. يجب أن يقوم بناة الذكاء الاصطناعي المتمرسون بتدريب ML / DL الخاصة بهم للتعامل مع تحولات التوزيع هذه. يجب أن يتم ذلك مقدمًا وليس مفاجأة بطريقة ما أن تتطلب لاحقًا تجديد ML / DL في حد ذاته.

كما هو موضح في الورقة التي قدمت WILDS: "تحولات التوزيع - حيث يختلف توزيع التدريب عن توزيع الاختبار - يمكن أن تقلل إلى حد كبير من دقة أنظمة التعلم الآلي (ML) المنتشرة في البرية. على الرغم من انتشارها في عمليات النشر في العالم الحقيقي ، فإن تحولات التوزيع هذه غير ممثلة تمثيلاً ناقصًا في مجموعات البيانات المستخدمة على نطاق واسع في مجتمع ML اليوم. لمعالجة هذه الفجوة ، نقدم WILDS ، وهو معيار منظم من 10 مجموعات بيانات تعكس مجموعة متنوعة من تحولات التوزيع التي تنشأ بشكل طبيعي في تطبيقات العالم الحقيقي ، مثل التحولات عبر المستشفيات لتحديد الورم ؛ عبر مصائد الكاميرات لمراقبة الحياة البرية ؛ وعبر الزمان والمكان في تصوير الأقمار الصناعية ورسم خرائط الفقر "(في الورقة بعنوان" WILDS: A Benchmark of in-the-Wild Distribution Shifts "بقلم بانغ وي كوه ، شيوري ساغاوا ، هنريك ماركلوند ، سانغ شي ، مارفن زانغ ، آشاي بالسوبراماني ، وويوا هو ، وآخرون).

يستمر عدد مجموعات بيانات WILDS في الزيادة ويتم تحسين طبيعة مجموعات البيانات بشكل عام لتعزيز قيمة استخدام البيانات لتدريب ML / DL.

يتم وصف مجموعة بيانات CivilComments بهذه الطريقة: "المراجعة التلقائية للنص الذي تم إنشاؤه بواسطة المستخدم - على سبيل المثال ، الكشف عن التعليقات السامة - هي أداة مهمة للتحكم في الحجم الهائل للنص المكتوب على الإنترنت. لسوء الحظ ، أظهر العمل السابق أن مصنّفات السمية هذه تلتقط التحيزات في بيانات التدريب وتربط السمية بشكل زائف بذكر بعض التركيبة السكانية. يمكن أن تؤدي هذه الأنواع من الارتباطات الزائفة إلى تدهور أداء النموذج بشكل كبير في مجموعات سكانية فرعية معينة. ندرس هذه المشكلة من خلال نسخة معدلة من مجموعة بيانات CivilComments "(كما تم نشرها على موقع WILDS على الويب).

ضع في اعتبارك الفروق الدقيقة في المنشورات غير المرغوبة عبر الإنترنت.

لقد واجهت بلا شك تعليقات سامة عند استخدام أي نوع من وسائل التواصل الاجتماعي تقريبًا. قد يبدو من المستحيل تقريبًا أن تتجنب بطريقة سحرية رؤية المحتوى اللاذع والسيئ الذي يبدو أنه منتشر هذه الأيام. في بعض الأحيان تكون المادة المبتذلة خفية وربما يتعين عليك القراءة بين السطور للحصول على جوهر النغمة أو المعنى المتحيز أو التمييزي. في حالات أخرى ، تكون الكلمات سامة بشكل صارخ ولا تحتاج إلى مجهر أو حلقة خاصة لفك التشفير لمعرفة ما تستلزمه المقاطع.

CivilComments عبارة عن مجموعة بيانات تم تجميعها معًا لمحاولة ابتكار AI ML / DL الذي يمكنه اكتشاف المحتوى السام من الناحية الحسابية. إليك ما ركز عليه الباحثون الذين ركزوا على الجهود المبذولة: "يمكن أن يظهر التحيز غير المقصود في التعلم الآلي على أنه اختلافات منهجية في الأداء للمجموعات الديموغرافية المختلفة ، مما يؤدي إلى تفاقم التحديات الحالية للعدالة في المجتمع ككل. في هذه الورقة ، نقدم مجموعة من المقاييس الحيادية للعتبة التي توفر رؤية دقيقة لهذا التحيز غير المقصود ، من خلال النظر في الطرق المختلفة التي يمكن أن يختلف بها توزيع درجات المصنف عبر المجموعات المعينة. نقدم أيضًا مجموعة اختبار جديدة كبيرة من التعليقات عبر الإنترنت مع تعليقات توضيحية جماعية لمراجع الهوية. نستخدم هذا لإظهار كيف يمكن استخدام مقاييسنا للعثور على تحيز غير مقصود جديد وربما خفي في النماذج العامة الحالية "(في ورقة بعنوان" المقاييس الدقيقة لقياس التحيز غير المقصود بالبيانات الحقيقية لتصنيف الاختبار "بقلم دانيال بوركان ، لوكاس ديكسون ، جيفري سورنسن ، نيثوم ثاين ، لوسي فاسرمان).

إذا أعطيت هذه المسألة بعض التفكير التأملي الواسع ، فقد تبدأ في التساؤل كيف يمكنك في العالم تمييز التعليق السام مقابل التعليق غير السام. يمكن أن يختلف البشر اختلافًا جذريًا فيما يفسره على أنه صياغة سامة تمامًا. قد يشعر شخص ما بالغضب من ملاحظة أو تعليق معين عبر الإنترنت يتم نشره على وسائل التواصل الاجتماعي ، بينما قد لا يتم إثارة شخص آخر على الإطلاق. غالبًا ما يتم تقديم حجة مفادها أن مفهوم التعليق السام مبدأ غامض تمامًا. إنه مثل الفن ، حيث يُقال عادةً أن الفن يُفهم فقط في عين الناظر ، وبالمثل ، فإن الملاحظات المتحيزة أو السامة تكون في عين الناظر فقط.

Balderdash ، بعض الرد. يمكن لأي شخص لديه عقل عقلاني أن يكتشف ما إذا كانت الملاحظة عبر الإنترنت سامة أم لا. لست بحاجة إلى أن تكون عالم صواريخ لتدرك أن بعض الإهانات اللاذعة المنشورة مليئة بالتحيز والكراهية.

بالطبع ، تتغير الأعراف المجتمعية وتتغير بمرور الوقت. ما لم يكن يُنظر إليه على أنه مسيء منذ فترة يمكن اعتباره خطأ مقيتًا اليوم. علاوة على ذلك ، فإن الأشياء التي قيلت قبل سنوات والتي كانت تعتبر ذات مرة متحيزة بشكل غير ملائم يمكن إعادة تفسيرها في ضوء التغيرات في المعاني. وفي الوقت نفسه ، يؤكد آخرون أن التعليقات السامة دائمًا ما تكون سامة ، بغض النظر عن تاريخ إصدارها في البداية. يمكن القول أن السمية ليست نسبية بل هي مطلقة.

ومع ذلك ، فإن محاولة تحديد ما هو سام يمكن أن تكون معضلة صعبة. يمكننا مضاعفة هذه المسألة المزعجة مثل محاولة ابتكار خوارزميات أو ذكاء اصطناعي يمكنه التأكد من أيهما. إذا كان البشر يواجهون صعوبة في إجراء مثل هذه التقييمات ، فمن المحتمل أن تكون برمجة جهاز الكمبيوتر إشكالية متساوية أو أكثر ، كما يقول البعض.

تتضمن إحدى طرق إعداد مجموعات البيانات التي تحتوي على محتوى سام استخدام طريقة التعهيد الجماعي لتصنيف المحتويات أو تقييمها ، وتوفير وسيلة قائمة على الإنسان لتحديد ما يُنظر إليه على أنه غير مرغوب فيه بما في ذلك وضع العلامات داخل مجموعة البيانات نفسها. قد يقوم AI ML / DL بعد ذلك بفحص البيانات والتسميات المرتبطة بها والتي أشار إليها المقيمون البشريون. وهذا بدوره يمكن أن يكون بمثابة وسيلة لإيجاد الأنماط الرياضية الأساسية بشكل حسابي. Voila ، قد يكون ML / DL قادرًا على توقع أو تقييم حسابيًا ما إذا كان تعليق معين من المحتمل أن يكون سامًا أم لا.

كما هو مذكور في الورقة التي تم الاستشهاد بها حول المقاييس الدقيقة: "يطلب هذا التصنيف من المقيمين تقييم سمية التعليق ، والاختيار من" شديد السمية "، و" سام "، و" يصعب قوله "، و" غير سام ". سُئل المقيمون أيضًا عن عدة أنواع فرعية من السمية ، على الرغم من عدم استخدام هذه العلامات للتحليل في هذا العمل. باستخدام تقنيات التصنيف هذه ، أنشأنا مجموعة بيانات تضم 1.8 مليون تعليق ، تم الحصول عليها من منتديات التعليقات عبر الإنترنت ، وتحتوي على تسميات للسمية والهوية. في حين تم تصنيف جميع التعليقات على أنها سمية ، وتم تصنيف مجموعة فرعية من 450,000 تعليق من أجل الهوية. تم اختيار بعض التعليقات المصنفة للهوية مسبقًا باستخدام نماذج تم إنشاؤها من التكرارات السابقة لتصنيف الهوية لضمان أن يرى القائمون على التقييم الجماعي محتوى الهوية بشكل متكرر "(في الورقة التي استشهد بها دانيال بوركان ، ولوكاس ديكسون ، وجيفري سورنسن ، ونيثوم ثين ، ولوسي فاسرمان).

مثال آخر يهدف إلى الحصول على مجموعات بيانات تحتوي على محتوى توضيحي سام يتضمن جهودًا لتدريب أنظمة تفاعلية للمحادثة تعتمد على الذكاء الاصطناعي في معالجة اللغة الطبيعية (NLP). ربما تكون قد تفاعلت مع أنظمة البرمجة اللغوية العصبية مثل Alexa و Siri. لقد غطيت بعض الصعوبات والقيود المفروضة على البرمجة اللغوية العصبية اليوم ، بما في ذلك حالة مزعجة بشكل خاص حدثت عندما قدمت Alexa نصيحة غير مناسبة وخطيرة للأطفال ، انظر الرابط هنا.

سعت دراسة حديثة إلى استخدام تسع فئات من التحيز الاجتماعي التي استندت بشكل عام إلى قائمة EEOC (لجنة تكافؤ فرص العمل) للخصائص الديموغرافية المحمية ، بما في ذلك العمر والجنس والجنسية والمظهر الجسدي والعرق أو الإثنية والدين وحالة الإعاقة والجنسية. التوجه والوضع الاجتماعي والاقتصادي. وفقًا للباحثين: "من الموثق جيدًا أن نماذج البرمجة اللغوية العصبية تتعلم التحيزات الاجتماعية ، ولكن تم بذل القليل من العمل حول كيفية ظهور هذه التحيزات في مخرجات النموذج للمهام التطبيقية مثل الإجابة على الأسئلة (QA). نقدم معيار التحيز لضمان الجودة (BBQ) ، وهي مجموعة بيانات من مجموعات الأسئلة التي أنشأها المؤلفون والتي تسلط الضوء على التحيزات الاجتماعية المثبتة ضد الأشخاص الذين ينتمون إلى الفئات المحمية على طول تسعة أبعاد اجتماعية ذات صلة بالسياقات الناطقة باللغة الإنجليزية في الولايات المتحدة "(في ورقة بعنوان" BBQ : معيار مبني يدويًا للإجابة على الأسئلة "بقلم أليسيا باريش ، أنجليكا تشين ، نيكيتا نانجيا ، فيشاخ بادماكومار ، جايسون فانج ، جانا طومسون ، فو مون هتوت ، صمويل ر. بومان).

يعد إنشاء مجموعات البيانات التي تحتوي عمدًا على بيانات متحيزة وسامة تمامًا اتجاهًا متصاعدًا في الذكاء الاصطناعي ويحفزه بشكل خاص ظهور أخلاقيات الذكاء الاصطناعي والرغبة في إنتاج الذكاء الاصطناعي الأخلاقي. يمكن استخدام مجموعات البيانات هذه لتدريب نماذج التعلم الآلي (ML) والتعلم العميق (DL) لاكتشاف التحيزات واكتشاف الأنماط الحسابية التي تنطوي على سمية مجتمعية. في المقابل ، يمكن توجيه ML / DL المدربة على السمية بحكمة إلى ذكاء اصطناعي آخر للتأكد مما إذا كان الذكاء الاصطناعي المستهدف متحيزًا وسامًا.

علاوة على ذلك ، يمكن استخدام أنظمة ML / DL المدربة على السمية لعرض ما يجب الانتباه إليه لمنشئي الذكاء الاصطناعي حتى يتمكنوا من فحص النماذج بسهولة لمعرفة كيف تنشأ التحيزات المشبعة خوارزميًا. بشكل عام ، هذه الجهود قادرة على تجسيد مخاطر الذكاء الاصطناعي السام كجزء من أخلاقيات الذكاء الاصطناعي والوعي الأخلاقي للذكاء الاصطناعي.

في هذه المرحلة من هذه المناقشة المهمة ، أراهن أنك ترغب في بعض الأمثلة التوضيحية الأخرى التي قد تعرض هذا الموضوع. هناك مجموعة خاصة وشعبية بالتأكيد من الأمثلة القريبة من قلبي. كما ترى ، بصفتي خبيرًا في الذكاء الاصطناعي بما في ذلك التداعيات الأخلاقية والقانونية ، يُطلب مني كثيرًا تحديد أمثلة واقعية تعرض معضلات أخلاقيات الذكاء الاصطناعي بحيث يمكن فهم الطبيعة النظرية إلى حد ما للموضوع بسهولة أكبر. واحدة من أكثر المجالات إثارة للذكريات التي تقدم بوضوح هذا المأزق الأخلاقي للذكاء الاصطناعي هو ظهور سيارات ذاتية القيادة حقيقية قائمة على الذكاء الاصطناعي. سيكون هذا بمثابة حالة استخدام مفيدة أو نموذجًا لمناقشة مستفيضة حول هذا الموضوع.

إليك إذن سؤال جدير بالملاحظة يستحق التفكير فيه: هل يبرز ظهور السيارات ذاتية القيادة الحقيقية القائمة على الذكاء الاصطناعي أي شيء عن فائدة وجود مجموعات بيانات لابتكار ذكاء اصطناعي سام ، وإذا كان الأمر كذلك ، فما الذي يعرضه هذا؟

اسمح لي بلحظة لفك السؤال.

أولاً ، لاحظ أنه لا يوجد سائق بشري متورط في سيارة حقيقية ذاتية القيادة. ضع في اعتبارك أن السيارات الحقيقية ذاتية القيادة يتم قيادتها عبر نظام قيادة بالذكاء الاصطناعي. ليست هناك حاجة لسائق بشري على عجلة القيادة ، ولا يوجد شرط لقيادة الإنسان للسيارة. لتغطيتي الواسعة والمستمرة للمركبات ذاتية القيادة (AVs) وخاصة السيارات ذاتية القيادة ، انظر الرابط هنا.

أود أن أوضح ما هو المقصود عندما أشير إلى السيارات الحقيقية ذاتية القيادة.

فهم مستويات السيارات ذاتية القيادة

للتوضيح ، السيارات الحقيقية ذاتية القيادة هي تلك التي يقود فيها الذكاء الاصطناعي السيارة بالكامل من تلقاء نفسه ولا توجد أي مساعدة بشرية أثناء مهمة القيادة.

تعتبر هذه المركبات ذاتية القيادة من المستوى 4 والمستوى 5 (انظر الشرح في هذا الرابط هنا) ، في حين أن السيارة التي تتطلب سائقًا بشريًا للمشاركة في جهد القيادة يتم اعتبارها عادةً في المستوى 2 أو المستوى 3. يتم وصف السيارات التي تشارك في مهمة القيادة بأنها شبه مستقلة ، وتحتوي عادةً على مجموعة متنوعة من الوظائف الإضافية المؤتمتة التي يشار إليها باسم ADAS (أنظمة مساعدة السائق المتقدمة).

لا توجد حتى الآن سيارة ذاتية القيادة حقيقية في المستوى الخامس ، ولا نعرف حتى الآن ما إذا كان من الممكن تحقيق ذلك ، ولا كم من الوقت سيستغرق الوصول إليه.

وفي الوقت نفسه ، تحاول جهود المستوى 4 تدريجياً الحصول على بعض الجاذبية من خلال الخضوع لتجارب طرق عامة ضيقة للغاية وانتقائية ، على الرغم من وجود جدل حول ما إذا كان يجب السماح بهذا الاختبار في حد ذاته (نحن جميعًا حيوانات تجارب حياة أو موت في التجربة التي تجري على طرقنا السريعة والطرق الفرعية ، يدعي البعض ، انظر تغطيتي في هذا الرابط هنا).

نظرًا لأن السيارات شبه المستقلة تتطلب سائقًا بشريًا ، فإن اعتماد هذه الأنواع من السيارات لن يكون مختلفًا بشكل ملحوظ عن قيادة المركبات التقليدية ، لذلك لا يوجد الكثير في حد ذاته لتغطية هذه المواضيع (على الرغم من ذلك ، كما سترى في لحظة ، النقاط التالية تنطبق بشكل عام).

بالنسبة للسيارات شبه المستقلة ، من المهم أن يتم تحذير الجمهور بشأن جانب مزعج ظهر مؤخرًا ، أي أنه على الرغم من هؤلاء السائقين البشر الذين يستمرون في نشر مقاطع فيديو لأنفسهم ينامون على عجلة سيارة من المستوى 2 أو المستوى 3 علينا جميعًا أن نتجنب التضليل حتى نصدق أن السائق يمكنه أن يلفت انتباهه عن مهمة القيادة أثناء قيادة سيارة شبه مستقلة.

أنت الطرف المسؤول عن إجراءات القيادة في السيارة ، بغض النظر عن مقدار الأتمتة التي قد يتم قذفها في المستوى 2 أو المستوى 3.

سيارات ذاتية القيادة وخالية من الذكاء الاصطناعي السام

بالنسبة للمركبات ذاتية القيادة الحقيقية من المستوى 4 والمستوى 5 ، لن يكون هناك سائق بشري يشارك في مهمة القيادة.

سيكون جميع الركاب من الركاب.

تقوم منظمة العفو الدولية بالقيادة.

أحد الجوانب التي يجب مناقشتها على الفور يستلزم حقيقة أن الذكاء الاصطناعي المتضمن في أنظمة قيادة الذكاء الاصطناعي اليوم ليس واعيًا. بعبارة أخرى ، الذكاء الاصطناعي عبارة عن مجموعة من البرمجة والخوارزميات المستندة إلى الكمبيوتر ، وهو بالتأكيد غير قادر على التفكير بنفس الطريقة التي يستطيع بها البشر.

لماذا هذا التركيز الإضافي على الذكاء الاصطناعي ليس واعيا؟

لأنني أريد أن أؤكد أنه عند مناقشة دور نظام القيادة للذكاء الاصطناعي ، فأنا لا أنسب الصفات البشرية للذكاء الاصطناعي. يرجى العلم أن هناك اتجاهًا مستمرًا وخطيرًا هذه الأيام لتجسيد الذكاء الاصطناعي. من حيث الجوهر ، يخصص الناس ذكاءً شبيهاً بالإنسان إلى الذكاء الاصطناعي اليوم ، على الرغم من الحقيقة التي لا يمكن إنكارها والتي لا جدال فيها وهي عدم وجود مثل هذا الذكاء الاصطناعي حتى الآن.

مع هذا التوضيح ، يمكنك أن تتخيل أن نظام القيادة بالذكاء الاصطناعي لن "يعرف" بطريقة أو بأخرى جوانب القيادة. القيادة وكل ما تتطلبه يجب برمجتها كجزء من أجهزة وبرامج السيارة ذاتية القيادة.

دعونا نتعمق في عدد لا يحصى من الجوانب التي تأتي للعب في هذا الموضوع.

أولاً ، من المهم أن ندرك أنه ليست كل سيارات الذكاء الاصطناعي ذاتية القيادة هي نفسها. تتبنى كل شركة تصنيع سيارات وشركة تقنية ذاتية القيادة نهجها في ابتكار سيارات ذاتية القيادة. على هذا النحو ، من الصعب الإدلاء ببيانات شاملة حول ما ستفعله أو لا تفعله أنظمة القيادة بالذكاء الاصطناعي.

علاوة على ذلك ، عندما يذكر أن نظام القيادة بالذكاء الاصطناعي لا يفعل شيئًا معينًا ، يمكن ، لاحقًا ، تجاوز هذا الأمر من قبل المطورين الذين يقومون في الواقع ببرمجة الكمبيوتر للقيام بهذا الشيء بالذات. خطوة بخطوة ، يتم تحسين أنظمة القيادة بالذكاء الاصطناعي وتوسيعها تدريجياً. قد لا يوجد قيد موجود اليوم في تكرار أو إصدار مستقبلي من النظام.

آمل أن يوفر ذلك مجموعة كافية من المحاذير لإبراز ما أنا على وشك ربطه.

هناك العديد من التحيزات المحتملة التي من المحتمل أن تتحقق يومًا ما والتي ستواجه ظهور المركبات ذاتية القيادة والسيارات ذاتية القيادة ، انظر على سبيل المثال مناقشتي في الرابط هنا و الرابط هنا. ما زلنا في المراحل الأولى من إطلاق السيارات ذاتية القيادة. إلى أن يصل التبني إلى نطاق ورؤية كافيين ، فإن الكثير من جوانب الذكاء الاصطناعي السامة التي كنت أتوقع حدوثها في النهاية لم تكن واضحة بعد ولم تحظ باهتمام الرأي العام على نطاق واسع بعد.

ضع في اعتبارك مسألة تتعلق بالقيادة تبدو واضحة ومباشرة والتي قد تبدو للوهلة الأولى غير ضارة تمامًا. على وجه التحديد ، دعونا نفحص كيفية تحديد ما إذا كان يجب التوقف لانتظار المشاة "الضالين" الذين ليس لديهم حق المرور لعبور الشارع.

كنت بلا شك تقود سيارتك وواجهت مشاة كانوا ينتظرون عبور الشارع ومع ذلك لم يكن لديهم حق المرور للقيام بذلك. هذا يعني أن لديك حرية التصرف فيما إذا كان عليك التوقف والسماح لهم بالعبور. يمكنك المضي قدمًا دون السماح لهم بالعبور وستظل ضمن قواعد القيادة القانونية للقيام بذلك.

اقترحت الدراسات التي أجريت حول كيفية اتخاذ السائقين من البشر للوقوف أو عدم التوقف لمثل هؤلاء المشاة أنه في بعض الأحيان يتخذ السائقون البشريون القرار بناءً على تحيزات غير مرغوب فيها. قد ينظر السائق البشري إلى المشاة ويختار عدم التوقف ، على الرغم من أنه كان من الممكن أن يتوقف لو كان مظهر المشاة مختلفًا ، على سبيل المثال على أساس العرق أو الجنس. لقد فحصت هذا في الرابط هنا.

كيف ستتم برمجة أنظمة القيادة بالذكاء الاصطناعي لاتخاذ نفس النوع من قرار التوقف أو الانطلاق؟

يمكنك إعلان أنه يجب برمجة جميع أنظمة القيادة بالذكاء الاصطناعي بحيث تتوقف دائمًا عن انتظار أي مارة. هذا يبسط الأمر إلى حد كبير. ليس هناك حقًا أي قرار معقد يتعين اتخاذه. إذا كان أحد المشاة ينتظر العبور ، بغض النظر عما إذا كان لديه حق المرور أم لا ، فتأكد من توقف السيارة ذاتية القيادة التي تعمل بالذكاء الاصطناعي حتى يتمكن المشاة من العبور.

سهل جدا.

الحياة ليست بهذه السهولة ، على ما يبدو. تخيل أن جميع السيارات ذاتية القيادة تلتزم بهذه القاعدة. سيدرك المشاة حتمًا أن أنظمة القيادة التي تعمل بالذكاء الاصطناعي هي ، كما ينبغي ، من السهل القول. أي وجميع المشاة الذين يرغبون في عبور الشارع سوف يفعلون ذلك رغماً عنهم ، متى شاءوا وأينما كانوا.

لنفترض أن سيارة ذاتية القيادة تنزل في شارع سريع بحد أقصى للسرعة يبلغ 45 ميلاً في الساعة. أحد المشاة "يعرف" أن الذكاء الاصطناعي سوف يوقف السيارة ذاتية القيادة. لذلك ، سهام المشاة في الشارع. لسوء الحظ ، تتفوق الفيزياء على الذكاء الاصطناعي. سيحاول نظام القيادة بالذكاء الاصطناعي إيقاف السيارة ذاتية القيادة ، لكن زخم السيارة المستقلة سيحمل الأداة متعددة الأطنان إلى الأمام ويصطدم بالمشاة الضال. تكون النتيجة إما مؤذية أو تؤدي إلى الوفاة.

لا يحاول المشاة عادة هذا النوع من السلوك عندما يكون هناك سائق بشري على عجلة القيادة. بالتأكيد ، في بعض المناطق هناك حرب مقلة العين التي تحدث. المشاة مقل السائق. عيني السائق المشاة. اعتمادًا على الظروف ، قد يتوقف السائق أو قد يؤكد السائق مطالبته بالطريق ويتجرأ ظاهريًا على المشاة لمحاولة تعطيل مسارهم.

من المفترض أننا لا نريد أن يدخل الذكاء الاصطناعي في حرب مماثلة في مقلة العين ، وهو أمر يمثل أيضًا تحديًا بعض الشيء على أي حال نظرًا لعدم وجود شخص أو روبوت يجلس على عجلة السيارة ذاتية القيادة (لقد ناقشت الاحتمال المستقبلي للروبوتات هذا الدافع ، انظر الرابط هنا). ومع ذلك ، لا يمكننا أيضًا السماح للمشاة بالاتصال دائمًا بالطلقات. قد تكون النتيجة كارثية لجميع المعنيين.

قد تميل بعد ذلك إلى الانتقال إلى الجانب الآخر من هذه العملة وإعلان أن نظام القيادة بالذكاء الاصطناعي يجب ألا يتوقف أبدًا في مثل هذه الظروف. بعبارة أخرى ، إذا لم يكن للمشاة حق طريق مناسب لعبور الشارع ، يجب أن يفترض الذكاء الاصطناعي دائمًا أن السيارة ذاتية القيادة يجب أن تسير بلا هوادة. حظا قويا لهؤلاء المشاة.

مثل هذه القاعدة الصارمة والمبسطة لن تحظى بقبول جيد من قبل الجمهور بشكل عام. الناس أناس ولن يحبوا أن يتم إقصاؤهم تمامًا عن القدرة على عبور الشارع ، على الرغم من أنهم يفتقرون قانونيًا إلى حق الطريق للقيام بذلك في أماكن مختلفة. يمكنك بسهولة توقع ضجة كبيرة من الجمهور وربما ترى رد فعل عنيف يحدث ضد الاعتماد المستمر للسيارات ذاتية القيادة.

مرتبك إذا فعلنا ، وتجرؤ إذا لم نفعل ذلك.

آمل أن يكون هذا قد قادك إلى البديل المعقول الذي يحتاجه الذكاء الاصطناعي إلى البرمجة بما يشبه عملية صنع القرار حول كيفية التعامل مع مشكلة القيادة هذه. لا يمكن الدفاع عن قاعدة صارمة وسريعة لعدم التوقف أبدًا ، وبالمثل ، فإن قاعدة صارمة وسريعة للتوقف دائمًا لا يمكن الدفاع عنها أيضًا. يجب تصميم الذكاء الاصطناعي مع اتخاذ بعض القرارات الحسابية أو ADM للتعامل مع هذه المسألة.

يمكنك محاولة استخدام مجموعة بيانات مقترنة بنهج ML / DL.

إليك كيف يقرر مطورو الذكاء الاصطناعي برمجة هذه المهمة. إنهم يجمعون البيانات من كاميرات الفيديو الموضوعة في جميع أنحاء مدينة معينة حيث سيتم استخدام السيارة ذاتية القيادة بداخلها. تظهر البيانات عندما يختار السائقون البشر التوقف للمشاة الذين ليس لديهم حق المرور. يتم جمعها كلها في مجموعة بيانات. باستخدام التعلم الآلي والتعلم العميق ، يتم نمذجة البيانات حسابيًا. ثم يستخدم نظام القيادة AI هذا النموذج ليقرر متى يتوقف أو لا يتوقف.

بشكل عام ، الفكرة هي أنه مهما كانت العادات المحلية ، فهذه هي الطريقة التي يوجه بها الذكاء الاصطناعي السيارة ذاتية القيادة. تم حل المشكلة!

ولكن ، هل تم حلها حقًا؟

تذكر أنني قد أشرت بالفعل إلى أن هناك دراسات بحثية تُظهر أن السائقين من البشر يمكن أن يكونوا متحيزين في اختياراتهم عند التوقف عن المشاة. من المفترض أن تحتوي البيانات التي تم جمعها حول مدينة معينة على تلك التحيزات. ومن المرجح أن يقوم AI ML / DL المستند إلى تلك البيانات بنمذجة وتعكس نفس التحيزات. سيقوم نظام القيادة بالذكاء الاصطناعي بتنفيذ نفس التحيزات الموجودة.

لمحاولة التعامل مع المشكلة ، يمكننا تجميع مجموعة بيانات تحتوي في الواقع على مثل هذه التحيزات. إما أن نجد مجموعة البيانات هذه ثم نقوم بتسمية التحيزات ، أو نقوم بشكل تركيبي بإنشاء مجموعة بيانات للمساعدة في توضيح الأمر.

سيتم اتخاذ جميع الخطوات المحددة مسبقًا ، بما في ذلك:

  • قم بإعداد مجموعة بيانات تحتوي عمدًا على هذا التحيز المحدد
  • استخدم مجموعة البيانات لتدريب نماذج التعلم الآلي (ML) والتعلم العميق (DL) حول اكتشاف هذا التحيز المحدد
  • قم بتطبيق ML / DL المدربة على التحيز تجاه ذكاء اصطناعي آخر للتأكد مما إذا كان الذكاء الاصطناعي المستهدف متحيزًا بطريقة مماثلة
  • قم بإتاحة ML / DL المدربة على التحيز لعرض ما يجب الانتباه إليه لمنشئي الذكاء الاصطناعي حتى يتمكنوا من فحص نماذجهم بسهولة لمعرفة كيف تنشأ التحيزات المشبعة خوارزميًا
  • توضيح مخاطر الذكاء الاصطناعي المتحيز كجزء من أخلاقيات الذكاء الاصطناعي والوعي الأخلاقي للذكاء الاصطناعي من خلال هذا المثال المحدد الإضافي
  • أخرى

وفي الختام

دعنا نعيد النظر في الخط الافتتاحي.

لا يعرفه إلا من هو مثله.

يفسر البعض أن هذا القول السائد بشكل لا يصدق يشير إلى أنه عندما يتعلق الأمر باستكشاف الذكاء الاصطناعي السام ، يجب أن نعطي المصداقية اللازمة لبناء واستخدام الذكاء الاصطناعي السام لاكتشاف والتعامل مع أنظمة الذكاء الاصطناعي السامة الأخرى. الخلاصة: أحيانًا يتطلب الأمر لصًا للقبض على لص آخر.

القلق الذي تم التعبير عنه هو أننا ربما نبذل قصارى جهدنا للبدء في صنع اللصوص. هل نريد ابتكار ذكاء اصطناعي سام؟ ألا تبدو هذه فكرة مجنونة؟ يجادل البعض بشدة بأنه يجب علينا حظر جميع أنواع الذكاء الاصطناعي السامة ، بما في ذلك الذكاء الاصطناعي الذي تم إنشاؤه عن قصد حتى لو كان يُزعم أنه بطل أو شهم. منظمة العفو الدولية من أجل الخير غرض.

القضاء على الذكاء الاصطناعي السام بأي شكل ذكي أو خبيث قد ينشأ.

تطور أخير حول هذا الموضوع في الوقت الحالي. نفترض عمومًا أن هذا الخط الشهير له علاقة بأشخاص أو أشياء تقوم بأفعال سيئة أو لاذعة. هذه هي الطريقة التي نصل بها إلى فكرة أنه يلزم اللص للقبض على لص. ربما يجب أن نقلب هذه المقولة رأساً على عقب ونجعلها أكثر سعادة من وجه حزين.

المواقع هنا كيفية القيام بذلك.

إذا كنا نريد ذكاءً اصطناعيًا غير متحيز وغير سام ، فقد يكون من المتصور أن الأمر يتطلب معرفة أحدهم. ربما يتطلب الأمر أعظم وأفضل التعرف على العظمة والخير وإنجابهما. في هذا البديل من الحكمة الحكيمة ، نبقي أنظارنا على الوجه السعيد ونهدف إلى التركيز على ابتكار منظمة العفو الدولية من أجل الخير.

سيكون ذلك أكثر تفاؤلاً ووجهة نظر مبهجة بشكل مرضٍ على المرء أن يعرفه ، إذا كنت تعرف ما أعنيه.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- مفيد-بما في ذلك-لتلك-السيارات ذاتية القيادة /