أخلاقيات الذكاء الاصطناعي تدق أجراس الإنذار حول الطيف الذي يلوح في الأفق لانحياز الذكاء الاصطناعي على نطاق عالمي هائل ، وخاصةً من خلال أنظمة ذاتية بالكامل تلوح في الأفق

صرح أفلاطون بشكل مشهور أن القرار الجيد يعتمد على المعرفة وليس على الأرقام.

تبدو هذه البصيرة المتعمقة ذات بصيرة مذهلة حول الذكاء الاصطناعي (AI) اليوم.

كما ترى ، على الرغم من العناوين الصاخبة التي تعلن حاليًا أن الذكاء الاصطناعي قد وصل بطريقة ما إلى الإحساس ويجسد المعرفة والاستدلال البشري ، يرجى الانتباه إلى أن هذا المبالغة في المبالغة في الذكاء الاصطناعي هو مراوغة خادعة لأننا ما زلنا نعتمد على تحليل الأرقام في عملية صنع القرار المتعلقة بالخوارزمية (ADM). ) على النحو الذي تقوم به أنظمة الذكاء الاصطناعي. حتى التعلم الآلي المتبجح (ML) والتعلم العميق (DL) يتكونان من مطابقة الأنماط الحسابية ، مما يعني أن الأرقام لا تزال في صميم الاستخدام الفائق لـ ML / DL.

لا نعرف ما إذا كان وصول الذكاء الاصطناعي إلى الشعور ممكنًا. يمكن أن يكون ، قد لا يكون. لا أحد يستطيع أن يقول على وجه اليقين كيف يمكن أن يحدث هذا. يعتقد البعض أننا سنعمل على تحسين جهودنا الحسابية للذكاء الاصطناعي بشكل تدريجي بحيث يحدث شكل من أشكال الشعور بشكل تلقائي. يعتقد البعض الآخر أن الذكاء الاصطناعي قد يدخل في نوع من المستعر الأعظم الحسابي ويصل إلى حد كبير إلى الإحساس من تلقاء نفسه (يشار إليه عادةً باسم التفرد). لمزيد من المعلومات حول هذه النظريات حول مستقبل الذكاء الاصطناعي ، راجع تغطيتي على الرابط هنا.

لذا ، دعونا لا نخدع أنفسنا ونعتقد خطأً أن الذكاء الاصطناعي المعاصر قادر على التفكير مثل البشر. أفترض أن السؤال يأتي بعد ذلك في المقدمة حول ملاحظة أفلاطون حول ما إذا كان بإمكاننا اتخاذ قرارات جيدة بناءً على الذكاء الاصطناعي الحسابي بدلاً من الذكاء الاصطناعي الواعي. قد تتفاجأ بمعرفة أنني سأؤكد أنه يمكننا بالفعل اتخاذ قرارات جيدة بواسطة أنظمة الذكاء الاصطناعي اليومية.

الجانب الآخر من هذه العملة هو أنه يمكننا أيضًا امتلاك أنظمة ذكاء اصطناعي يومية تتخذ قرارات سيئة. قرارات فاسدة. قرارات مليئة بالتحيزات والتفاوتات غير المرغوبة. قد تدرك أنه عندما بدأ العصر الأخير للذكاء الاصطناعي ، كان هناك اندفاع هائل من الحماس لما يسميه البعض الآن منظمة العفو الدولية من أجل الخير. لسوء الحظ ، في أعقاب تلك الإثارة المتدفقة ، بدأنا نشهد منظمة العفو الدولية للسوء. على سبيل المثال ، تم الكشف عن العديد من أنظمة التعرف على الوجه القائمة على الذكاء الاصطناعي على أنها تحتوي على تحيزات عنصرية وتحيزات بين الجنسين ، والتي ناقشتها في الرابط هنا.

جهود للقتال ضد منظمة العفو الدولية للسوء بنشاط جارية. إلى جانب صاخبة السياسات مساعي كبح جماح المخالفات ، هناك أيضًا دافع جوهري نحو تبني أخلاقيات الذكاء الاصطناعي لتصحيح ضعف الذكاء الاصطناعي. الفكرة هي أننا يجب أن نتبنى ونصادق على المبادئ الأخلاقية الرئيسية للذكاء الاصطناعي لتطوير الذكاء الاصطناعي وإدخاله في الميدان لتقويض منظمة العفو الدولية للسوء والتبشير والترويج في الوقت نفسه لما هو مفضل منظمة العفو الدولية من أجل الخير.

يمكن العثور على تغطيتي الشاملة لأخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي على هذا الرابط هنا و هذا الرابط هنا، على سبيل المثال لا الحصر.

بالنسبة لهذه المناقشة الواردة هنا ، أود أن أطرح جانبًا مثيرًا للقلق بشكل خاص حول الذكاء الاصطناعي والذي يتحسر عليه أولئك الموجودون في مجال أخلاقيات الذكاء الاصطناعي ويحاولون رفع مستوى الوعي المناسب بشأنه. إن الأمر المقلق والمثير للقلق هو في الواقع واضح تمامًا للإشارة إليه.

ومن هنا: يتمتع الذكاء الاصطناعي بإمكانيات حقيقية لإصدار تحيزات عميقة في الذكاء الاصطناعي على نطاق عالمي ينذر بالخطر.

وعندما أقول "على نطاق واسع" فإن هذا يعني بشكل واضح نطاق واسع في جميع أنحاء العالم. مقياس عملاق. مقياس يخرج عن المقياس.

قبل أن أتعمق في كيفية حدوث هذا التوسع في التحيزات الغارقة في الذكاء الاصطناعي ، دعونا نتأكد من أن لدينا جميعًا ما يشبه كيف يمكن للذكاء الاصطناعي دمج التحيزات غير المبررة وعدم المساواة. تذكر مرة أخرى أن هذا ليس من التنوع الواعي. هذا كله من عيار حسابي.

قد تشعر بالحيرة حيال كيف يمكن للذكاء الاصطناعي أن يفرز نفس أنواع التحيزات والظلم العكسي الذي يفعله البشر. نميل إلى التفكير في الذكاء الاصطناعي على أنه محايد تمامًا وغير متحيز ، إنه مجرد آلة ليس لها أي تأثير عاطفي أو تفكير كريه قد يكون لدى البشر. واحدة من أكثر الوسائل شيوعًا للذكاء الاصطناعي التي تقع في الانحيازات وعدم المساواة تحدث عند استخدام التعلم الآلي والتعلم العميق ، وذلك جزئيًا نتيجة الاعتماد على البيانات التي تم جمعها حول كيفية اتخاذ البشر للقرارات.

اسمح لي بلحظة للتوسع.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين يتخذون نمطًا بناءً على القرارات قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق خفية ولكنها مهمة. ستحاول مطابقة الأنماط الحسابية للتعلم الآلي أو التعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة المصممة بالذكاء الاصطناعي في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة في ML / DL من الصعب اكتشاف التحيزات الخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا أكثر تعقيدًا مما قد يبدو. توجد فرصة قوية أنه حتى مع إجراء اختبارات مكثفة نسبيًا ، لا تزال هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

يمكنك إلى حد ما استخدام القول المأثور الشهير أو سيئ السمعة من القمامة في القمامة. الشيء هو ، هذا أقرب إلى التحيزات - التي يتم غرسها بشكل خبيث على أنها تحيزات مغمورة داخل الذكاء الاصطناعي. تصبح عملية اتخاذ القرار في الخوارزمية أو ADM للذكاء الاصطناعي محملة بالظلم.

غير جيد.

يقودنا هذا إلى مسألة التحيزات المتأصلة في الذكاء الاصطناعي عندما تكون على نطاق واسع.

أولاً ، دعنا نلقي نظرة على كيف أن التحيزات البشرية قد تؤدي إلى عدم المساواة. تقرر الشركة التي تقدم قروض الرهن العقاري استئجار وكيل قروض عقارية. من المفترض أن يقوم الوكيل بمراجعة الطلبات الواردة من المستهلكين الذين يرغبون في الحصول على قرض لشراء منزل. بعد تقييم الطلب ، يتخذ الوكيل قرارًا إما بمنح القرض أو رفض القرض. سهل جدا.

من أجل المناقشة ، دعنا نتخيل أن وكيل القروض البشرية يمكنه تحليل 8 قروض في اليوم ، ويستغرق ذلك حوالي ساعة واحدة لكل مراجعة. في أسبوع عمل مدته خمسة أيام ، يقوم الوكيل بإجراء حوالي 40 مراجعة للقرض. على أساس سنوي ، يقوم الوكيل عادةً بإجراء حوالي 2,000 مراجعة للقرض ، أو يعطي أو يأخذ قليلاً.

تريد الشركة زيادة حجم مراجعات القروض الخاصة بها ، وبالتالي توظف الشركة 100 وكيل قرض إضافي. لنفترض أن لديهم جميعًا نفس الإنتاجية تقريبًا وهذا يعني أنه يمكننا الآن التعامل مع حوالي 200,000 قرض سنويًا (بمعدل 2,000 مراجعة قرض سنويًا لكل وكيل). يبدو أننا عززنا بالفعل معالجة طلبات القروض.

تبين أن الشركة تبتكر نظامًا للذكاء الاصطناعي يمكنه بشكل أساسي إجراء نفس مراجعات القروض التي يقوم بها الوكلاء البشريون. يعمل الذكاء الاصطناعي على خوادم الكمبيوتر في السحابة. عبر البنية التحتية السحابية ، يمكن للشركة بسهولة إضافة المزيد من قوة الحوسبة لاستيعاب أي حجم من مراجعات القروض التي قد تكون مطلوبة.

باستخدام تكوين AI الحالي ، يمكنهم إجراء 1,000 مراجعة للقرض في الساعة. يمكن أن يحدث هذا أيضًا 24 × 7. لا يوجد وقت إجازة مطلوب للذكاء الاصطناعي. لا استراحات غداء. يعمل الذكاء الاصطناعي على مدار الساعة دون أي صراخ بشأن الإرهاق. سنقول أنه بهذه الوتيرة التقريبية ، يمكن للذكاء الاصطناعي معالجة ما يقرب من 9 ملايين طلب قروض سنويًا.

لاحظ أننا انتقلنا من وجود 100 وكيل بشري يمكنهم تقديم 200,000 قرض سنويًا وقفزنا عدة مرات إلى الرقم الذي زاد كثيرًا وهو 9 ملايين مراجعة سنويًا عبر نظام الذكاء الاصطناعي. لقد قمنا بتوسيع نطاق معالجة طلبات القروض بشكل كبير. لا شك في ذلك.

استعد للضربة التي ربما تجعلك تسقط من على كرسيك.

افترض أن بعض وكلائنا البشريين يتخذون قراراتهم بشأن القروض على أساس التحيزات غير المرغوبة. ربما يعطي البعض العوامل العرقية دورًا رئيسيًا في قرار القرض. ربما يستخدم البعض الجنس. يستخدم الآخرون العمر. وهلم جرا.

من بين 200,000 مراجعة للقرض السنوي ، كم عدد المراجعات التي يتم إجراؤها في ظل النظرة الخاطئة للتحيزات والظلم العكسي؟ ربما 10٪ أي حوالي 20,000 من طلبات القروض. والأسوأ من ذلك ، لنفترض أنه يمثل 50٪ من طلبات القروض ، وفي هذه الحالة هناك 100,000 حالة سنوية مزعجة لقرارات القروض التي تم تحديدها بشكل خاطئ.

هذا سيء. لكن لا يزال يتعين علينا التفكير في احتمال أكثر إثارة للرعب.

لنفترض أن للذكاء الاصطناعي تحيزًا خفيًا يتكون من عوامل مثل العرق والجنس والعمر وما شابه. إذا تعرضت 10٪ من تحليلات القروض السنوية لهذا البذاءة ، فلدينا 900,000 طلب قروض يتم التعامل معها بشكل غير صحيح. هذا أكثر بكثير مما يمكن أن يفعله البشر ، ويرجع ذلك أساسًا إلى جوانب الحجم. إذا كان هؤلاء الوكلاء المائة يقومون بمراجعة غير عادلة ، فيمكنهم القيام بذلك على الأكثر من خلال 100 مراجعة للقرض السنوي. يمكن للذكاء الاصطناعي أن يفعل الشيء نفسه على نطاق واسع بكثير من 200,000،9,000,000،XNUMX مراجعة سنوية.

ييكيس!

هذا حقًا تحيز غارق في الذكاء الاصطناعي على نطاق هائل.

عندما يتم دفن التحيزات غير المرغوبة داخل نظام الذكاء الاصطناعي ، فإن نفس المقياس الذي بدا مفيدًا ينقلب الآن رأساً على عقب ويصبح نتيجة تحجيم مخادعة (ومقلقة) بشكل رهيب. من ناحية أخرى ، يمكن للذكاء الاصطناعي أن يكون مفيدًا للتعامل مع المزيد من الأشخاص الذين يطلبون قروضًا لشراء المنازل. على السطح ، يبدو هذا هائلاً منظمة العفو الدولية من أجل الخير. يجب علينا أن نربت على ظهورنا لتوسيع فرص البشر على الأرجح في الحصول على القروض اللازمة. في هذه الأثناء ، إذا كان الذكاء الاصطناعي يحتوي على تحيزات ، فإن القياس سيكون نتيجة فاسدة للغاية ونجد أنفسنا غارقين في حزن شديد. منظمة العفو الدولية للسوء، على نطاق هائل حقًا.

السيف ذو الحدين الذي يضرب به المثل.

يمكن للذكاء الاصطناعي أن يزيد بشكل جذري من الوصول إلى صنع القرار لأولئك الذين يسعون للحصول على الخدمات والمنتجات المرغوبة. لا مزيد من قيود العمالة المقيدة. أمتياز! الجانب الآخر من السيف هو أنه إذا احتوى الذكاء الاصطناعي على سوء مثل عدم المساواة الخفية ، فإن نفس الحجم الهائل للغاية سيصدر هذا السلوك غير المرغوب فيه على نطاق لا يمكن تصوره. مثير للسخط ، خاطئ ، مخجل ، ولا يمكننا السماح للمجتمع بالوقوع في مثل هذه الهاوية القبيحة.

يجب على أي شخص يشعر بالحيرة بشأن سبب حاجتنا للتخلص من أهمية أخلاقيات الذكاء الاصطناعي أن يدرك الآن أن ظاهرة توسيع نطاق الذكاء الاصطناعي هي سبب مهم ومترجول لمتابعة الذكاء الاصطناعي الأخلاقي. لنأخذ لحظة للتفكير بإيجاز في بعض المبادئ الأخلاقية الرئيسية للذكاء الاصطناعي لتوضيح ما يجب أن يكون تركيزًا حيويًا لأي شخص يقوم بصياغة أو استخدام أو استخدام الذكاء الاصطناعي.

على سبيل المثال ، كما صرح الفاتيكان في دعوة روما لأخلاقيات الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • الشفافية: من حيث المبدأ ، يجب أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير
  • إدراجه: يجب أن تؤخذ احتياجات جميع البشر في الاعتبار حتى يستفيد الجميع ، ويمكن لجميع الأفراد توفير أفضل الظروف الممكنة للتعبير عن أنفسهم وتطويرهم.
  • المسئولية: يجب على أولئك الذين يصممون وينشرون استخدام الذكاء الاصطناعي أن يتابعوا المسؤولية والشفافية
  • النزاهة: لا تخلق أو تتصرف على أساس التحيز ، وبالتالي الحفاظ على العدالة والكرامة الإنسانية
  • الموثوقية: يجب أن تكون أنظمة الذكاء الاصطناعي قادرة على العمل بشكل موثوق
  • الأمن والخصوصية: يجب أن تعمل أنظمة الذكاء الاصطناعي بشكل آمن وتحترم خصوصية المستخدمين.

كما صرحت وزارة الدفاع الأمريكية (DoD) في المبادئ الأخلاقية لاستخدام الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • مسؤول: سوف يمارس موظفو وزارة الدفاع مستويات مناسبة من الحكم والرعاية مع الاستمرار في المسؤولية عن تطوير ونشر واستخدام قدرات الذكاء الاصطناعي.
  • العادل: ستتخذ الإدارة خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي.
  • تعقبها: سيتم تطوير ونشر قدرات الذكاء الاصطناعي في الإدارة بحيث يمتلك الموظفون المعنيون فهمًا مناسبًا للتكنولوجيا وعمليات التطوير والأساليب التشغيلية المطبقة على قدرات الذكاء الاصطناعي ، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق ومصادر البيانات وإجراءات التصميم والوثائق.
  • موثوق: سيكون لإمكانيات الذكاء الاصطناعي في الإدارة استخدامات واضحة ومحددة جيدًا ، وستخضع سلامة وأمن وفعالية هذه القدرات للاختبار والتأكيد ضمن تلك الاستخدامات المحددة عبر دورات حياتها بأكملها.
  • للحكم: ستقوم الإدارة بتصميم وهندسة قدرات الذكاء الاصطناعي للوفاء بالوظائف المقصودة مع امتلاك القدرة على اكتشاف وتجنب العواقب غير المقصودة ، والقدرة على فك أو إلغاء تنشيط الأنظمة المنشورة التي تظهر سلوكًا غير مقصود.

لقد ناقشت أيضًا العديد من التحليلات الجماعية للمبادئ الأخلاقية للذكاء الاصطناعي ، بما في ذلك تغطية مجموعة ابتكرها باحثون قاموا بفحص وتكثيف جوهر العديد من مبادئ أخلاقيات الذكاء الاصطناعي الوطنية والدولية في ورقة بعنوان "المشهد العالمي لإرشادات أخلاقيات الذكاء الاصطناعي" (تم نشره) في الطبيعة) ، وأن تغطيتي تستكشف في الرابط هنا، مما أدى إلى هذه القائمة الأساسية:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

كما قد تخمن بشكل مباشر ، فإن محاولة تحديد التفاصيل التي تقوم عليها هذه المبادئ قد يكون صعبًا للغاية. والأكثر من ذلك ، فإن الجهد المبذول لتحويل هذه المبادئ العريضة إلى شيء ملموس ومفصل تمامًا بما يكفي لاستخدامه عند صياغة أنظمة الذكاء الاصطناعي يعد أيضًا من الصعب كسرها. من السهل بشكل عام القيام ببعض التلويح اليدوي حول ماهية مبادئ أخلاقيات الذكاء الاصطناعي وكيف ينبغي مراعاتها بشكل عام ، في حين أنه وضع أكثر تعقيدًا على أن يكون ترميز الذكاء الاصطناعي هو المطاط الحقيقي الذي يلبي الطريق.

يجب استخدام مبادئ أخلاقيات الذكاء الاصطناعي من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف. يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. يرجى العلم أن الأمر يتطلب قرية لابتكار واستخدام الذكاء الاصطناعي. من أجل ذلك يجب على القرية بأكملها أن تحافظ على اهتمامها بأخلاقيات الذكاء الاصطناعي.

كيف يعمل مقياس التحيزات المنقوع بالذكاء الاصطناعي

الآن بعد أن وصلت إلى الجدول الذي يمكن أن يحتويه الذكاء الاصطناعي على التحيزات ، نحن مستعدون لفحص بعض الأسباب التي تجعل توسيع نطاق الذكاء الاصطناعي شديد التطفل.

ضع في اعتبارك هذه القائمة الأساسية المكونة من عشرة أسباب أساسية:

  1. من السهل تكرارها
  2. التكلفة الدنيا للقياس
  3. متسقة بشكل بغيض
  4. عدم التأمل الذاتي
  5. الطاعة العمياء
  6. لا يميل يده
  7. المستلم مطمئن
  8. لا يميل إلى إثارة الاستفزاز
  9. هالة كاذبة من الإنصاف
  10. يصعب دحضه

سأستكشف بإيجاز كل نقطة من هذه النقاط الحاسمة.

عندما تحاول توسيع نطاق العمل البشري ، فمن المرجح أن القيام بذلك سيكون معقدًا للغاية. عليك أن تجد وتوظف الناس. عليك تدريبهم للقيام بهذه المهمة. عليك أن تدفع لهم وأن تأخذ في الاعتبار رغبات واحتياجات الإنسان. قارن هذا بنظام الذكاء الاصطناعي. تقوم بتطويره واستخدامه. بخلاف قدر من الصيانة المستمرة للذكاء الاصطناعي ، يمكنك الجلوس والسماح لها بالعمل إلى ما لا نهاية.

هذا يعني أن الذكاء الاصطناعي يمكن نسخه بسهولة. يمكنك إضافة المزيد من قوة الحوسبة حسب ما تتطلبه المهمة والحجم (لا تقوم بالتوظيف أو الفصل). يتم الاستخدام العالمي بضغطة زر ويتم الوصول إليه من خلال التوافر العالمي للإنترنت. إن التوسع في التكلفة هو أقل تكلفة مقارنة بالقيام بالمثل مع العمالة البشرية.

العمل البشري معروف بعدم الاتساق. عندما يكون لديك فرق كبيرة ، يكون لديك صندوق حقيقي من الشوكولاتة بحيث لا تعرف أبدًا ما قد يكون بين يديك. من المرجح أن يكون نظام الذكاء الاصطناعي متسقًا للغاية. يكرر نفس الأنشطة مرارًا وتكرارًا ، في كل مرة تكون في الأساس هي نفسها السابقة.

عادة ، سوف نستمتع باتساق الذكاء الاصطناعي. إذا كان البشر عرضة للتحيز ، فسيكون لدينا دائمًا جزء من عملنا البشري الذي ينحرف عن مساره. إذا كان الذكاء الاصطناعي محايدًا تمامًا في بنائه وجهوده الحسابية ، فسيكون إلى حد بعيد أكثر اتساقًا. لكن المشكلة هي أنه إذا كان الذكاء الاصطناعي يخفي تحيزات ، فإن الاتساق الآن مقيت بشكل مؤلم. الاحتمالات هي أن السلوك المتحيز سيتم تنفيذه باستمرار ، مرارًا وتكرارًا.

من المأمول أن يكون لدى البشر بعض المعرفة بالتأمل الذاتي وربما يكتشفون أنفسهم وهم يتخذون قرارات متحيزة. أنا لا أقول أن كل شيء سيفعل ذلك. أنا أيضًا لا أقول إن أولئك الذين يمسكون بأنفسهم سوف يصححون أخطائهم بالضرورة. على أي حال ، فإن بعض البشر على الأقل قد يصححون أنفسهم أحيانًا.

من غير المحتمل أن يكون للذكاء الاصطناعي أي شكل من أشكال التأمل الذاتي الحسابي. هذا يعني أن الذكاء الاصطناعي يستمر في فعل ما يفعله. يبدو أن هناك فرصة معدومة لأن يكتشف الذكاء الاصطناعي أنه يتعارض مع حقوق الملكية. ومع ذلك ، فقد وصفت بعض الجهود للتعامل مع هذا ، مثل بناء مكونات أخلاقيات الذكاء الاصطناعي داخل الذكاء الاصطناعي (انظر الرابط هنا) وابتكار الذكاء الاصطناعي الذي يراقب أنظمة الذكاء الاصطناعي الأخرى لتمييز أنشطة الذكاء الاصطناعي غير الأخلاقية (انظر الرابط هنا).

نظرًا لعدم وجود أي نوع من التأمل الذاتي ، من المحتمل أيضًا أن يكون للذكاء الاصطناعي طاعة عمياء لأي شيء تم توجيهه للقيام به. قد لا يكون البشر مطيعين إلى هذا الحد. من المحتمل أن بعض البشر الذين يقومون بمهمة ما سوف يتساءلون عما إذا كانوا قد تم توجيههم إلى منطقة عدم المساواة. يميلون إلى رفض الأوامر غير الأخلاقية أو ربما يسلكون طريق المبلغين عن المخالفات (انظر تغطيتي في هذا الرابط هنا). لا تتوقع من الذكاء الاصطناعي المعاصر أن يشكك بطريقة ما في برامجه.

ننتقل بعد ذلك إلى أولئك الذين يستخدمون الذكاء الاصطناعي. إذا كنت تسعى للحصول على قرض لشراء منزل وتحدثت مع شخص ما ، فقد تكون في حالة تأهب بشأن ما إذا كان الإنسان يعطيك هزة عادلة. عند استخدام نظام الذكاء الاصطناعي ، يبدو أن معظم الناس أقل شكًا. غالبًا ما يفترضون أن الذكاء الاصطناعي عادل وأن ergo لا ينفجر بسرعة. يبدو أن الذكاء الاصطناعي يهدئ الناس في نشوة "إنها مجرد آلة". علاوة على ذلك ، قد يكون من الصعب محاولة الاحتجاج على الذكاء الاصطناعي. على النقيض من ذلك ، فإن الاحتجاج على الطريقة التي عوملك بها عامل بشري أسهل كثيرًا وأكثر قبولًا وافتراضًا على أنه ممكن.

أخيرًا ، فإن الذكاء الاصطناعي الغارق في التحيزات له تأثير مخزي على البشر المنغمسين في التحيزات ، أي من حيث القدرة على نشر هذه التحيزات على نطاق واسع على نطاق واسع ، والقيام بذلك دون أن يتم القبض عليه بسهولة أو وجود مستهلكين. أدرك ما يحدث بشكل مزعج.

في هذه المرحلة من هذه المناقشة ، أراهن أنك ترغب في بعض الأمثلة الإضافية التي قد تعرض لغز التحيزات الغارقة في الذكاء الاصطناعي على نطاق واسع.

أنا سعيد لأنك سألت.

هناك مجموعة خاصة وشعبية بالتأكيد من الأمثلة القريبة من قلبي. كما ترى ، بصفتي خبيرًا في الذكاء الاصطناعي بما في ذلك التداعيات الأخلاقية والقانونية ، يُطلب مني كثيرًا تحديد أمثلة واقعية تعرض معضلات أخلاقيات الذكاء الاصطناعي بحيث يمكن فهم الطبيعة النظرية إلى حد ما للموضوع بسهولة أكبر. واحدة من أكثر المجالات إثارة للذكريات التي تقدم بوضوح هذا المأزق الأخلاقي للذكاء الاصطناعي هو ظهور سيارات ذاتية القيادة حقيقية قائمة على الذكاء الاصطناعي. سيكون هذا بمثابة حالة استخدام مفيدة أو نموذجًا لمناقشة مستفيضة حول هذا الموضوع.

إليك إذن سؤال جدير بالملاحظة يستحق التفكير فيه: هل يسلط ظهور السيارات ذاتية القيادة الحقيقية القائمة على الذكاء الاصطناعي الضوء على أي شيء يتعلق بالتحيزات الحادة للذكاء الاصطناعي على نطاق واسع ، وإذا كان الأمر كذلك ، فما الذي يعرضه هذا؟

اسمح لي بلحظة لفك السؤال.

أولاً ، لاحظ أنه لا يوجد سائق بشري متورط في سيارة حقيقية ذاتية القيادة. ضع في اعتبارك أن السيارات الحقيقية ذاتية القيادة يتم قيادتها عبر نظام قيادة بالذكاء الاصطناعي. ليست هناك حاجة لسائق بشري على عجلة القيادة ، ولا يوجد شرط لقيادة الإنسان للسيارة. لتغطيتي الواسعة والمستمرة للمركبات ذاتية القيادة (AVs) وخاصة السيارات ذاتية القيادة ، انظر الرابط هنا.

أود أن أوضح ما هو المقصود عندما أشير إلى السيارات الحقيقية ذاتية القيادة.

فهم مستويات السيارات ذاتية القيادة

للتوضيح ، السيارات الحقيقية ذاتية القيادة هي تلك التي يقودها الذكاء الاصطناعي بالكامل من تلقاء نفسه ولا توجد أي مساعدة بشرية أثناء مهمة القيادة.

تعتبر هذه المركبات ذاتية القيادة من المستوى 4 والمستوى 5 (انظر الشرح في هذا الرابط هنا) ، في حين أن السيارة التي تتطلب سائقًا بشريًا للمشاركة في جهد القيادة يتم اعتبارها عادةً في المستوى 2 أو المستوى 3. يتم وصف السيارات التي تشارك في مهمة القيادة بأنها شبه مستقلة ، وتحتوي عادةً على مجموعة متنوعة من الوظائف الإضافية المؤتمتة التي يشار إليها باسم ADAS (أنظمة مساعدة السائق المتقدمة).

لا توجد حتى الآن سيارة حقيقية ذاتية القيادة في المستوى 5 ، والتي لا نعرف حتى الآن ما إذا كان ذلك ممكنًا ، ولا كم من الوقت سيستغرق الوصول إلى هناك.

وفي الوقت نفسه ، تحاول جهود المستوى 4 تدريجياً الحصول على بعض الجاذبية من خلال الخضوع لتجارب طرق عامة ضيقة للغاية وانتقائية ، على الرغم من وجود جدل حول ما إذا كان يجب السماح بهذا الاختبار في حد ذاته (نحن جميعًا حيوانات تجارب حياة أو موت في التجربة التي تجري على طرقنا السريعة والطرق الفرعية ، يدعي البعض ، انظر تغطيتي في هذا الرابط هنا).

نظرًا لأن السيارات شبه المستقلة تتطلب سائقًا بشريًا ، فإن اعتماد هذه الأنواع من السيارات لن يكون مختلفًا بشكل ملحوظ عن قيادة المركبات التقليدية ، لذلك لا يوجد الكثير في حد ذاته لتغطية هذه المواضيع (على الرغم من ذلك ، كما سترى في لحظة ، النقاط التالية تنطبق بشكل عام).

بالنسبة للسيارات شبه المستقلة ، من المهم أن يتم تحذير الجمهور بشأن جانب مزعج ظهر مؤخرًا ، أي أنه على الرغم من هؤلاء السائقين البشر الذين يستمرون في نشر مقاطع فيديو لأنفسهم ينامون على عجلة سيارة من المستوى 2 أو المستوى 3 علينا جميعًا أن نتجنب التضليل حتى نصدق أن السائق يمكنه أن يلفت انتباهه عن مهمة القيادة أثناء قيادة سيارة شبه مستقلة.

أنت الطرف المسؤول عن إجراءات القيادة في السيارة ، بغض النظر عن مقدار الأتمتة التي قد يتم قذفها في المستوى 2 أو المستوى 3.

السيارات ذاتية القيادة وانحياز الذكاء الاصطناعي على نطاق واسع

بالنسبة للمركبات ذاتية القيادة الحقيقية من المستوى 4 والمستوى 5 ، لن يكون هناك سائق بشري يشارك في مهمة القيادة.

سيكون جميع الركاب من الركاب.

تقوم منظمة العفو الدولية بالقيادة.

أحد الجوانب التي يجب مناقشتها على الفور يستلزم حقيقة أن الذكاء الاصطناعي المتضمن في أنظمة قيادة الذكاء الاصطناعي اليوم ليس واعيًا. بعبارة أخرى ، الذكاء الاصطناعي عبارة عن مجموعة من البرمجة والخوارزميات المستندة إلى الكمبيوتر ، وهو بالتأكيد غير قادر على التفكير بنفس الطريقة التي يستطيع بها البشر.

لماذا هذا التركيز الإضافي على الذكاء الاصطناعي ليس واعيا؟

لأنني أريد أن أؤكد أنه عند مناقشة دور نظام القيادة للذكاء الاصطناعي ، فأنا لا أنسب الصفات البشرية للذكاء الاصطناعي. يرجى العلم أن هناك اتجاهًا مستمرًا وخطيرًا هذه الأيام لتجسيد الذكاء الاصطناعي. من حيث الجوهر ، يخصص الناس ذكاءً شبيهاً بالإنسان إلى الذكاء الاصطناعي اليوم ، على الرغم من الحقيقة التي لا يمكن إنكارها والتي لا جدال فيها وهي عدم وجود مثل هذا الذكاء الاصطناعي حتى الآن.

مع هذا التوضيح ، يمكنك أن تتخيل أن نظام القيادة بالذكاء الاصطناعي لن "يعرف" بطريقة أو بأخرى جوانب القيادة. القيادة وكل ما تتطلبه يجب برمجتها كجزء من أجهزة وبرامج السيارة ذاتية القيادة.

دعونا نتعمق في عدد لا يحصى من الجوانب التي تأتي للعب في هذا الموضوع.

أولاً ، من المهم أن ندرك أنه ليست كل سيارات الذكاء الاصطناعي ذاتية القيادة هي نفسها. تتبنى كل شركة تصنيع سيارات وشركة تقنية ذاتية القيادة نهجها في ابتكار سيارات ذاتية القيادة. على هذا النحو ، من الصعب الإدلاء ببيانات شاملة حول ما ستفعله أو لا تفعله أنظمة القيادة بالذكاء الاصطناعي.

علاوة على ذلك ، عندما يذكر أن نظام القيادة بالذكاء الاصطناعي لا يفعل شيئًا معينًا ، يمكن ، لاحقًا ، تجاوز هذا الأمر من قبل المطورين الذين يقومون في الواقع ببرمجة الكمبيوتر للقيام بهذا الشيء بالذات. خطوة بخطوة ، يتم تحسين أنظمة القيادة بالذكاء الاصطناعي وتوسيعها تدريجياً. قد لا يوجد قيد موجود اليوم في تكرار أو إصدار مستقبلي من النظام.

أنا على ثقة من أن ذلك يوفر مجموعة كافية من المحاذير لإبراز ما أنا على وشك ربطه.

نحن مستعدون الآن لإجراء غوص عميق في السيارات ذاتية القيادة وإمكانيات الذكاء الاصطناعي الأخلاقية التي تنطوي على استكشاف التحيزات الغارقة في الذكاء الاصطناعي والتي تم نشرها على نطاق واسع.

دعنا نستخدم مثالًا مباشرًا بسهولة. سيارة ذاتية القيادة تعتمد على الذكاء الاصطناعي قيد التشغيل في شوارع الحي الخاص بك ويبدو أنها تقود بأمان. في البداية ، كنت قد كرست اهتمامًا خاصًا لكل مرة تمكنت فيها من إلقاء نظرة على السيارة ذاتية القيادة. تميزت السيارة المستقلة بحاملها من المستشعرات الإلكترونية التي تضمنت كاميرات فيديو ووحدات رادار وأجهزة LIDAR وما شابه. بعد عدة أسابيع من تجول السيارة ذاتية القيادة حول مجتمعك ، بالكاد تلاحظ ذلك. بقدر ما تشعر بالقلق ، إنها مجرد سيارة أخرى على الطرق العامة المزدحمة بالفعل.

لئلا تعتقد أنه من المستحيل أو غير المعقول أن تصبح على دراية برؤية السيارات ذاتية القيادة ، فقد كتبت مرارًا وتكرارًا عن كيف أن الأماكن التي تقع في نطاق تجارب السيارات ذاتية القيادة قد اعتادت تدريجيًا على رؤية المركبات المتقنة ، انظر تحليلي في هذا الرابط هنا. تحول العديد من السكان المحليين في نهاية المطاف من التثاؤب المليء بالفم إلى إطلاق تثاؤب ممتد من الملل لمشاهدة تلك السيارات ذاتية القيادة المتعرجة.

ربما يكون السبب الرئيسي الآن وراء ملاحظة السيارات ذاتية القيادة هو عامل التهيج والسخط. تتأكد أنظمة القيادة المدعومة بالذكاء الاصطناعي من الكتاب المقدس من أن السيارات تمتثل لجميع حدود السرعة وقواعد الطريق. بالنسبة للسائقين البشر المحمومون في سياراتهم التقليدية التي يقودها الإنسان ، فإنك تنزعج في بعض الأحيان عندما تعلق خلف السيارات ذاتية القيادة القائمة على الذكاء الاصطناعي والتي تلتزم بالقانون بدقة.

هذا شيء قد نحتاج جميعًا إلى التعود عليه ، صوابًا أو خطأً.

العودة إلى حكايتنا.

تبين أن هناك قلقين غير لائقين بدأ في الظهور حول السيارات ذاتية القيادة غير الضارة والمرحب بها بشكل عام والتي تعتمد على الذكاء الاصطناعي ، على وجه التحديد:

أ. حيث كان الذكاء الاصطناعي يتجول في السيارات ذاتية القيادة لالتقاط الركوب كان يلوح في الأفق كمصدر قلق صريح

ب. كيف يتعامل الذكاء الاصطناعي مع المشاة المنتظرين الذين لا يملكون حق المرور كان يتزايد كقضية ملحة

في البداية ، كان الذكاء الاصطناعي يتجول في السيارات ذاتية القيادة في جميع أنحاء المدينة. أي شخص يريد أن يطلب مشوارًا في السيارة ذاتية القيادة لديه فرصة متساوية في الترحيب بواحد. تدريجيًا ، بدأ الذكاء الاصطناعي في الحفاظ على تجوال السيارات ذاتية القيادة في جزء واحد فقط من المدينة. كان هذا القسم مصدر دخل أكبر وقد تمت برمجة نظام الذكاء الاصطناعي لمحاولة تعظيم الإيرادات كجزء من الاستخدام في المجتمع.

كان أفراد المجتمع في الأجزاء الفقيرة من المدينة أقل احتمالًا لأن يكونوا قادرين على ركوب سيارة ذاتية القيادة. كان هذا لأن السيارات ذاتية القيادة كانت بعيدة وتتجول في الجزء الأعلى من الإيرادات في المنطقة المحلية. عندما يأتي طلب من جزء بعيد من المدينة ، فإن أي طلب من موقع أقرب من المحتمل أن يكون في الجزء "المحترم" من المدينة سيحصل على أولوية أعلى. في نهاية المطاف ، كان من المستحيل تقريبًا الحصول على سيارة ذاتية القيادة في أي مكان آخر غير الجزء الأغنى من المدينة ، مما يثير الغضب الشديد لأولئك الذين يعيشون في تلك المناطق التي تعاني من نقص الموارد الآن.

يمكنك التأكيد على أن الذكاء الاصطناعي قد هبط إلى حد كبير على شكل من أشكال التمييز بالوكالة (يشار إليه غالبًا بالتمييز غير المباشر). لم يكن الذكاء الاصطناعي مبرمجًا لتجنب تلك الأحياء الفقيرة. وبدلاً من ذلك ، "تعلمت" القيام بذلك عن طريق استخدام ML / DL.

الشيء هو أن مشاركة السائقين من البشر كانوا معروفين بفعل نفس الشيء ، ولكن ليس بالضرورة بسبب زاوية كسب المال. كان هناك بعض السائقين البشريين الذين يتشاركون في الركوب والذين لديهم تحيز غير مرغوب فيه حول اصطحاب الركاب في أجزاء معينة من المدينة. كانت هذه ظاهرة معروفة إلى حد ما وقد وضعت المدينة نهجًا للمراقبة للقبض على السائقين البشريين وهم يفعلون ذلك. قد يواجه السائقون البشريون مشكلة بسبب قيامهم بممارسات اختيار غير مرغوب فيها.

كان من المفترض أن الذكاء الاصطناعي لن يقع أبدًا في نفس النوع من الرمال المتحركة. لم يتم إعداد أي مراقبة متخصصة لتتبع المكان الذي كانت تسير فيه السيارات ذاتية القيادة القائمة على الذكاء الاصطناعي. فقط بعد أن بدأ أفراد المجتمع في الشكوى ، أدرك قادة المدينة ما كان يحدث. لمزيد من المعلومات حول هذه الأنواع من المشكلات على مستوى المدينة والتي ستعرضها المركبات ذاتية القيادة والسيارات ذاتية القيادة ، راجع تغطيتي على هذا الرابط هنا والتي تصف دراسة بقيادة هارفارد شاركت في تأليفها حول هذا الموضوع.

يوضح هذا المثال لجوانب التجوال في السيارات ذاتية القيادة القائمة على الذكاء الاصطناعي الإشارة السابقة إلى أنه يمكن أن تكون هناك مواقف تنطوي على تحيزات غير مرغوب فيها من البشر ، والتي يتم وضع ضوابط لها ، وأن الذكاء الاصطناعي الذي يحل محل هؤلاء السائقين البشريين متروك- مجانا. لسوء الحظ ، يمكن للذكاء الاصطناعي أن يغرق بشكل تدريجي في تحيزات مشابهة ويفعل ذلك بدون حواجز حماية كافية.

يوضح هذا أيضًا التحيزات العميقة للذكاء الاصطناعي على نطاق واسع.

في حالة السائقين البشر ، ربما يكون لدينا القليل هنا أو هناك ممن يمارسون شكلاً من أشكال عدم المساواة. بالنسبة لنظام القيادة بالذكاء الاصطناعي ، عادةً ما يكون أحد أنظمة الذكاء الاصطناعي الموحدة لأسطول كامل من السيارات ذاتية القيادة. وبالتالي ، ربما بدأنا بخمسين سيارة ذاتية القيادة في المدينة (جميعها تعمل بنفس كود الذكاء الاصطناعي) ، وزادنا تدريجيًا لنفترض أن 500 سيارة ذاتية القيادة (جميعها تعمل بنفس كود الذكاء الاصطناعي). نظرًا لأن جميع هذه السيارات ذاتية القيادة الخمسمائة يتم تشغيلها بواسطة نفس الذكاء الاصطناعي ، فإنها تخضع جميعها لنفس التحيزات والتفاوتات المشتقة المضمنة في الذكاء الاصطناعي.

التحجيم يؤلمنا في هذا الصدد.

يتضمن المثال الثاني منظمة العفو الدولية التي تحدد ما إذا كان يجب التوقف انتظارًا للمشاة الذين ليس لديهم حق المرور لعبور الشارع.

كنت بلا شك تقود سيارتك وواجهت مشاة كانوا ينتظرون عبور الشارع ومع ذلك لم يكن لديهم حق المرور للقيام بذلك. هذا يعني أن لديك حرية التصرف فيما إذا كان عليك التوقف والسماح لهم بالعبور. يمكنك المضي قدمًا دون السماح لهم بالعبور وستظل ضمن قواعد القيادة القانونية للقيام بذلك.

اقترحت الدراسات التي أجريت حول كيفية اتخاذ السائقين من البشر للوقوف أو عدم التوقف لمثل هؤلاء المشاة أنه في بعض الأحيان يتخذ السائقون البشريون القرار بناءً على تحيزات غير مرغوب فيها. قد ينظر السائق البشري إلى المشاة ويختار عدم التوقف ، على الرغم من أنه كان من الممكن أن يتوقف لو كان مظهر المشاة مختلفًا ، على سبيل المثال على أساس العرق أو الجنس. لقد فحصت هذا في الرابط هنا.

تخيل أن السيارات ذاتية القيادة القائمة على الذكاء الاصطناعي مبرمجة للتعامل مع مسألة ما إذا كان يجب التوقف أو عدم التوقف للمشاة الذين ليس لديهم حق المرور. إليك كيف قرر مطورو الذكاء الاصطناعي برمجة هذه المهمة. قاموا بجمع البيانات من كاميرات الفيديو الخاصة بالمدينة والتي تم وضعها في جميع أنحاء المدينة. تعرض البيانات السائقين البشريين الذين يتوقفون للمشاة الذين ليس لديهم حق المرور والسائقين البشريين الذين لا يتوقفون. يتم جمعها كلها في مجموعة بيانات كبيرة.

باستخدام التعلم الآلي والتعلم العميق ، يتم نمذجة البيانات حسابيًا. ثم يستخدم نظام القيادة AI هذا النموذج ليقرر متى يتوقف أو لا يتوقف. بشكل عام ، الفكرة هي أنه مهما كانت العادات المحلية ، فهذه هي الطريقة التي يوجه بها الذكاء الاصطناعي السيارة ذاتية القيادة.

ولدهشة قادة المدينة والسكان ، كان من الواضح أن الذكاء الاصطناعي كان يختار التوقف أو عدم التوقف بناءً على مظهر المشاة ، بما في ذلك العرق والجنس. ستقوم مستشعرات السيارة ذاتية القيادة بفحص المشاة المنتظر ، وتغذية هذه البيانات في نموذج ML / DL ، وسوف ينبعث النموذج إلى الذكاء الاصطناعي سواء كان سيتوقف أو يستمر. للأسف ، كان لدى المدينة بالفعل الكثير من تحيزات السائقين البشريين في هذا الصدد ، وكان الذكاء الاصطناعي الآن يحاكي نفس الشيء.

يوضح هذا المثال أن نظام الذكاء الاصطناعي قد يكرر فقط التحيزات غير المرغوبة الموجودة بالفعل للبشر. علاوة على ذلك ، فهي تفعل ذلك على نطاق واسع. ربما تم تعليم أي سائق بشري في بعض الأحيان القيام بهذا الشكل غير المرغوب فيه من الاختيار أو ربما تم اختياره شخصيًا للقيام بذلك ، ولكن من المحتمل أن معظم السائقين البشريين لا يفعلون ذلك بشكل جماعي.

في تناقض صارخ ، من المرجح أن يقوم نظام القيادة بالذكاء الاصطناعي الذي يتم استخدامه لقيادة السيارات ذاتية القيادة بتنفيذ التحيز المشتق بثبات وبشكل مؤكد.

وفي الختام

هناك العديد من الطرق لمحاولة تجنب ابتكار ذكاء اصطناعي يحتوي على تحيزات غير مرغوب فيها أو أنه بمرور الوقت يلقي التحيزات. بقدر الإمكان ، تكمن الفكرة في التعرف على المشكلات قبل أن تبدأ في أداء مهامها وتكثف من أجل التوسع. نأمل ألا تخرج التحيزات من الباب ، إذا جاز التعبير.

افترض على الرغم من أن التحيزات بطريقة أو بأخرى ستظهر في الذكاء الاصطناعي. بمجرد أن يتم نشرك على نطاق واسع باستخدام الذكاء الاصطناعي ، لا يمكنك فقط القيام بواحدة من مفاهيم "أطلق وانس" من قبل التقنيين. عليك أن تبقى على اطلاع دائم بما يفعله الذكاء الاصطناعي وأن تسعى لاكتشاف أي تحيزات غير مرغوب فيها تحتاج إلى تصحيح.

كما أشرنا سابقًا ، تتضمن إحدى المقاربات التأكد من أن مطوري الذكاء الاصطناعي على دراية بأخلاقيات الذكاء الاصطناعي ، وبالتالي تحفيزهم على أن يكونوا على أهبة الاستعداد لبرمجة الذكاء الاصطناعي لتجنب هذه الأمور. هناك طريقة أخرى تتمثل في وجود الذكاء الاصطناعي في المراقبة الذاتية للسلوكيات غير الأخلاقية و / أو امتلاك جزء آخر من الذكاء الاصطناعي يراقب أنظمة الذكاء الاصطناعي الأخرى بحثًا عن السلوكيات غير الأخلاقية المحتملة. لقد غطيت العديد من الحلول المحتملة الأخرى في كتاباتي.

فكرة أخيرة الآن. بعد أن بدأ هذا النقاش باقتباس من أفلاطون ، قد يكون من المناسب إنهاء الخطاب بكلمة ذكية أخرى لأفلاطون.

ذكر أفلاطون أنه لا ضرر في تكرار الشيء الجيد.

إن سهولة استخدام الذكاء الاصطناعي على نطاق واسع هي بالتأكيد وسيلة قابلة للتطبيق لتحقيق مثل هذا الطموح المتفائل عندما يكون الذكاء الاصطناعي من بين منظمة العفو الدولية من أجل الخير تشكيلة. نحن نستمتع بتكرار شيء جيد. عندما يكون الذكاء الاصطناعي هو منظمة العفو الدولية للسوء ومليئة بالتحيزات والظلم غير المرغوب فيه ، قد نعتمد على ملاحظات أفلاطون ونقول إن هناك ضررًا كبيرًا في تكرار الشيء السيئ.

دعونا نستمع بعناية إلى كلمات أفلاطون الحكيمة ونصمم الذكاء الاصطناعي لدينا وفقًا لذلك.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- على نطاق عالمي - أنظمة وقود بشكل خاص - عبر تلوح في الأفق - أنظمة مستقلة بالكامل /