أخلاقيات الذكاء الاصطناعي تقول إنه يجب نشر الذكاء الاصطناعي بشكل خاص عندما تكون التحيزات البشرية كثيرة

يجب أن يعرف البشر حدودهم.

قد تتذكر السطر المشابه حول معرفة حدودنا كما قالته بشكل صارم شخصية Dirty Harry في فيلم 1973 بعنوان قوة ماغنوم (بحسب الكلمات المنطوقة للممثل كلينت ايستوود في دوره الذي لا يُنسى كمفتش هاري كالاهان). الفكرة العامة هي أننا في بعض الأحيان نميل إلى التغاضي عن حدودنا الخاصة وإدخال أنفسنا في الماء الساخن وفقًا لذلك. سواء كان ذلك بسبب الغطرسة ، أو أنانية ، أو ببساطة عمياء عن قدراتنا الخاصة ، فإن مبدأ إدراك ميولنا وأوجه قصورنا وأخذها في الاعتبار هو أمر منطقي ومفيد للغاية.

دعونا نضيف لمسة جديدة إلى النصيحة الحكيمة.

يجب أن يعرف الذكاء الاصطناعي (AI) حدوده.

ماذا أعني بهذا البديل من العبارة المحترمة؟

تبين أن الاندفاع الأولي لاستخدام الذكاء الاصطناعي في العصر الحديث باعتباره حلاً مأمولًا لمشاكل العالم قد أصبح ملطخًا ومشوشًا تمامًا بسبب إدراك أن الذكاء الاصطناعي اليوم به بعض القيود الشديدة إلى حد ما. ذهبنا من العناوين البارزة منظمة العفو الدولية من أجل الخير ووجدنا أنفسنا غارقين بشكل متزايد منظمة العفو الدولية للسوء. كما ترى ، تم تطوير العديد من أنظمة الذكاء الاصطناعي وإدخالها في مجالات مختلفة مع جميع أنواع التحيز العنصري والجنساني غير المرغوب فيه ، وعدد لا يحصى من أوجه عدم المساواة المروعة الأخرى.

للاطلاع على تغطيتي الشاملة والمستمرة لأخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي ، انظر الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

التحيزات التي يتم اكتشافها في أنظمة الذكاء الاصطناعي هذه ليست من النوع "المتعمد" الذي ننسبه إلى السلوك البشري. أذكر هذا للتأكيد على أن الذكاء الاصطناعي اليوم ليس واعيًا. على الرغم من تلك العناوين الصاخبة التي تشير إلى خلاف ذلك ، لا يوجد أي ذكاء اصطناعي في أي مكان يقترب من الإحساس. علاوة على ذلك ، لا نعرف كيف ندخل الذكاء الاصطناعي في فئة الإحساس ، بالإضافة إلى أنه لا أحد يستطيع أن يقول على وجه اليقين ما إذا كنا سنصل إلى الذكاء الاصطناعي. ربما سيحدث يومًا ما ، أو ربما لا يحدث.

لذا ، فإن وجهة نظري هي أنه لا يمكننا تحديد نية خاصة لنوع الذكاء الاصطناعي الذي نمتلكه حاليًا. ومع ذلك ، يمكننا تعيين النية بشكل كبير لأولئك الذين يصنعون أنظمة الذكاء الاصطناعي. بعض مطوري الذكاء الاصطناعي غير مدركين لحقيقة أنهم ابتكروا نظام ذكاء اصطناعي يحتوي على تحيزات بغيضة وربما غير قانونية. وفي الوقت نفسه ، يدرك مطورو الذكاء الاصطناعي الآخرون أنهم يضخون التحيزات في أنظمة الذكاء الاصطناعي الخاصة بهم ، ومن المحتمل أن يفعلوا ذلك بطريقة خاطئة متعمدة.

في كلتا الحالتين ، فإن النتيجة مع ذلك لا تزال غير لائقة ومن المحتمل أنها غير قانونية.

تُبذل جهود حثيثة لإصدار مبادئ أخلاقيات الذكاء الاصطناعي التي من شأنها أن تنير مطوري الذكاء الاصطناعي وتوفر إرشادات مناسبة للابتعاد عن تضمين التحيزات في أنظمة الذكاء الاصطناعي الخاصة بهم. هذا سوف يساعد بطريقة twofer. أولاً ، لن يكون لدى أولئك الذين يصنعون الذكاء الاصطناعي العذر الجاهز بأنهم لم يكونوا مدركين للمبادئ التي يجب اتباعها. ثانيًا ، أولئك الذين ينحرفون عن الظروف الأخلاقية للذكاء الاصطناعي سيتم القبض عليهم بسهولة وسيظهرون على أنهم يتجنبون ما تم تحذيرهم مسبقًا من القيام به وما لا يفعلونه.

دعنا نتوقف لحظة للنظر بإيجاز في بعض المبادئ الأخلاقية الرئيسية للذكاء الاصطناعي لتوضيح ما يجب أن يفكر فيه بناة الذكاء الاصطناعي ويتعهدون به بصرامة من موقف أخلاقيات الذكاء الاصطناعي.

كما صرح الفاتيكان في دعوة روما لأخلاقيات الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • الشفافية: من حيث المبدأ ، يجب أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير
  • إدراجه: يجب أن تؤخذ احتياجات جميع البشر في الاعتبار حتى يستفيد الجميع ، ويمكن لجميع الأفراد توفير أفضل الظروف الممكنة للتعبير عن أنفسهم وتطويرهم.
  • المسئولية: يجب على أولئك الذين يصممون وينشرون استخدام الذكاء الاصطناعي أن يتابعوا المسؤولية والشفافية
  • النزاهة: لا تخلق أو تتصرف على أساس التحيز ، وبالتالي الحفاظ على العدالة والكرامة الإنسانية
  • الموثوقية: يجب أن تكون أنظمة الذكاء الاصطناعي قادرة على العمل بشكل موثوق
  • الأمن والخصوصية: يجب أن تعمل أنظمة الذكاء الاصطناعي بشكل آمن وتحترم خصوصية المستخدمين.

كما صرحت وزارة الدفاع الأمريكية (DoD) في المبادئ الأخلاقية لاستخدام الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • مسؤول: سوف يمارس موظفو وزارة الدفاع مستويات مناسبة من الحكم والرعاية مع الاستمرار في المسؤولية عن تطوير ونشر واستخدام قدرات الذكاء الاصطناعي.
  • العادل: ستتخذ الإدارة خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي.
  • تعقبها: سيتم تطوير ونشر قدرات الذكاء الاصطناعي في الإدارة بحيث يمتلك الموظفون المعنيون فهمًا مناسبًا للتكنولوجيا وعمليات التطوير والأساليب التشغيلية المطبقة على قدرات الذكاء الاصطناعي ، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق ومصادر البيانات وإجراءات التصميم والوثائق.
  • موثوق: سيكون لإمكانيات الذكاء الاصطناعي في الإدارة استخدامات واضحة ومحددة جيدًا ، وستخضع سلامة وأمن وفعالية هذه القدرات للاختبار والتأكيد ضمن تلك الاستخدامات المحددة عبر دورات حياتها بأكملها.
  • للحكم: ستقوم الإدارة بتصميم وهندسة قدرات الذكاء الاصطناعي للوفاء بالوظائف المقصودة مع امتلاك القدرة على اكتشاف وتجنب العواقب غير المقصودة ، والقدرة على فك أو إلغاء تنشيط الأنظمة المنشورة التي تظهر سلوكًا غير مقصود.

لقد ناقشت أيضًا العديد من التحليلات الجماعية للمبادئ الأخلاقية للذكاء الاصطناعي ، بما في ذلك تغطية مجموعة ابتكرها باحثون قاموا بفحص وتكثيف جوهر العديد من مبادئ أخلاقيات الذكاء الاصطناعي الوطنية والدولية في ورقة بعنوان "المشهد العالمي لإرشادات أخلاقيات الذكاء الاصطناعي" (تم نشره) في الطبيعة) ، وأن تغطيتي تستكشف في الرابط هنا، مما أدى إلى هذه القائمة الأساسية:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

كما قد تخمن بشكل مباشر ، فإن محاولة تحديد التفاصيل التي تقوم عليها هذه المبادئ قد يكون صعبًا للغاية. والأكثر من ذلك ، فإن الجهد المبذول لتحويل هذه المبادئ العريضة إلى شيء ملموس ومفصل تمامًا بما يكفي لاستخدامه عند صياغة أنظمة الذكاء الاصطناعي يعد أيضًا من الصعب كسرها. من السهل بشكل عام القيام ببعض التلويح اليدوي حول ماهية مبادئ أخلاقيات الذكاء الاصطناعي وكيف ينبغي مراعاتها بشكل عام ، في حين أنه وضع أكثر تعقيدًا على أن يكون ترميز الذكاء الاصطناعي هو المطاط الحقيقي الذي يلبي الطريق.

يجب استخدام مبادئ أخلاقيات الذكاء الاصطناعي من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف. يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. يرجى العلم أن الأمر يتطلب قرية لابتكار واستخدام الذكاء الاصطناعي. من أجل ذلك يجب على القرية بأكملها أن تحافظ على اهتمامها بأخلاقيات الذكاء الاصطناعي.

على أي حال ، الآن بعد أن وصلت إلى الطاولة أن الذكاء الاصطناعي يمكن أن يحتوي على تحيزات ، ربما يمكننا جميعًا الموافقة على هاتين الحقيقتين الظاهرتين:

1. يمكن أن يكون للبشر العديد من التحيزات غير المرغوبة ويمكنهم التصرف وفقًا لها

2. يمكن أن يكون للذكاء الاصطناعي العديد من التحيزات غير المرغوبة ويمكنه التصرف بناءً على تلك التحيزات

أنا مكروه إلى حد ما من تكديس البشر مقابل الذكاء الاصطناعي في هذا السياق لأنه قد يشير بطريقة ما إلى أن الذكاء الاصطناعي لديه قدرات حساسة على قدم المساواة مع البشر. هذا بالتأكيد ليس كذلك. سأعود للحظات إلى المخاوف المتزايدة بشأن تجسيم الذكاء الاصطناعي بعد ذلك بقليل في هذه المناقشة.

أيهما أسوأ ، البشر الذين يظهرون تحيزات غير مرغوب فيها أم الذكاء الاصطناعي الذي يفعل ذلك؟

أجرؤ على القول إن السؤال يطرح أحد تلك الخيارات الصعبة. قد يجادل المرء بأنه أهون الشرين. نتمنى ألا يجسد البشر تحيزات غير مرغوب فيها. نتمنى كذلك أنه حتى لو كان لدى البشر تحيزات غير مرغوب فيها ، فلن يعملوا وفقًا لتلك التحيزات. يمكن قول الشيء نفسه عن الذكاء الاصطناعي. نتمنى ألا يقوم الذكاء الاصطناعي بتضمين تحيزات غير مرغوب فيها ، وحتى لو كان هناك مثل هذه التحيزات المشفرة داخليًا بحيث لا يعمل الذكاء الاصطناعي عليها على الأقل.

على الرغم من أن الرغبات لا تدير العالم بالضرورة (لتحليلي للمظاهر المتصاعدة والمقلقة لما يسمى تحقيق الرغبات بالذكاء الاصطناعي من قبل المجتمع ككل ، انظر الرابط هنا).

حسنًا ، من الواضح أننا نريد أن يعرف البشر حدودهم. هناك أهمية لمعرفة متى يكون لديك تحيزات غير مرغوب فيها. هناك أهمية متساوية في محاولة منع تلك التحيزات غير المرغوبة من أن يتم غرسها في أفعالك وقراراتك. تحاول الشركات اليوم جميع أنواع الأساليب لمنع موظفيها من الوقوع في المزالق الرهيبة للتحيزات غير المرغوبة. يتم تقديم تدريب متخصص للموظفين حول كيفية أداء عملهم بطرق سليمة أخلاقياً. يتم تشكيل العمليات حول الموظفين لتنبيههم عندما يبدو أنهم يظهرون أعرافًا غير أخلاقية. وهلم جرا.

هناك وسيلة أخرى للتعامل مع البشر وتحيزاتهم غير المرغوبة وهي أتمتة العمل القائم على الإنسان. نعم ، ببساطة أخرج الإنسان من الحلقة. لا تسمح للإنسان بأداء مهمة صنع القرار ومن المفترض أنه لم يعد لديك أي مخاوف باقية بشأن تأثير الإنسان تجاه أي تحيزات غير مرغوب فيها. لا يوجد إنسان متورط ، وبالتالي يبدو أن مشكلة التحيزات البشرية المحتملة قد تم حلها.

لقد طرحت هذا لأننا نشهد تحولًا تدريجيًا وضخمًا نحو استخدام الذكاء الاصطناعي في طريقة صنع القرار الخوارزمي (ADM). إذا كان بإمكانك استبدال عامل بشري بالذكاء الاصطناعي ، فمن المحتمل أن تنشأ الكثير من الفوائد. كما ذكرنا سابقًا ، لن تقلق بعد الآن بشأن التحيزات البشرية لهذا العامل البشري (الشخص الذي لم يعد يقوم بهذه الوظيفة). من المحتمل أن يكون الذكاء الاصطناعي أقل تكلفة بشكل عام عند مقارنته بأفق زمني طويل المدى. أنت تستغني عن جميع الصعوبات المتنوعة الأخرى التي تأتي جزئيًا مع العاملين في المجال البشري. إلخ.

يبدو أن الاقتراح الذي يكتسب أرضية هو هذا: عند محاولة تحديد المكان الأفضل لوضع الذكاء الاصطناعي ، انظر أولاً إلى الإعدادات التي تنطوي بالفعل على تحيز بشري غير مرغوب فيه من قبل العاملين لديك والتي تؤدي هذه التحيزات إلى تقويض أو تعقيد مهام صنع القرار بشكل مفرط.

خلاصة القول هي أنه قد يبدو من الحكمة الحصول على أكبر قدر من الدفعة من حيث الاستثمار في الذكاء الاصطناعي من خلال استهداف مهام صنع القرار البشرية المكشوفة للغاية والتي يصعب التحكم فيها من منظور ضخ التحيزات غير المرغوبة. قم بإزالة العاملين البشريين في هذا الدور. استبدلها بـ AI. الافتراض هو أن الذكاء الاصطناعي لن يكون لديه مثل هذه التحيزات غير المرغوبة. لذلك ، يمكنك الحصول على كعكتك وتناولها أيضًا ، أي القيام بمهام اتخاذ القرار والقيام بذلك مطروحًا من الشبح الأخلاقي والقانوني للتحيزات غير المرغوبة.

عندما تحدد ذلك ، من المرجح أن يجعل عائد الاستثمار (العائد على الاستثمار) من تبني الذكاء الاصطناعي خيارًا لا يحتاج إلى تفكير.

إليك كيف يتم ذلك عادةً.

انظر في جميع أنحاء شركتك وحاول تحديد مهام صنع القرار التي تؤثر على العملاء. من بين هذه المهام ، ما المهام التي من المرجح أن تتأثر بشكل غير لائق إذا كان العمال يجسدون تحيزات غير مرغوب فيها؟ إذا كنت قد حاولت بالفعل كبح جماح هذه التحيزات ، فربما تترك الأمور كما هي. من ناحية أخرى ، إذا استمرت التحيزات في الظهور مجددًا وكانت الجهود المبذولة للقضاء عليها مرهقة ، ففكر في التخلي عن بعض الذكاء الاصطناعي ذي الصلة في هذا الدور. لا تُبقي العمال في المزيج لأنهم قد يتخطون الذكاء الاصطناعي أو يدفعون الذكاء الاصطناعي إلى هاوية التحيزات غير المرغوبة. تأكد أيضًا من أن الذكاء الاصطناعي يمكنه أداء المهمة بكفاءة وأنك قد استوعبت بشكل كافٍ جوانب صنع القرار المطلوبة لأداء المهمة.

شطف وكرر.

أدرك أن هذا يبدو وكأنه مفهوم مباشر ، على الرغم من أنك أدركت أن هناك العديد من الطرق التي يمكن أن يفسد فيها استبدال العاملين البشريين بالذكاء الاصطناعي. كانت العديد من الشركات حريصة على اتخاذ مثل هذه الإجراءات ولم تفكر مليًا في كيفية القيام بذلك. نتيجة لذلك ، غالبًا ما تسببوا في فوضى أسوأ بكثير مما كانوا عليه في أيديهم.

أريد أن أوضح وأؤكد أن الذكاء الاصطناعي ليس حلاً سحريًا.

عند الحديث عن ذلك ، هناك عقبة واحدة كبيرة حول النظافة التي يبدو أنها تطرد صناع القرار المتحيزين للإنسان مع الذكاء الاصطناعي المزعوم. العائق هو أنك قد تستبدل مجموعة واحدة من التحيزات غير المرغوبة بأخرى. وفقًا للإشارة السابقة ، يمكن أن يحتوي الذكاء الاصطناعي على تحيزات غير مرغوب فيها ويمكن أن يعمل وفقًا لتلك التحيزات. الافتراض الوقح بأن استبدال البشر المتحيزين بذكاء اصطناعي غير متحيز ليس كل ما يجب أن يكون عليه الأمر.

باختصار ، إليك الصفقة عند عرض الأمر بدقة من عوامل التحيز:

  • لا يحتوي الذكاء الاصطناعي على أي تحيزات غير مرغوب فيها ، كما أن ADM القائم على الذكاء الاصطناعي سهل النشر
  • يتمتع الذكاء الاصطناعي بنفس التحيزات غير المرغوبة مثل البشر الذين تم استبدالهم ، وبالتالي فإن ADM القائم على الذكاء الاصطناعي أمر مقلق
  • يقدم الذكاء الاصطناعي تحيزات جديدة غير مرغوب فيها تتجاوز تلك الخاصة بالبشر الذين تم استبدالهم ومن المرجح أن تؤدي إلى تفاقم الأمور وفقًا لذلك
  • يبدو الذكاء الاصطناعي في البداية جيدًا ثم يتأرجح تدريجياً في تحيزات غير مرغوب فيها
  • أخرى

يمكننا فك هذه الاحتمالات بإيجاز.

الأول هو النسخة المثالية لما قد يحدث. الذكاء الاصطناعي ليس لديه تحيزات غير مرغوب فيها. أنت تضع الذكاء الاصطناعي في مكانه ويقوم بالمهمة بشكل رائع. جيدة بالنسبة لك! بالطبع ، قد يأمل المرء أن تكون قد تعاملت بطريقة بارعة مع تشريد العاملين البشريين بسبب إدراج الذكاء الاصطناعي.

في الحالة الثانية ، تضع الذكاء الاصطناعي في مكانه وتكتشف أن الذكاء الاصطناعي يُظهر نفس التحيزات غير المرغوبة التي كان لدى العاملين من البشر. كيف يمكن أن يكون هذا؟ من الوسائل الشائعة للوقوع في هذا الفخ استخدام التعلم الآلي (ML) والتعلم العميق (DL) استنادًا إلى البيانات التي تم جمعها حول كيفية اتخاذ البشر في هذا الدور لقراراتهم في السابق.

اسمح لي بلحظة للشرح.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين قاموا بهذا العمل لسنوات عديدة قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق دقيقة ولكنها مهمة. ستحاول مطابقة الأنماط الحسابية للتعلم الآلي أو التعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة من الصعب اكتشاف التحيزات الخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا أكثر تعقيدًا مما قد يبدو. توجد فرصة قوية أنه حتى مع الاختبارات المكثفة نسبيًا ، ستظل هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

أخيرًا ، قد ينتهي بك الأمر إلى المربع الأول. تنعكس الآن نفس التحيزات غير المرغوبة للبشر من الناحية الحسابية في نظام الذكاء الاصطناعي. أنت لم تستأصل التحيزات.

والأسوأ من ذلك ، قد يكون من غير المرجح أن تدرك أن الذكاء الاصطناعي لديه تحيزات. في حالة البشر ، قد تكون عادة على حذر من أن البشر لديهم تحيزات غير مرغوب فيها. هذا هو التوقع الأساسي. يمكن أن يؤدي استخدام الذكاء الاصطناعي إلى تهدئة القادة للاعتقاد بأن الأتمتة قد أزالت تمامًا أي نوع من التحيز البشري. ومن ثم فإنهم يعدون أنفسهم لإطلاق النار على أقدامهم. لقد تخلصوا من البشر الذين لديهم تحيزات غير مرغوب فيها على ما يبدو ، واستبدلوا بالذكاء الاصطناعي الذي كان يُعتقد أنه لا يحتوي على مثل هذه التحيزات ، ومع ذلك فقد استخدموا الآن الذكاء الاصطناعي المليء بنفس التحيزات المعروفة بالفعل.

هذا يمكن أن يجعل الأشياء حقا عبر العينين. ربما تكون قد أزلت حواجز الحماية الأخرى المستخدمة مع العاملين البشريين التي تم إنشاؤها لاكتشاف ومنع ظهور تلك التحيزات البشرية المتوقعة بالفعل. يتمتع الذكاء الاصطناعي الآن بزمام الحرية. لا يوجد شيء في مكانه للقبض عليه قبل التصرف. يمكن للذكاء الاصطناعي بعد ذلك أن يقودك إلى مسار صعب من التراكم الهائل للأفعال المتحيزة.

وأنت في موقف محرج وربما مسؤول الذي كنت تعرفه ذات مرة عن التحيزات وسمحت الآن لتلك التحيزات بإحداث الفوضى. ربما يكون عدم مواجهة مثل هذه التحيزات غير المرغوبة أمرًا واحدًا ، ثم فجأة فجأة ينطلق منها الذكاء الاصطناعي. قد تحاول تبرير هذا مع نوع من مشتت الانتباه "من كان سيخمن" (ربما ليس بشكل مقنع جدًا). ولكن لكي تقوم الآن بإعداد ذكاء اصطناعي يقوم بنفس الإجراءات المنحازة غير المرغوبة كما كان من قبل ، حسنًا ، أعذارك أصبحت أرق وأعرج.

يستلزم تطور في هذا أن يُظهر الذكاء الاصطناعي تحيزات غير مرغوب فيها لم يتم مواجهتها من قبل عندما كان البشر يقومون بهذه المهمة. يمكنك القول أنه ربما يكون من الصعب منع هذا لأنه يتكون من تحيزات "جديدة" لم تكن الشركة تبحث عنها من قبل. في النهاية ، على الرغم من ذلك ، قد لا توفر لك الأعذار الكثير من الراحة. إذا غامر نظام الذكاء الاصطناعي بالدخول إلى منطقة غير أخلاقية وغير قانونية ، فقد يتم طهي أوزة.

أحد الجوانب الأخرى التي يجب مراعاتها هو أن الذكاء الاصطناعي قد يبدأ على ما يرام ثم يتقدم في طريقه إلى تحيزات غير مرغوب فيها. يحدث هذا بشكل خاص عندما يتم استخدام التعلم الآلي أو التعلم العميق بشكل مستمر للحفاظ على تحديث الذكاء الاصطناعي. سواء كان ML / DL يعمل في الوقت الفعلي أو يقوم بتحديثات بشكل دوري ، يجب الانتباه إلى ما إذا كان الذكاء الاصطناعي يستوعب البيانات التي تحتوي الآن على تحيزات والتي لم تكن موجودة في السابق.

بالنسبة للقادة الذين يعتقدون أنهم يحصلون على غداء مجاني من خلال التلويح بعصا سحرية لاستبدال العاملين البشريين المتحيزين بالذكاء الاصطناعي ، فإنهم في حالة استيقاظ وقح للغاية. اطلع على نقاشي حول أهمية تمكين القادة بمبادئ أخلاقيات الذكاء الاصطناعي في الرابط هنا.

في هذه المرحلة من هذه المناقشة ، أراهن أنك ترغب في بعض الأمثلة الواقعية التي قد تعرض لغز استبدال (أو عدم) التحيزات البشرية غير المرغوبة بالتحيزات غير المرغوبة القائمة على الذكاء الاصطناعي.

أنا سعيد لأنك سألت.

هناك مجموعة خاصة وشعبية بالتأكيد من الأمثلة القريبة من قلبي. كما ترى ، بصفتي خبيرًا في الذكاء الاصطناعي بما في ذلك التداعيات الأخلاقية والقانونية ، يُطلب مني كثيرًا تحديد أمثلة واقعية تعرض معضلات أخلاقيات الذكاء الاصطناعي بحيث يمكن فهم الطبيعة النظرية إلى حد ما للموضوع بسهولة أكبر. واحدة من أكثر المجالات إثارة للذكريات التي تقدم بوضوح هذا المأزق الأخلاقي للذكاء الاصطناعي هو ظهور سيارات ذاتية القيادة حقيقية قائمة على الذكاء الاصطناعي. سيكون هذا بمثابة حالة استخدام مفيدة أو نموذجًا لمناقشة مستفيضة حول هذا الموضوع.

إليك إذن سؤال جدير بالملاحظة يستحق التفكير فيه: هل يبرز ظهور السيارات ذاتية القيادة الحقيقية القائمة على الذكاء الاصطناعي أي شيء عن التحيزات غير المرغوبة في الذكاء الاصطناعي ، وإذا كان الأمر كذلك ، فما الذي يعرضه هذا؟

اسمح لي بلحظة لفك السؤال.

أولاً ، لاحظ أنه لا يوجد سائق بشري متورط في سيارة حقيقية ذاتية القيادة. ضع في اعتبارك أن السيارات الحقيقية ذاتية القيادة يتم قيادتها عبر نظام قيادة بالذكاء الاصطناعي. ليست هناك حاجة لسائق بشري على عجلة القيادة ، ولا يوجد شرط لقيادة الإنسان للسيارة. لتغطيتي الواسعة والمستمرة للمركبات ذاتية القيادة (AVs) وخاصة السيارات ذاتية القيادة ، انظر الرابط هنا.

أود أن أوضح ما هو المقصود عندما أشير إلى السيارات الحقيقية ذاتية القيادة.

فهم مستويات السيارات ذاتية القيادة

للتوضيح ، السيارات الحقيقية ذاتية القيادة هي تلك التي يقودها الذكاء الاصطناعي بالكامل من تلقاء نفسه ولا توجد أي مساعدة بشرية أثناء مهمة القيادة.

تعتبر هذه المركبات ذاتية القيادة من المستوى 4 والمستوى 5 (انظر الشرح في هذا الرابط هنا) ، في حين أن السيارة التي تتطلب سائقًا بشريًا للمشاركة في جهد القيادة يتم اعتبارها عادةً في المستوى 2 أو المستوى 3. يتم وصف السيارات التي تشارك في مهمة القيادة بأنها شبه مستقلة ، وتحتوي عادةً على مجموعة متنوعة من الوظائف الإضافية المؤتمتة التي يشار إليها باسم ADAS (أنظمة مساعدة السائق المتقدمة).

لا توجد حتى الآن سيارة حقيقية ذاتية القيادة في المستوى 5 ، والتي لا نعرف حتى الآن ما إذا كان ذلك ممكنًا ، ولا كم من الوقت سيستغرق الوصول إلى هناك.

وفي الوقت نفسه ، تحاول جهود المستوى 4 تدريجياً الحصول على بعض الجاذبية من خلال الخضوع لتجارب طرق عامة ضيقة للغاية وانتقائية ، على الرغم من وجود جدل حول ما إذا كان يجب السماح بهذا الاختبار في حد ذاته (نحن جميعًا حيوانات تجارب حياة أو موت في التجربة التي تجري على طرقنا السريعة والطرق الفرعية ، يدعي البعض ، انظر تغطيتي في هذا الرابط هنا).

نظرًا لأن السيارات شبه المستقلة تتطلب سائقًا بشريًا ، فإن اعتماد هذه الأنواع من السيارات لن يكون مختلفًا بشكل ملحوظ عن قيادة المركبات التقليدية ، لذلك لا يوجد الكثير في حد ذاته لتغطية هذه المواضيع (على الرغم من ذلك ، كما سترى في لحظة ، النقاط التالية تنطبق بشكل عام).

بالنسبة للسيارات شبه المستقلة ، من المهم أن يتم تحذير الجمهور بشأن جانب مزعج ظهر مؤخرًا ، أي أنه على الرغم من هؤلاء السائقين البشر الذين يستمرون في نشر مقاطع فيديو لأنفسهم ينامون على عجلة سيارة من المستوى 2 أو المستوى 3 علينا جميعًا أن نتجنب التضليل حتى نصدق أن السائق يمكنه أن يلفت انتباهه عن مهمة القيادة أثناء قيادة سيارة شبه مستقلة.

أنت الطرف المسؤول عن إجراءات القيادة في السيارة ، بغض النظر عن مقدار الأتمتة التي قد يتم قذفها في المستوى 2 أو المستوى 3.

السيارات ذاتية القيادة والذكاء الاصطناعي مع تحيزات غير مرغوب فيها

بالنسبة للمركبات ذاتية القيادة الحقيقية من المستوى 4 والمستوى 5 ، لن يكون هناك سائق بشري يشارك في مهمة القيادة.

سيكون جميع الركاب من الركاب.

تقوم منظمة العفو الدولية بالقيادة.

أحد الجوانب التي يجب مناقشتها على الفور يستلزم حقيقة أن الذكاء الاصطناعي المتضمن في أنظمة قيادة الذكاء الاصطناعي اليوم ليس واعيًا. بعبارة أخرى ، الذكاء الاصطناعي عبارة عن مجموعة من البرمجة والخوارزميات المستندة إلى الكمبيوتر ، وهو بالتأكيد غير قادر على التفكير بنفس الطريقة التي يستطيع بها البشر.

لماذا هذا التركيز الإضافي على الذكاء الاصطناعي ليس واعيا؟

لأنني أريد أن أؤكد أنه عند مناقشة دور نظام القيادة للذكاء الاصطناعي ، فأنا لا أنسب الصفات البشرية للذكاء الاصطناعي. يرجى العلم أن هناك اتجاهًا مستمرًا وخطيرًا هذه الأيام لتجسيد الذكاء الاصطناعي. من حيث الجوهر ، يخصص الناس ذكاءً شبيهاً بالإنسان إلى الذكاء الاصطناعي اليوم ، على الرغم من الحقيقة التي لا يمكن إنكارها والتي لا جدال فيها وهي عدم وجود مثل هذا الذكاء الاصطناعي حتى الآن.

مع هذا التوضيح ، يمكنك أن تتخيل أن نظام القيادة بالذكاء الاصطناعي لن "يعرف" بطريقة أو بأخرى جوانب القيادة. القيادة وكل ما تتطلبه يجب برمجتها كجزء من أجهزة وبرامج السيارة ذاتية القيادة.

دعونا نتعمق في عدد لا يحصى من الجوانب التي تأتي للعب في هذا الموضوع.

أولاً ، من المهم أن ندرك أنه ليست كل سيارات الذكاء الاصطناعي ذاتية القيادة هي نفسها. تتبنى كل شركة تصنيع سيارات وشركة تقنية ذاتية القيادة نهجها في ابتكار سيارات ذاتية القيادة. على هذا النحو ، من الصعب الإدلاء ببيانات شاملة حول ما ستفعله أو لا تفعله أنظمة القيادة بالذكاء الاصطناعي.

علاوة على ذلك ، عندما يذكر أن نظام القيادة بالذكاء الاصطناعي لا يفعل شيئًا معينًا ، يمكن ، لاحقًا ، تجاوز هذا الأمر من قبل المطورين الذين يقومون في الواقع ببرمجة الكمبيوتر للقيام بهذا الشيء بالذات. خطوة بخطوة ، يتم تحسين أنظمة القيادة بالذكاء الاصطناعي وتوسيعها تدريجياً. قد لا يوجد قيد موجود اليوم في تكرار أو إصدار مستقبلي من النظام.

أنا على ثقة من أن ذلك يوفر مجموعة كافية من المحاذير لإبراز ما أنا على وشك ربطه.

نحن مستعدون الآن لإجراء غوص عميق في السيارات ذاتية القيادة وإمكانيات الذكاء الاصطناعي الأخلاقية التي تستلزم استكشاف الذكاء الاصطناعي والتحيزات غير المرغوبة.

دعنا نستخدم مثالًا مباشرًا بسهولة. سيارة ذاتية القيادة تعتمد على الذكاء الاصطناعي قيد التشغيل في شوارع الحي الخاص بك ويبدو أنها تقود بأمان. في البداية ، كنت قد كرست اهتمامًا خاصًا لكل مرة تمكنت فيها من إلقاء نظرة على السيارة ذاتية القيادة. تميزت السيارة المستقلة بحاملها من المستشعرات الإلكترونية التي تضمنت كاميرات فيديو ووحدات رادار وأجهزة LIDAR وما شابه. بعد عدة أسابيع من تجول السيارة ذاتية القيادة حول مجتمعك ، بالكاد تلاحظ ذلك. بقدر ما تشعر بالقلق ، إنها مجرد سيارة أخرى على الطرق العامة المزدحمة بالفعل.

لئلا تعتقد أنه من المستحيل أو غير المعقول أن تصبح على دراية برؤية السيارات ذاتية القيادة ، فقد كتبت مرارًا وتكرارًا عن كيف أن الأماكن التي تقع في نطاق تجارب السيارات ذاتية القيادة قد اعتادت تدريجيًا على رؤية المركبات المتقنة ، انظر تحليلي في هذا الرابط هنا. تحول العديد من السكان المحليين في نهاية المطاف من التثاؤب المليء بالفم إلى إطلاق تثاؤب ممتد من الملل لمشاهدة تلك السيارات ذاتية القيادة المتعرجة.

ربما يكون السبب الرئيسي الآن وراء ملاحظة السيارات ذاتية القيادة هو عامل التهيج والسخط. تتأكد أنظمة القيادة المدعومة بالذكاء الاصطناعي من الكتاب المقدس من أن السيارات تمتثل لجميع حدود السرعة وقواعد الطريق. بالنسبة للسائقين البشر المحمومون في سياراتهم التقليدية التي يقودها الإنسان ، فإنك تنزعج في بعض الأحيان عندما تعلق خلف السيارات ذاتية القيادة القائمة على الذكاء الاصطناعي والتي تلتزم بالقانون بدقة.

هذا شيء قد نحتاج جميعًا إلى التعود عليه ، صوابًا أو خطأً.

العودة إلى حكايتنا.

تبين أن هناك قلقين غير لائقين بدأ في الظهور حول السيارات ذاتية القيادة غير الضارة والمرحب بها بشكل عام والتي تعتمد على الذكاء الاصطناعي ، على وجه التحديد:

أ. حيث أصبح الذكاء الاصطناعي يتجول في السيارات ذاتية القيادة لالتقاط الركوب ، أصبح مصدر قلق مقلق في المجتمع ككل

ب. كيف يتعامل الذكاء الاصطناعي مع المشاة الذين ينتظرون المرور والذين ليس لديهم حق المرور هي أيضًا مشكلة متصاعدة

في البداية ، كان الذكاء الاصطناعي يتجول في السيارات ذاتية القيادة في جميع أنحاء المدينة. أي شخص يريد أن يطلب مشوارًا في السيارة ذاتية القيادة لديه فرصة متساوية في الترحيب بواحد. تدريجيًا ، بدأ الذكاء الاصطناعي في الحفاظ على تجوال السيارات ذاتية القيادة في جزء واحد فقط من المدينة. كان هذا القسم مصدر دخل أكبر وقد تمت برمجة نظام الذكاء الاصطناعي لمحاولة تعظيم الإيرادات كجزء من الاستخدام في المجتمع.

كان أفراد المجتمع في الأجزاء الفقيرة من المدينة أقل احتمالًا لأن يكونوا قادرين على ركوب سيارة ذاتية القيادة. كان هذا لأن السيارات ذاتية القيادة كانت بعيدة وتتجول في الجزء الأعلى من الإيرادات في المنطقة المحلية. عندما يأتي طلب من جزء بعيد من المدينة ، فإن أي طلب من موقع أقرب من المحتمل أن يكون في الجزء "المحترم" من المدينة سيحصل على أولوية أعلى. في نهاية المطاف ، كان من المستحيل تقريبًا الحصول على سيارة ذاتية القيادة في أي مكان آخر غير الجزء الأغنى من المدينة ، مما يثير الغضب الشديد لأولئك الذين يعيشون في تلك المناطق التي تعاني من نقص الموارد الآن.

يمكنك التأكيد على أن الذكاء الاصطناعي قد هبط إلى حد كبير على شكل من أشكال التمييز بالوكالة (يشار إليه غالبًا بالتمييز غير المباشر). لم يكن الذكاء الاصطناعي مبرمجًا لتجنب تلك الأحياء الفقيرة. وبدلاً من ذلك ، "تعلمت" القيام بذلك عن طريق استخدام ML / DL.

الشيء هو أن مشاركة السائقين من البشر كانوا معروفين بفعل نفس الشيء ، ولكن ليس بالضرورة بسبب زاوية كسب المال. كان هناك بعض السائقين البشريين الذين يتشاركون في الركوب والذين لديهم تحيز غير مرغوب فيه حول اصطحاب الركاب في أجزاء معينة من المدينة. كانت هذه ظاهرة معروفة إلى حد ما وقد وضعت المدينة نهجًا للمراقبة للقبض على السائقين البشريين وهم يفعلون ذلك. قد يواجه السائقون البشريون مشكلة بسبب قيامهم بممارسات اختيار غير مرغوب فيها.

كان من المفترض أن الذكاء الاصطناعي لن يقع أبدًا في نفس النوع من الرمال المتحركة. لم يتم إعداد أي مراقبة متخصصة لتتبع المكان الذي كانت تسير فيه السيارات ذاتية القيادة القائمة على الذكاء الاصطناعي. فقط بعد أن بدأ أفراد المجتمع في الشكوى ، أدرك قادة المدينة ما كان يحدث. لمزيد من المعلومات حول هذه الأنواع من المشكلات على مستوى المدينة والتي ستعرضها المركبات ذاتية القيادة والسيارات ذاتية القيادة ، راجع تغطيتي على هذا الرابط هنا والتي تصف دراسة بقيادة هارفارد شاركت في تأليفها حول هذا الموضوع.

يوضح هذا المثال لجوانب التجوال في السيارات ذاتية القيادة القائمة على الذكاء الاصطناعي الإشارة السابقة إلى أنه يمكن أن تكون هناك مواقف تنطوي على تحيزات غير مرغوب فيها من البشر ، والتي يتم وضع ضوابط لها ، وأن الذكاء الاصطناعي الذي يحل محل هؤلاء السائقين البشريين متروك- مجانا. لسوء الحظ ، يمكن للذكاء الاصطناعي أن يغرق بشكل تدريجي في تحيزات مشابهة ويفعل ذلك بدون حواجز حماية كافية.

يتضمن المثال الثاني منظمة العفو الدولية التي تحدد ما إذا كان يجب التوقف انتظارًا للمشاة الذين ليس لديهم حق المرور لعبور الشارع.

كنت بلا شك تقود سيارتك وواجهت مشاة كانوا ينتظرون عبور الشارع ومع ذلك لم يكن لديهم حق المرور للقيام بذلك. هذا يعني أن لديك حرية التصرف فيما إذا كان عليك التوقف والسماح لهم بالعبور. يمكنك المضي قدمًا دون السماح لهم بالعبور وستظل ضمن قواعد القيادة القانونية للقيام بذلك.

اقترحت الدراسات التي أجريت حول كيفية اتخاذ السائقين من البشر للوقوف أو عدم التوقف لمثل هؤلاء المشاة أنه في بعض الأحيان يتخذ السائقون البشريون القرار بناءً على تحيزات غير مرغوب فيها. قد ينظر السائق البشري إلى المشاة ويختار عدم التوقف ، على الرغم من أنه كان من الممكن أن يتوقف لو كان مظهر المشاة مختلفًا ، على سبيل المثال على أساس العرق أو الجنس. لقد فحصت هذا في الرابط هنا.

تخيل أن السيارات ذاتية القيادة القائمة على الذكاء الاصطناعي مبرمجة للتعامل مع مسألة ما إذا كان يجب التوقف أو عدم التوقف للمشاة الذين ليس لديهم حق المرور. إليك كيف قرر مطورو الذكاء الاصطناعي برمجة هذه المهمة. قاموا بجمع البيانات من كاميرات الفيديو الخاصة بالمدينة والتي تم وضعها في جميع أنحاء المدينة. تعرض البيانات السائقين البشريين الذين يتوقفون للمشاة الذين ليس لديهم حق المرور والسائقين البشريين الذين لا يتوقفون. يتم جمعها كلها في مجموعة بيانات كبيرة.

باستخدام التعلم الآلي والتعلم العميق ، يتم نمذجة البيانات حسابيًا. ثم يستخدم نظام القيادة AI هذا النموذج ليقرر متى يتوقف أو لا يتوقف. بشكل عام ، الفكرة هي أنه مهما كانت العادات المحلية ، فهذه هي الطريقة التي يوجه بها الذكاء الاصطناعي السيارة ذاتية القيادة.

ولدهشة قادة المدينة والسكان ، كان من الواضح أن الذكاء الاصطناعي كان يختار التوقف أو عدم التوقف بناءً على مظهر المشاة ، بما في ذلك العرق والجنس. ستقوم مستشعرات السيارة ذاتية القيادة بفحص المشاة المنتظر ، وتغذية هذه البيانات في نموذج ML / DL ، وسوف ينبعث النموذج إلى الذكاء الاصطناعي سواء كان سيتوقف أو يستمر. للأسف ، كان لدى المدينة بالفعل الكثير من تحيزات السائقين البشريين في هذا الصدد ، وكان الذكاء الاصطناعي الآن يحاكي نفس الشيء.

النبأ السار هو أن هذا يثير قضية لم يعرف أحد بوجودها تقريبًا. كانت الأخبار السيئة هي أنه منذ أن تم القبض على منظمة العفو الدولية وهي تفعل ذلك ، فقد تلقت معظم اللوم. يوضح هذا المثال أن نظام الذكاء الاصطناعي قد يكرر فقط التحيزات غير المرغوبة الموجودة بالفعل للبشر.

وفي الختام

هناك العديد من الطرق لمحاولة تجنب ابتكار ذكاء اصطناعي يكون إما خارج البوابة يحتوي على تحيزات غير مرغوب فيها أو أنه بمرور الوقت يلقي التحيزات. تتضمن إحدى المقاربات التأكد من أن مطوري الذكاء الاصطناعي على دراية بحدوث ذلك ، وبالتالي إبقائهم على أهبة الاستعداد لبرمجة الذكاء الاصطناعي لتجنب الأمر. هناك طريقة أخرى تتمثل في جعل الذكاء الاصطناعي يراقب نفسه بحثًا عن السلوكيات غير الأخلاقية (انظر مناقشتي في الرابط هنا) و / أو امتلاك جزء آخر من الذكاء الاصطناعي يراقب أنظمة الذكاء الاصطناعي الأخرى بحثًا عن السلوكيات غير الأخلاقية المحتملة (لقد غطيت هذا في الرابط هنا).

للتلخيص ، نحتاج إلى إدراك أن البشر يمكن أن يكون لديهم تحيزات غير مرغوب فيها وأنهم يحتاجون بطريقة ما إلى معرفة حدودهم. وبالمثل ، يمكن أن يكون للذكاء الاصطناعي تحيزات غير مرغوب فيها ، وبطريقة ما نحتاج إلى معرفة حدودها.

لأولئك منكم الذين يتبنون أخلاقيات الذكاء الاصطناعي بشغف ، أود أن أنهي الآن بسطر مشهور آخر يجب أن يعرفه الجميع بالفعل. وبالتحديد ، يرجى الاستمرار في استخدام ومشاركة أهمية الذكاء الاصطناعي الأخلاقي. ومن خلال القيام بذلك ، سأقول هذا بوقاحة: "انطلق ، اجعل يومي سعيدًا."

المصدر: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-special-deployed-when-human-biases-are-aplenty/