تقييم أخلاقيات الذكاء الاصطناعي بحذر ما إذا كان تقديم منحازة للذكاء الاصطناعي منحازًا للقبض على الأنظمة الشريرة أخلاقياً واستقلالها بالكامل أمر حكيم أو عديم الجدوى

مطلوب: صائدو التحيز للذكاء الاصطناعي.

قد يكون هذا إعلانًا في العصر الحديث ستبدأ في رؤيته يظهر على قنوات التواصل الاجتماعي ويظهر في العديد من إعلانات الوظائف عبر الإنترنت. هذا مفهوم أو دور جديد نسبيًا. يحمل في طياته الجدل. يجادل بعض المؤمنين المتحمسين بحماسة بأن هذه الفكرة منطقية للغاية وكان يجب أن تحدث طوال الوقت ، بينما يقوم البعض الآخر بعصبية بعض الخدش الجاد وليسوا متأكدين تمامًا من أن هذه فكرة جيدة.

يتمثل جوهر الدور في اكتشاف أي تحيزات خفية أو ممارسات تمييزية مضمنة في الذكاء الاصطناعي. من أجل الإنقاذ ، يأتي الصيادون المتحمسون والسابقون تمامًا للذكاء الاصطناعي. من المفترض أن يكونوا صائدي مكافآت بارعين في استخدام الكمبيوتر. أكثر من ذلك ، كما نأمل ، غارق في أعماق قدرات الذكاء الاصطناعي.

احصل على سلاح ، وسوف يسافر ، ويمكنه من خلال الرماية الشديدة الماهرة بالذكاء الاصطناعي أن يفضح تلك التحيزات البغيضة وغير المرغوبة للذكاء الاصطناعي.

يثير هذا عددًا كبيرًا من الأسئلة الشائكة حول مدى حساسية اتباع مثل هذا التكتيك عندما يتعلق الأمر باكتشاف تحيزات الذكاء الاصطناعي. أثناء مناقشتي للحظات ، يرجى العلم أن ظهور الذكاء الاصطناعي قد أدى أيضًا إلى ظهور تحيزات الذكاء الاصطناعي. سيل من تحيزات الذكاء الاصطناعي. للاطلاع على تغطيتي المستمرة والواسعة لأخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي ، انظر الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

كيف لنا أن نكتشف أن نظامًا معينًا للذكاء الاصطناعي به تحيزات؟

قد تعهد إلى مطوري الذكاء الاصطناعي الذين ابتكروا الذكاء الاصطناعي للقيام بذلك. الشيء هو أنهم قد يكونون غارقين في التحيزات لدرجة أنهم لا يستطيعون التعرف على التحيزات داخل الذكاء الاصطناعي المصطنع لديهم. كل شيء يبدو جيدا لهم. أو قد يكونون متحمسين جدًا للذكاء الاصطناعي ولديهم شعور بالفخر بالذات حيال ذلك لدرجة أنه يتعين عليهم بعد ذلك أخذ عين ناقدة لفحصها بحثًا عن التحيزات سيكون أمرًا صعبًا وسيؤدي إلى تراجع حقيقي. قد يبدو أن الكثير من هذه الأسباب تقوض قيام مطوري الذكاء الاصطناعي بهذه المهمة ، بما في ذلك الافتقار إلى المهارات لاكتشاف التحيزات المضمنة ، وضيق الوقت في المشروع للقيام بذلك ، وما إلى ذلك.

حسنًا ، تفضل وتوظيف مستشارين خارجيين للقيام بالعمل القذر نيابة عنك ، كما كان. اتضح أن المستشارين سوف يدققون بسعادة في الذكاء الاصطناعي الخاص بك بحثًا عن التحيزات ، ويفرضون عليك فلسًا كبيرًا للقيام بذلك (الكثير والكثير من البنسات). اعلم أنك بحاجة إلى الدفع مقابل مواكبة نظام الذكاء الاصطناعي الخاص بك بسرعة. تحتاج بعد ذلك إلى جعلهم يفتشون حولك ، الأمر الذي قد يستغرق عددًا لا يحصى من الساعات الشاقة الباهظة. يعد استخدام الاستشاريين خيارًا إذا كانت لديك الميزانية لذلك.

في "الفجوة" المحتملة حول كيفية العثور على هذه التحيزات الخبيثة للذكاء الاصطناعي ، يأتي صائدي الجوائز البطوليين والمتحطمين للذكاء الاصطناعي.

أنت لا تدفع لهم عادةً مقدمًا. إنهم يحاولون العثور على تحيزات الذكاء الاصطناعي في وقتهم الخاص وعليهم دفع فواتيرهم أثناء قيامهم بذلك. فقط إذا نجحوا في العثور على تحيزات ، فهم يحصلون على أموال. أفترض أنه يمكنك بسهولة التأكيد على أنه بطريقة تفكير مناسبة ، هذا هو التعريف التقليدي لصائد الجوائز. احصل على المال إذا نجحت. لا تحصل على أجر إذا لم تنجح. الفترة ، نهاية القصة.

كانت برامج المكافآت موجودة منذ زمن الرومان على الأقل ، وبالتالي قد نعتقد أنها تعمل ، بعد أن نجحت في تحملها كممارسة على مدار كل هذه السنوات.

إليك قطعة رائعة من التوافه التاريخية لك. وبحسب ما ورد ، أعلنت رسالة نُشرت خلال فترة الإمبراطورية الرومانية في مدينة بومبي أن هناك حاجة إلى صائدي الجوائز للعثور على وعاء نحاسي مفقود من متجر صغير. كانت مكافأة استعادة الإناء النحاسي جائزة رائعة مكونة من خمسة وستين قطعة نقدية برونزية. نأسف للقول إننا لا نعرف ما إذا كان أي صائد جوائز قد عثر على وعاء نحاسي وطالب بالعملات البرونزية ، لكننا نعلم أن صيد المكافآت استمر بالتأكيد منذ تلك العصور القديمة.

في الأزمنة الحديثة ، قد تكون على دراية بأنه في الثمانينيات كانت هناك بعض المكافآت البارزة التي تم تقديمها للعثور على أخطاء الكمبيوتر أو الأخطاء في حزم البرامج الجاهزة ، ثم في التسعينيات ، قدمت Netscape مكافأة ملحوظة للعثور على الأخطاء في متصفح الويب الخاص بهم (أصبحت واحدة من أبرز الشركات في ذلك اليوم للقيام بذلك). اختار كل من Google و Facebook البحث عن المكافآت بحثًا عن الأخطاء بدءًا من عامي 1980 و 1990 ، على التوالي. بعد بضع سنوات ، في عام 2010 ، حتى وزارة الدفاع الأمريكية (DoD) دخلت في هذا العمل من خلال بذل مجهود مكافأة "Hack the Pentagon" (لاحظ أن المكافأة الموجهة علنًا كانت للأخطاء الموجودة في العديد من مواقع الويب المتعلقة بوزارة الدفاع وليس في أنظمة الدفاع المهمة الحرجة).

دعنا نتعمق أكثر في موضوع مكافأة الأخطاء. أدرك أنني أهدف بشكل أساسي إلى التحدث عن تحيزات الذكاء الاصطناعي في البحث عن المكافآت في هذه المناقشة ، ولكن هناك بعض أوجه التشابه ذات الصلة بمجال مكافأة الأخطاء.

يشعر البعض بالحيرة بشكل واضح من أن أي شركة قد ترغب في تقديم مكافأة للعثور على الأخطاء (أو ، في هذه الحالة ، تحيزات الذكاء الاصطناعي) في أنظمتها.

على السطح ، يبدو هذا وكأنه نوع من الإستراتيجية "أنت تطلب ذلك". إذا سمحت للعالم بمعرفة أنك ترحب بأولئك الذين قد يحاولون العثور على ثغرات في برنامجك ، فيبدو الأمر بمثابة إخبار اللصوص بالمضي قدمًا ومحاولة اقتحام منزلك. حتى لو كنت تعتقد بالفعل أن لديك نظام إنذار جيد ضد السرقة وأنه لا ينبغي لأحد أن يكون قادرًا على الوصول إلى منزلك الآمن ، تخيل أن تطلب بل وتوسل مع اللصوص حتى ينزل الجميع إلى مكان إقامتك ومعرفة ما إذا كان بإمكانهم ذلك. صدع فيه. أوه ، المشاكل التي نسجها لأنفسنا.

يمكن قول الشيء نفسه عن طلب صائدي الجوائز للعثور على التحيزات في الذكاء الاصطناعي الخاص بك.

أولاً ، ربما يعني ذلك أنك تعتقد بالفعل أو حتى تعرف تمامًا أن الذكاء الاصطناعي لديك به تحيزات. هذا اعتراف ضمني صريح ومثير للصدمة بأن قلة من الناس على ما يبدو على استعداد للقيام به ويمكن أن تأتي بنتائج عكسية.

ثانيًا ، أنت لا تعرف على وجه اليقين ما قد يفعله هؤلاء الصيادون. يمكنهم اختيار إخبار العالم بأسره بأنهم وجدوا تحيزات في الذكاء الاصطناعي الخاص بك. يفترض المرء أن هذا قد يخسر الحصول على المكافأة ، على الرغم من أن البعض قد يستمتع بالاهتمام أو يهدف إلى تعزيز مكانتهم للحصول على خدمات استشارية وإمكانيات أخرى لتوليد الدخل. يمكن أن يكون الإيثار بالكامل. قد يكون شكلاً من أشكال نشاط الذكاء الاصطناعي. يمكنني الاستمرار.

ثالثًا ، يمكن أن يكون هناك تطور خفي في القضية برمتها. قد يكون صائد الجوائز الذي يدعي أنه يبحث عن تحيزات الذكاء الاصطناعي يبحث بشكل شيطاني عن طرق لمهاجمة نظام الذكاء الاصطناعي الخاص بك. الأمر برمته هو تمثيلية للقيام في نهاية المطاف بهجوم إلكتروني عنيف. ربما افترضت أنهم كانوا يحاولون المساعدة ، بينما كان لديهم خطأ في قلوبهم. حزين ، لكنه ممكن.

رابعًا ، يمكننا أن نصبح أكثر خداعًا في هذا الأمر. يجد صائد الجوائز بعض التحيزات المحرجة للذكاء الاصطناعي والتي يحتمل أن تحفز الدعوى القضائية. المكافأة هي مبلغ من الدولارات سنسميه X. بدلاً من المطالبة بالمكافأة ، يقوم صائد الجوائز بنوع من استفزاز برامج الفدية الغريبة. إذا دفعت لصائد الجوائز مبلغًا قدره عشرة أضعاف X أو ربما الحد الأقصى للسماء ، فسيخبرك عن تحيزات الذكاء الاصطناعي. لديك حتى منتصف ليل الأحد للإجابة. بعد هذه النقطة الزمنية ، سيتم الكشف عن تحيزات الذكاء الاصطناعي ليراها الجميع. Yikes ، مأزق غادر ليكون فيه.

خامسًا ، الأحدث هم أولئك الذين يُطلق عليهم اسم "الاختراق للعودة" المخادعين الإلكترونيين الذين قرروا بعد أن سرقوا مجموعة من العجينة عبر الإنترنت التوبة وإعادة بعض الغنائم التي حصلوا عليها بطريقة غير مشروعة. بعد ذلك ، تكون الشركة التي تحصل على أموالها التي تم إرجاعها جزئيًا على استعداد للنظر في المبلغ المتبقي المسروق كمكافأة بعد وقوع الحادث تُكافأ للصوص. يبدو أن الجميع "يفوز" من حيث إعادة الجزء الأكبر من الأموال ، وفي الوقت نفسه لا تتم متابعة المخترقين الإلكترونيين بشكل قانوني ، بالإضافة إلى حصولهم على مكافأة القرصان للتمهيد. هل هذا من الحكمة أم استمرار الأعمال الخاطئة؟

أدرك أن البعض منكم قد يقول إنه لا ينبغي لأحد أن يطلق ذكاءً اصطناعيًا يحتوي على أي تحيزات فيه. يبدو أن هذا يحل هذه المعضلة برمتها حول ما إذا كنت ستستخدم صائدي الجوائز المتحيزين للذكاء الاصطناعي أم لا. فقط لا تضع نفسك في موقف مكافأة. تأكد من قيام مطوري الذكاء الاصطناعي لديك بالشيء الصحيح وعدم السماح بتحيزات الذكاء الاصطناعي في أنظمة الذكاء الاصطناعي الخاصة بهم. ربما استخدم الاستشاريين للقيام بفحص مزدوج. في الأساس ، افعل كل ما تحتاج إلى القيام به لتجنب التفكير أو مطالبة صائدي المكافآت المتحيزين للذكاء الاصطناعي بالحضور إلى الطاولة.

نعم ، هذا يبدو منطقيًا تمامًا. المشكلة هي أنها أيضًا حالمة بعض الشيء. يعد تعقيد العديد من أنظمة الذكاء الاصطناعي كبيرًا لدرجة أن محاولة ضمان عدم ظهور أوقية واحدة من تحيزات الذكاء الاصطناعي سيكون أمرًا شاقًا. علاوة على ذلك ، تم تصميم بعض أنظمة الذكاء الاصطناعي عن قصد للتكيف و "التعلم" أثناء تقدمها. هذا يعني أنه في وقت ما في المستقبل ، قد ينجذب الذكاء الاصطناعي الذي ابتكرته ، والذي دعنا نتظاهر في البداية كان نظيفًا تمامًا وبدون تحيزات ، نحو تجسيد التحيزات (لا أعني ذلك بطريقة مجسمة ، كما سأشرح أكثر لأننا استمر في هذا الموضوع).

يميل أولئك الذين يفضلون البحث عن المكافآت إلى أخطاء البرامج إلى المجادلة بأنه من المنطقي تقديم مثل هذه المكافآت. يمكننا النظر في أسبابهم المنطقية ومعرفة ما إذا كان ينطبق على عالم تحيزات الذكاء الاصطناعي أيضًا.

يؤكد أنصار مكافآت الأخطاء على أنه بدلاً من محاولة التظاهر بعدم وجود أي ثغرات في نظامك ، فلماذا لا نشجع على اكتشاف الثغرات ، والقيام بذلك بطريقة "محكومة"؟ على النقيض من ذلك ، بدون مثل هذا الجهد الهائل ، يمكنك فقط أن تأمل وأن تصلي أنه من خلال الصدفة العشوائية لن يجد أي شخص حفرة ، ولكن إذا كنت بدلاً من ذلك تقدم مكافأة وتخبر أولئك الذين يجدون حفرة بأنه سيكافأون ، فإن ذلك يقدم فرصة ثم دعم الحفرة بنفسك ومن ثم منع الآخرين من العثور عليها سرا في وقت لاحق في الوقت المناسب.

يمكن قول الشيء نفسه في حالة استخدام تحيزات الذكاء الاصطناعي. إذا قدمت مكافأة كافية ، نأمل أن يلفت صائدو الجوائز انتباهك إلى اكتشاف تحيزات الذكاء الاصطناعي. يمكنك بعد ذلك التعامل مع تحيزات الذكاء الاصطناعي بطريقة هادئة ومدروسة نسبيًا. قد يحبط هذا مشكلة أكبر وأكثر صعوبة في وقت لاحق ، وهي أن شخصًا آخر يجد تحيزات الذكاء الاصطناعي في الذكاء الاصطناعي الخاص بك ويصرخ حوله إلى السماء العالية.

بشكل عام ، الشركة التي ترغب في تمكين جهود البحث عن مكافآت الأخطاء ستضع سياسة الكشف عن نقاط الضعف (VDP). يشير VDP إلى كيفية العثور على الأخطاء وإبلاغ الشركة بها ، إلى جانب كيفية تقديم المكافأة أو المكافأة للصياد. عادة ، سوف يتطلب VDP أن ينتهي الصياد بتوقيع اتفاقية عدم إفشاء (NDA) بحيث لا يكشفون للآخرين عما وجدوه.

تثير فكرة استخدام اتفاقية عدم الإفشاء مع صائدي المكافآت بعض الجدل. على الرغم من أنه ربما يكون من المنطقي للشركة التي تقدم المكافأة أن ترغب في الحفاظ على صمت التعرض الذي تم العثور عليه ، إلا أنه يقال أيضًا أنه يخنق الوعي العام بمثل هذه الأخطاء. من المفترض ، إذا سُمح بالتحدث عن أخطاء البرامج ، فمن المحتمل أن يساعد ذلك في سلامة الأنظمة الأخرى في الشركات الأخرى التي ستدعم تعرضها بعد ذلك. لا يوقع بعض صائدي الجوائز على اتفاقية عدم الإفشاء ، ويرجع ذلك جزئيًا إلى رغبة الجمهور وجزئيًا بسبب محاولة إخفاء هويتهم الخاصة. ضع في اعتبارك أيضًا أن جانب NDA لا يظهر عادةً إلا بعد أن يدعي الصياد أنه عثر على خطأ ، بدلاً من طلبه مسبقًا.

تنص بعض VDPs على أن اتفاقية عدم الإفشاء هي لفترة زمنية محدودة فقط ، مما يسمح للشركة بإيجاد حل للثقب الظاهر أولاً ثم بعد ذلك للسماح بالكشف عن ذلك على نطاق أوسع. بمجرد أن يتم سد الثقب ، تسمح الشركة بعد ذلك بفك اتفاقية عدم الإفشاء حتى يتمكن بقية العالم من معرفة الخطأ. يقال إن الوقت المعتاد لحل الأخطاء التي يتم اصطيادها هو حوالي 15-20 يومًا عندما تريد الشركة توصيلها على الفور ، بينما في حالات أخرى قد تمتد إلى 60-80 يومًا. فيما يتعلق بدفع صائد الجوائز ، ما يسمى بوقت الدفع ، بعد التحقق من وجود الحفرة بالفعل ، يقال إن مدفوعات المكافآت تميل إلى أن تكون في غضون 15-20 يومًا للحالات الأصغر وحوالي 50-60 أيام للحالات الأكبر (هذه هي مؤشرات الصناعة المتغيرة باستمرار ويتم ذكرها فقط للتوضيح).

هل يجب أن يُطلب من صائدي المكافآت المتحيزين لمنظمة العفو الدولية أيضًا المشاركة في VDP والتعامل مع اتفاقية عدم الإفشاء؟

يمكنك الحصول على نعم ولا على هذا السؤال. نعم ، يجب أن تسلك بعض الشركات هذا الطريق. لا ، قد لا تختار بالضرورة أن تسلك هذا الطريق. تشمل العوامل حجم وطبيعة الذكاء الاصطناعي ، واحتمالية تعرض أي انحيازات للذكاء الاصطناعي ، ومجموعة من الاعتبارات الأخلاقية والقانونية والتجارية الأخرى التي يمكن أن تؤخذ في الاعتبار.

قد أضيف أن إنشاء مسعى لصيد المكافآت لتحيزات الذكاء الاصطناعي للذكاء الاصطناعي الخاص بك هو أمر أطول بكثير مما قد تفترضه للوهلة الأولى.

سنبدأ بالاحتمال الهائل بأنك سوف تطغى على تحيزات منظمة العفو الدولية صائدي الجوائز.

في الوقت الحالي ، ستتعرض لضغوط شديدة للعثور على العديد ممن لديهم بطاقة الاتصال هذه. لا يوجد الكثير حولها. إنها أيام الغرب المتوحش في هذا الصدد. ولكن إذا كانت فكرة تحيز الذكاء الاصطناعي في صيد المكافآت منتشرة ، خاصة عندما تكون المكافآت وفيرة ومجزية ، يمكنك أن تراهن على أن الجميع سوف يغوص في حوض السباحة الذي يصطاد التحيزات.

هل تريد كل أنواع الحماقات التي تسعى وراء تحيزات الذكاء الاصطناعي في نظام الذكاء الاصطناعي الخاص بك؟ سوف تحصل على بعض المتلقين الذين هم في الواقع خبراء في هذا النوع من الأشياء. سوف تحصل على محتجزي آخرين من الهواة وقد يتسببون في الفوضى أو يبكي الذئب. الشيء التالي الذي تعرفه ، أي شخص يمكنه تهجئة "الذكاء الاصطناعي" سيأتي ليحفر في منجم الذهب الخاص بك لنظام ذكاء اصطناعي لتلك التحيزات الثمينة للذكاء الاصطناعي. اندفاع الذهب مستمر. قد لا يكون هذا مفيدا لك.

سوف تحتاج إلى التدقيق في عمليات تقديم صائد الجوائز. سيكون هناك الكثير من "الضوضاء" في الادعاءات المبلغ عنها ، بمعنى أن العديد من تحيزات الذكاء الاصطناعي المزعومة غير موجودة ، على الرغم من إصرار صائد الجوائز على أنهم عثروا على بعضها. تخيل مقدار الجهد المطلوب من فرق الذكاء الاصطناعي الخاصة بك لفحص مطالبات المكافآت ، واستكشاف صلاحية كل منها ، ثم الانتقال ذهابًا وإيابًا مع صائد الجوائز حول ما إذا كان قد تم اكتشاف الذهب أم لا.

قد يجادل البعض بأن هذا سبب آخر لفعل كل شيء بنفسك. قد تكتشف حتمًا أن المكافأة هي مشكلة أكثر مما تستحق.

هنا سؤال آخر للتفكير فيه. كيف سيعرف صائدو الجوائز كيف يبدو انحياز الذكاء الاصطناعي؟ من حيث الجوهر ، بدون بعض مظاهر ما تبحث عنه ، يمكن الادعاء بأن أي صخرة لامعة تظهر تحيزًا للذكاء الاصطناعي في منجم الذهب المتصور الذي يتم التنقيب عنه.

في أيام الغرب القديم ، لنفترض أنك عرضت مكافأة على القبض على الطفل بيلي (خارج عن القانون). إذا قمت بذلك ولم تقم بتضمين صورة لما كان يبدو عليه بيلي ، فتخيل عدد صائدي الجوائز الذين قد يجرون إلى مكتب العمدة شخصًا يأملون أو يعتقدون أنه بيلي ذا كيد. قد تغرق مع بيلي الكاذب. هذا أمر سيء لأنك تحتاج على الأرجح إلى إلقاء نظرة على كل سؤال ، وطرح أسئلة استقصائية ، ومحاولة التأكد مما إذا كان الشخص بيلي حقًا أم لا.

النقطة المهمة هي أنه لإعداد مجهود مكافأة التحيزات للذكاء الاصطناعي ، سيكون من الحكمة محاولة توضيح ما تعتقد أن تحيزات الذكاء الاصطناعي تتكون منه. يتطلب هذا نوعًا من المعايرة المعتدلة. أنت لا تريد أن تكون مقيدًا لدرجة أن صائدي الجوائز يتغاضون عن تحيزات الذكاء الاصطناعي لمجرد أنها لا تتناسب مع التعريف المنصوص عليه ، ولا تريدهم أن يصرخوا "يوريكا!" في كل لقمة من تحيز الذكاء الاصطناعي قد يجدونها بالصدفة.

سوف تحتاج فقط إلى توازن Goldilocks الصحيح لما تتكون منه تحيزات الذكاء الاصطناعي ، وبالتالي يفضل توفير توجيهات واضحة لذلك.

سوف يركز الكثير من هذا البحث عن المكافآت على تحيزات الذكاء الاصطناعي على أنظمة التعلم الآلي (ML) والتعلم العميق (DL) المستندة إلى الذكاء الاصطناعي. هذا أمر منطقي منذ ظهور انتشار ML / DL ، بالإضافة إلى أنه يبدو أن لديه بعض التحديات الأكثر احتمالية لتضمين تحيزات الذكاء الاصطناعي غير المبررة.

يحدد هؤلاء الباحثون إلى أي مدى يمكن أن تكون جهود البحث عن مكافآت تحيزات الذكاء الاصطناعي بارزة ، لا سيما في سياق ML / DL: "بمرور الوقت ، طورت مجتمعات البرامج والأمن" مكافآت الأخطاء "في محاولة لتحويل ديناميكيات مماثلة بين مطوري النظام ومنتقديهم (أو المتسللين) نحو غايات أكثر تفاعلية وإنتاجية. الأمل هو أنه من خلال دعوة الأطراف الخارجية عمدًا للعثور على أخطاء في البرامج أو الأجهزة في أنظمتها ، وغالبًا ما توفر حوافز مالية للقيام بذلك ، سيتطور نظام بيئي أكثر صحة وسرعة استجابة. من الطبيعي أن ينظر مجتمع ML إلى نهج مماثل لـ "مكافأة التحيز" لاكتشاف وإصلاح النماذج والأنظمة ذات التحيز أو السلوكيات الأخرى غير المرغوب فيها في الوقت المناسب. بدلاً من العثور على أخطاء في البرامج ، تتم دعوة الأطراف الخارجية للبحث عن التحيزات - على سبيل المثال ، مجموعات فرعية (ديموغرافية أو غيرها) من المدخلات التي يكون أداء النموذج المدرَّب فيها ضعيفًا - وتتم مكافأتها على القيام بذلك "(في الورقة" إطار خوارزمي للتحيز " الجوائز "بقلم إيرا غلوبس-هاريس ومايكل كيرنز وآرون روث).

في الورقة البحثية ، حدد المؤلفون نهجًا مقترحًا لأنواع تحيزات الذكاء الاصطناعي التي يمكن البحث عنها بواسطة صائدي الجوائز. هناك أيضًا مؤشر حول كيفية تقييم مطالبات صائد الجوائز المرتبطة بتحيزات الذكاء الاصطناعي المزعومة المكتشفة على هذا النحو. وفقًا لملاحظاتي السابقة هنا ، فإن الاحتمالات هي أنك ستتلقى ادعاءات خادعة وعليك أن تفصل بين تحيزات القمح والقش.

قبل الدخول في المزيد من اللحوم والبطاطس حول الاعتبارات البرية والصوفية الكامنة وراء صيد التحيز في الذكاء الاصطناعي ، دعنا نضع بعض الأساسيات الإضافية حول موضوعات متكاملة للغاية. نحن بحاجة إلى الغوص لفترة وجيزة في أخلاقيات الذكاء الاصطناعي وخاصة ظهور التعلم الآلي (ML) والتعلم العميق (DL).

قد تكون مدركًا بشكل غامض أن أحد أعلى الأصوات هذه الأيام في مجال الذكاء الاصطناعي وحتى خارج مجال الذكاء الاصطناعي يتكون من المطالبة بمظهر أشبه بالذكاء الاصطناعي الأخلاقي. دعونا نلقي نظرة على معنى الإشارة إلى أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي. علاوة على ذلك ، سوف نستكشف ما أعنيه عندما أتحدث عن التعلم الآلي والتعلم العميق.

يتكون جزء أو جزء معين من أخلاقيات الذكاء الاصطناعي الذي حظي بالكثير من اهتمام وسائل الإعلام من الذكاء الاصطناعي الذي يُظهر تحيزات وأوجه عدم مساواة غير مرغوب فيها. قد تدرك أنه عندما بدأ العصر الأخير للذكاء الاصطناعي ، كان هناك اندفاع هائل من الحماس لما يسميه البعض الآن منظمة العفو الدولية من أجل الخير. لسوء الحظ ، في أعقاب تلك الإثارة المتدفقة ، بدأنا نشهد منظمة العفو الدولية للسوء. على سبيل المثال ، تم الكشف عن العديد من أنظمة التعرف على الوجه القائمة على الذكاء الاصطناعي على أنها تحتوي على تحيزات عنصرية وتحيزات بين الجنسين ، والتي ناقشتها في الرابط هنا.

جهود للقتال ضد منظمة العفو الدولية للسوء بنشاط جارية. إلى جانب صاخبة السياسات مساعي كبح جماح المخالفات ، هناك أيضًا دافع جوهري نحو تبني أخلاقيات الذكاء الاصطناعي لتصحيح ضعف الذكاء الاصطناعي. الفكرة هي أننا يجب أن نتبنى ونصادق على المبادئ الأخلاقية الرئيسية للذكاء الاصطناعي لتطوير الذكاء الاصطناعي وإدخاله في الميدان لتقويض منظمة العفو الدولية للسوء والتبشير والترويج في الوقت نفسه لما هو مفضل منظمة العفو الدولية من أجل الخير.

فيما يتعلق بمفهوم ذي صلة ، أنا من المدافعين عن محاولة استخدام الذكاء الاصطناعي كجزء من حل مشاكل الذكاء الاصطناعي ، ومكافحة النيران بالنار بهذه الطريقة من التفكير. قد نقوم على سبيل المثال بتضمين المكونات الأخلاقية للذكاء الاصطناعي في نظام ذكاء اصطناعي يراقب كيفية قيام بقية الذكاء الاصطناعي بالأشياء ، وبالتالي من المحتمل أن نكتشف في الوقت الفعلي أي جهود تمييزية ، انظر نقاشي في الرابط هنا. يمكن أن يكون لدينا أيضًا نظام ذكاء اصطناعي منفصل يعمل كنوع من أجهزة مراقبة أخلاقيات الذكاء الاصطناعي. يعمل نظام الذكاء الاصطناعي كمشرف لتتبع واكتشاف متى يدخل ذكاء اصطناعي آخر في الهاوية غير الأخلاقية (انظر تحليلي لهذه القدرات في الرابط هنا).

بعد قليل ، سوف أشارككم بعض المبادئ الشاملة التي تقوم عليها أخلاقيات الذكاء الاصطناعي. هناك الكثير من هذه الأنواع من القوائم التي تطفو هنا وهناك. يمكنك القول أنه لا توجد حتى الآن قائمة فردية للنداء والتوافق العالميين. هذه هي الأخبار المؤسفة. الخبر السار هو أن هناك على الأقل قوائم أخلاقيات الذكاء الاصطناعي متاحة بسهولة وتميل إلى أن تكون متشابهة تمامًا. أخيرًا ، يشير هذا إلى أنه من خلال شكل من أشكال التقارب المنطقي ، فإننا نجد طريقنا نحو قواسم مشتركة عامة لما تتكون منه أخلاقيات الذكاء الاصطناعي.

أولاً ، دعنا نغطي بإيجاز بعض المبادئ الأخلاقية الشاملة للذكاء الاصطناعي لتوضيح ما يجب أن يكون اعتبارًا حيويًا لأي شخص يقوم بصياغة أو استخدام أو استخدام الذكاء الاصطناعي.

على سبيل المثال ، كما صرح الفاتيكان في دعوة روما لأخلاقيات الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • الشفافية: من حيث المبدأ ، يجب أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير
  • إدراجه: يجب أن تؤخذ احتياجات جميع البشر في الاعتبار حتى يستفيد الجميع ، ويمكن لجميع الأفراد توفير أفضل الظروف الممكنة للتعبير عن أنفسهم وتطويرهم.
  • المسئولية: يجب على أولئك الذين يصممون وينشرون استخدام الذكاء الاصطناعي أن يتابعوا المسؤولية والشفافية
  • النزاهة: لا تخلق أو تتصرف على أساس التحيز ، وبالتالي الحفاظ على العدالة والكرامة الإنسانية
  • الموثوقية: يجب أن تكون أنظمة الذكاء الاصطناعي قادرة على العمل بشكل موثوق
  • الأمن والخصوصية: يجب أن تعمل أنظمة الذكاء الاصطناعي بشكل آمن وتحترم خصوصية المستخدمين.

كما صرحت وزارة الدفاع الأمريكية (DoD) في المبادئ الأخلاقية لاستخدام الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • مسؤول: سوف يمارس موظفو وزارة الدفاع مستويات مناسبة من الحكم والرعاية مع الاستمرار في المسؤولية عن تطوير ونشر واستخدام قدرات الذكاء الاصطناعي.
  • العادل: ستتخذ الإدارة خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي.
  • تعقبها: سيتم تطوير ونشر قدرات الذكاء الاصطناعي في الإدارة بحيث يمتلك الموظفون المعنيون فهمًا مناسبًا للتكنولوجيا وعمليات التطوير والأساليب التشغيلية المطبقة على قدرات الذكاء الاصطناعي ، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق ومصادر البيانات وإجراءات التصميم والتوثيق.
  • موثوق: سيكون لإمكانيات الذكاء الاصطناعي في الإدارة استخدامات واضحة ومحددة جيدًا ، وستخضع سلامة وأمن وفعالية هذه القدرات للاختبار والتأكيد ضمن تلك الاستخدامات المحددة عبر دورات حياتها بأكملها.
  • للحكم: ستقوم الإدارة بتصميم وهندسة قدرات الذكاء الاصطناعي للوفاء بالوظائف المقصودة مع امتلاك القدرة على اكتشاف وتجنب العواقب غير المقصودة ، والقدرة على فك أو إلغاء تنشيط الأنظمة المنشورة التي تظهر سلوكًا غير مقصود.

لقد ناقشت أيضًا العديد من التحليلات الجماعية للمبادئ الأخلاقية للذكاء الاصطناعي ، بما في ذلك تغطية مجموعة ابتكرها باحثون قاموا بفحص وتكثيف جوهر العديد من مبادئ أخلاقيات الذكاء الاصطناعي الوطنية والدولية في ورقة بعنوان "المشهد العالمي لإرشادات أخلاقيات الذكاء الاصطناعي" (تم نشره) في الطبيعة) ، وأن تغطيتي تستكشف في الرابط هنا، مما أدى إلى هذه القائمة الأساسية:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

كما قد تخمن بشكل مباشر ، فإن محاولة تحديد التفاصيل التي تقوم عليها هذه المبادئ قد يكون صعبًا للغاية. والأكثر من ذلك ، فإن الجهد المبذول لتحويل هذه المبادئ العريضة إلى شيء ملموس ومفصل تمامًا بما يكفي لاستخدامه عند صياغة أنظمة الذكاء الاصطناعي يعد أيضًا من الصعب كسرها. من السهل بشكل عام القيام ببعض التلويح اليدوي حول ماهية مبادئ أخلاقيات الذكاء الاصطناعي وكيف ينبغي مراعاتها بشكل عام ، في حين أنه وضع أكثر تعقيدًا في ترميز الذكاء الاصطناعي يجب أن يكون المطاط الحقيقي الذي يلبي الطريق.

يجب استخدام مبادئ أخلاقيات الذكاء الاصطناعي من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف. يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. كما ذكرنا سابقًا ، فإن الأمر يتطلب قرية لابتكار واستخدام الذكاء الاصطناعي ، ومن أجل ذلك يجب أن تكون القرية بأكملها على دراية بمبادئ أخلاقيات الذكاء الاصطناعي والالتزام بها.

دعنا نتأكد أيضًا من أننا على نفس الصفحة حول طبيعة الذكاء الاصطناعي اليوم.

لا يوجد أي ذكاء اصطناعي واعي اليوم. ليس لدينا هذا. لا نعرف ما إذا كان الذكاء الاصطناعي الواعي سيكون ممكنًا. لا أحد يستطيع أن يتنبأ بجدارة بما إذا كنا سنحقق ذكاءً اصطناعيًا واعيًا ، ولا ما إذا كان الذكاء الاصطناعي الواعي سينشأ بطريقة ما بأعجوبة تلقائيًا في شكل مستعر أعظم معرفي حسابي (يشار إليه عادةً باسم التفرد ، انظر تغطيتي في الرابط هنا).

نوع الذكاء الاصطناعي الذي أركز عليه يتكون من الذكاء الاصطناعي غير الواعي الذي لدينا اليوم. إذا أردنا التكهن بشدة حساس الذكاء الاصطناعي ، يمكن أن تسير هذه المناقشة في اتجاه مختلف جذريًا. من المفترض أن يكون الذكاء الاصطناعي الواعي ذا جودة بشرية. ستحتاج إلى اعتبار أن الذكاء الاصطناعي الواعي هو المكافئ المعرفي للإنسان. أكثر من ذلك ، نظرًا لأن البعض يتوقع أن يكون لدينا ذكاء اصطناعي فائق الذكاء ، فمن المتصور أن مثل هذا الذكاء الاصطناعي يمكن أن يصبح أكثر ذكاءً من البشر (لاستكشافي للذكاء الاصطناعي الفائق كإمكانية ، انظر التغطية هنا).

دعونا نحافظ على الأمور أكثر واقعية ونفكر في الذكاء الاصطناعي غير الحسابي اليوم.

ندرك أن الذكاء الاصطناعي اليوم غير قادر على "التفكير" بأي شكل من الأشكال على قدم المساواة مع التفكير البشري. عندما تتفاعل مع Alexa أو Siri ، قد تبدو قدرات المحادثة شبيهة بالقدرات البشرية ، لكن الحقيقة هي أنها حسابية وتفتقر إلى الإدراك البشري. استفاد العصر الأخير من الذكاء الاصطناعي بشكل مكثف من التعلم الآلي (ML) والتعلم العميق (DL) ، مما يعزز مطابقة الأنماط الحسابية. وقد أدى ذلك إلى ظهور أنظمة ذكاء اصطناعي تبدو وكأنها ميول شبيهة بالإنسان. وفي الوقت نفسه ، لا يوجد أي ذكاء اصطناعي اليوم يشبه الفطرة السليمة وليس لديه أي من التعجب المعرفي للتفكير البشري القوي.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين يتخذون نمطًا بناءً على القرارات قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق خفية ولكنها مهمة. سيحاول التعلم الآلي أو مطابقة الأنماط الحسابية للتعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة المصممة بالذكاء الاصطناعي في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة في ML / DL من الصعب اكتشاف التحيزات الخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا أكثر تعقيدًا مما قد يبدو. توجد فرصة قوية أنه حتى مع إجراء اختبارات مكثفة نسبيًا ، لا تزال هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

يمكنك إلى حد ما استخدام القول المأثور الشهير أو سيئ السمعة من القمامة في القمامة. الشيء هو ، هذا أقرب إلى التحيزات - التي يتم غرسها بشكل خبيث على أنها تحيزات مغمورة داخل الذكاء الاصطناعي. تصبح عملية اتخاذ القرار الخوارزمية (ADM) للذكاء الاصطناعي بشكل بديهي محملة بعدم المساواة.

غير جيد.

دعنا الآن نعود إلى موضوع البحث عن التحيز في الذكاء الاصطناعي.

لأولئك منكم الذين يفكرون في مسعى صيد مكافآت الذكاء الاصطناعي ، فإليك سبع خطوات رئيسية أوصي بها حول أفضل طريقة للمتابعة:

1) تقييم. قم بتقييم مدى ملاءمة مسعى صيد مكافآت التحيز للذكاء الاصطناعي لظروفك ووفقًا لأنظمة الذكاء الاصطناعي الخاصة بك

2) تصميم. تصميم نهج مناسب لصيد المكافآت التحيز للذكاء الاصطناعي

3) تنفيذ. تنفيذ ونشر مساعيك في صيد مكافآت التحيز في الذكاء الاصطناعي

4) الحقل. ضع في الميدان دعاوى المكافآت المتحيزة للذكاء الاصطناعي وقم بمعالجتها وفقًا لذلك

5) حل. قم بإصلاح أو تعديل الذكاء الاصطناعي الخاص بك بما يتناسب مع حالات التعرض للانحياز المكتشفة للذكاء الاصطناعي

6) ضبط. اضبط ميزة البحث عن المكافآت من تحيزات الذكاء الاصطناعي حسب الحاجة

7) توقف. توقف عن البحث عن مكافآت التحيز للذكاء الاصطناعي عندما لم تعد هناك حاجة إليها

في سلسلتي من الخطوات المذكورة أعلاه ، لاحظ أنني أذكر أنك سترغب على الأرجح في إصلاح أو تعديل الذكاء الاصطناعي الخاص بك بناءً على التأكد من وجود تحيز الذكاء الاصطناعي المزعوم في نظام الذكاء الاصطناعي الخاص بك. هذا منطقي إلى حد كبير. من شبه المؤكد أنك تريد دعم أي تحيزات موجودة في الذكاء الاصطناعي. فكر في التداعيات القانونية (والأخلاقية) إذا لم تفعل ذلك. من المؤكد أنك لم تكن تعلم بوجود تحيز للذكاء الاصطناعي وبالتالي سمحت له بالوجود ، في حين أنه من الصعب جدًا أن تسجل أنك على دراية بانحياز الذكاء الاصطناعي ولم تفعل شيئًا حيال ذلك.

بطبيعة الحال ، ستتوقف طبيعة ودرجة إصلاح أو تعديل الذكاء الاصطناعي على مدى أهمية تحيزات الذكاء الاصطناعي ومدى عمق هذه المشكلات. إذا كنت محظوظًا ، فربما يؤدي إجراء قدر متواضع من التغييرات على الذكاء الاصطناعي إلى تصحيح الأمور. الاحتمال الآخر هو أنك قد تحتاج إلى إعادة كتابة كاملة للذكاء الاصطناعي. بالنسبة لنوع ML / DL من الذكاء الاصطناعي ، قد يتطلب ذلك العودة إلى لوحة الرسم والبدء من جديد بمجموعة جديدة تمامًا من البيانات ونموذج ML / DL نظيف. لقد ناقشت ظهور مشكلة الذكاء الاصطناعي أو تدميرها كعلاج قانوني محتمل ضد الذكاء الاصطناعي البغيض ، انظر الرابط هنا.

أحد الأسئلة التي يجب التفكير فيها هو ما إذا كنت تريد من صائدي الجوائز أن يفعلوا أكثر من مجرد تحديد وجود تحيزات الذكاء الاصطناعي. على سبيل المثال ، يمكنك تحسين المكافأة بالإشارة إلى أن الإصلاحات المقترحة مرحب بها أيضًا. انحياز الذكاء الاصطناعي وجدت من خلال صائد الجوائز ، قد يتم دفع مكافأة أو جائزة واحدة محددة. إذا كان صائد الجوائز يستطيع أيضًا أن يقدم شيئًا قابلاً للحياة حل إلى انحياز الذكاء الاصطناعي ، قد يتم منحهم مكافأة إضافية بعد ذلك.

يجادل البعض بأن هذا جسر بعيد جدًا. يقولون أنه يجب عليك إبقاء صائدي المكافآت المتحيزين للذكاء الاصطناعي يركزون حصريًا على العثور على تحيزات الذكاء الاصطناعي. ستنشئ مجموعة من العواقب السلبية غير المرغوب فيها من خلال دعوتهم أيضًا لاقتراح الحلول. اجعل الأمور بسيطة. الهدف هو الحصول على أكبر عدد من العيون الإضافية لاكتشاف تحيزات الذكاء الاصطناعي حتى تتمكن من تحديد ما يجب فعله بعد ذلك. لا تعكر المياه.

يستلزم الجانب الشائك الذي يحتاج إلى اكتشاف حجم المكافأة أو الجائزة لصائدي الجوائز الذين يكتشفون بالفعل تحيزات الذكاء الاصطناعي. تريد أن يكون المردود واضحًا. بدون مكافأة عالية كافية ، لن تحصل على العديد من صائدي الجوائز أو لن يكونوا حريصين بشكل خاص على البحث عن تحيزات الذكاء الاصطناعي في أنظمة الذكاء الاصطناعي الخاصة بك. قد يركزون بدلاً من ذلك على مساعي مكافأة التحيز الأخرى للذكاء الاصطناعي.

علاوة على ذلك ، كما ذكرنا ، تريد محاولة قمع رغبة صائدي الجوائز لتحويل اكتشافاتهم المتحيزة للذكاء الاصطناعي إلى أشكال أخرى من الذهب. إذا بدت المكافأة متواضعة ، فقد تزعج صائدي المكافآت للبحث عن مكافآت أخرى أعلى. يمكنهم اتباع نهج برامج الفدية تجاهك. قد يعلنون أن لديهم تحيزًا مثيرًا للذكاء الاصطناعي يرغب أحد المنافسين في معرفته ويمكن استخدامه ضد شركتك من خلال الترويج لوجود تحيز للذكاء الاصطناعي في الذكاء الاصطناعي الخاص بك. وبالتالي ، فإنهم يبيعون انحياز الذكاء الاصطناعي المكتشف لمن يدفع أعلى سعر. وهلم جرا.

يفترض المرء أنه إذا قمت بتعيين المكافأة على نطاق مرتفع للغاية ، فإنك تطلب أيضًا مشكلة محتملة. هذا يمكن أن يجذب جميع أنواع صائدي الجوائز. وهم بدورهم قد يغمرون وسائل التواصل الاجتماعي بادعاءات ضبابية بأنهم وجدوا عددًا كبيرًا من تحيزات الذكاء الاصطناعي ، ويفعلون ذلك من أجل الترويج لأنفسهم ودون أن يتسببوا فعليًا في أي تحيزات للذكاء الاصطناعي. بمعنى ما ، فإن مكافأتك المتزايدة تسلط الضوء عن غير قصد على الذكاء الاصطناعي الخاص بك وتحث عددًا كبيرًا من العث غير المهذب للانجذاب بشكل خبيث إلى شعاع الضوء المتوهج.

هناك اعتبار آخر يتضمن إمكانية الوصول إلى الذكاء الاصطناعي الخاص بك.

لتمكين إمكانية البحث عن المكافآت بالذكاء الاصطناعي ، يتعين على صائدي المكافآت الوصول بشكل كافٍ إلى الذكاء الاصطناعي الخاص بك. لن يحالفهم الحظ كثيرًا في العثور على تحيزات الذكاء الاصطناعي إذا تم حظرهم تمامًا. لكنك لا تريد التخلي عن حماية الأمن السيبراني لأن القيام بذلك قد يعرض نظام الذكاء الاصطناعي الخاص بك للخطر تمامًا.

قد تحاول أن تجعل صائدي الجوائز يوقعون على العديد من الإعلانات الملزمة قانونًا ومن ثم تزودهم بالوصول المطلوب. لن يحب بعض صائدي الجوائز هذا النوع من النهج. وجهة نظرهم هي أنهم لن يفعلوا إلا ما يسمح به أي مسار مفتوح ومتاح للجمهور. إنهم منشقون أحرار ، كما كانوا ، ولا يحبون أن يكونوا مثقلين ، كما كان. سيؤدي حملهم على وضع توقيعهم على مستندات قانونية مخيفة إلى تجنب الكثير منهم البحث عن تحيزات الذكاء الاصطناعي في الذكاء الاصطناعي الخاص بك. أو قد ينزعجون من التحدي القانوني الخاص بك ويقررون أنهم سيرون ما يمكنهم العثور عليه من خلال الوسائل العامة ، والقيام بذلك بدافع شديد ربما لإظهار مدى ضعفك حقًا.

لدي زاوية أخرى قد تجعل رأسك تدور.

قد يقرر صائد الجوائز المحنك بالذكاء الاصطناعي ابتكار نظام ذكاء اصطناعي يمكنه فحص الذكاء الاصطناعي الخاص بك وربما اكتشاف تحيزات الذكاء الاصطناعي في الذكاء الاصطناعي الخاص بك. هذا هو صانع الأدوات الذي يختار صنع أداة للقيام بالمهمة بدلاً من أداء العمل اليدوي بأنفسهم. بدلاً من فحص الذكاء الاصطناعي الخاص بك بشق الأنفس ، يقضي صائد المكافآت المتمرس في الذكاء الاصطناعي وقته في اختراع أداة ذكاء اصطناعي تقوم بنفس الشيء. ثم يستخدمون أداة الذكاء الاصطناعي في الذكاء الاصطناعي الخاص بك. الجميل أيضًا أنه يمكنهم إعادة استخدام أداة الذكاء الاصطناعي على أي شخص آخر يقدم أيضًا فرصة للبحث عن الجوائز على الذكاء الاصطناعي الخاص بهم أيضًا.

أنا أعلم بماذا تفكر على الأرجح. إذا كان من الممكن ابتكار أداة للذكاء الاصطناعي لفحص الذكاء الاصطناعي بحثًا عن التحيزات ، فيجب على صانع الذكاء الاصطناعي الذي يتم فحصه بحثًا عن تحيزات الذكاء الاصطناعي إما أن يصنع أداة للذكاء الاصطناعي أو يشتري واحدة لاستخدامه الخاص. من الناحية النظرية ، لا يحتاجون بعد ذلك إلى التعامل مع كرنفال المكافآت بأكمله ، لتبدأ به. ما عليك سوى استخدام الذكاء الاصطناعي للعثور على تحيزات الذكاء الاصطناعي الخاصة بهم.

نعم ، هذا شيء يمكن أن تتوقعه سيظهر تدريجياً. وفي الوقت نفسه ، من المحتمل أن تتكون الدعامة الأساسية لهذه الجهود من مطوري الذكاء الاصطناعي الذين يقومون بمطاردة المكافآت. قد يستخدمون أدوات مختلفة لمساعدة جهودهم ، ولكن على المدى القريب ، من غير المرجح أن يقوموا ببساطة بضبط أداة الذكاء الاصطناعي بشكل تلقائي وأخذ قيلولة بحيث تقوم الأداة بكامل تحيز الذكاء الاصطناعي.

نحن لسنا هناك بعد.

في هذه المرحلة من هذه المناقشة المهمة ، أراهن أنك ترغب في بعض الأمثلة التوضيحية التي قد تعرض هذا الموضوع. هناك مجموعة خاصة وشعبية بالتأكيد من الأمثلة القريبة من قلبي. كما ترى ، بصفتي خبيرًا في الذكاء الاصطناعي بما في ذلك التداعيات الأخلاقية والقانونية ، يُطلب مني كثيرًا تحديد أمثلة واقعية تعرض معضلات أخلاقيات الذكاء الاصطناعي بحيث يمكن فهم الطبيعة النظرية إلى حد ما للموضوع بسهولة أكبر. واحدة من أكثر المجالات إثارة للذكريات التي تقدم بوضوح هذا المأزق الأخلاقي للذكاء الاصطناعي هو ظهور سيارات ذاتية القيادة حقيقية قائمة على الذكاء الاصطناعي. سيكون هذا بمثابة حالة استخدام مفيدة أو نموذجًا لمناقشة مستفيضة حول هذا الموضوع.

إليك إذن سؤال جدير بالملاحظة يستحق التفكير فيه: هل يبرز ظهور السيارات ذاتية القيادة الحقيقية القائمة على الذكاء الاصطناعي أي شيء عن استخدام ميزة البحث عن المكافآت المتحيزة للذكاء الاصطناعي ، وإذا كان الأمر كذلك ، فما الذي يعرضه هذا؟

اسمح لي بلحظة لفك السؤال.

أولاً ، لاحظ أنه لا يوجد سائق بشري متورط في سيارة حقيقية ذاتية القيادة. ضع في اعتبارك أن السيارات الحقيقية ذاتية القيادة يتم قيادتها عبر نظام قيادة بالذكاء الاصطناعي. ليست هناك حاجة لسائق بشري على عجلة القيادة ، ولا يوجد شرط لقيادة الإنسان للسيارة. لتغطيتي الواسعة والمستمرة للمركبات ذاتية القيادة (AVs) وخاصة السيارات ذاتية القيادة ، انظر الرابط هنا.

أود أن أوضح ما هو المقصود عندما أشير إلى السيارات الحقيقية ذاتية القيادة.

فهم مستويات السيارات ذاتية القيادة

للتوضيح ، السيارات الحقيقية ذاتية القيادة هي تلك التي يقود فيها الذكاء الاصطناعي السيارة بالكامل من تلقاء نفسه ولا توجد أي مساعدة بشرية أثناء مهمة القيادة.

تعتبر هذه المركبات ذاتية القيادة من المستوى 4 والمستوى 5 (انظر الشرح في هذا الرابط هنا) ، في حين أن السيارة التي تتطلب سائقًا بشريًا للمشاركة في جهد القيادة يتم اعتبارها عادةً في المستوى 2 أو المستوى 3. يتم وصف السيارات التي تشارك في مهمة القيادة بأنها شبه مستقلة ، وتحتوي عادةً على مجموعة متنوعة من الوظائف الإضافية الآلية التي يشار إليها باسم ADAADA
S (أنظمة مساعدة السائق المتقدمة).

لا توجد حتى الآن سيارة ذاتية القيادة حقيقية في المستوى الخامس ، ولا نعرف حتى الآن ما إذا كان من الممكن تحقيق ذلك ، ولا كم من الوقت سيستغرق الوصول إليه.

وفي الوقت نفسه ، تحاول جهود المستوى 4 تدريجياً الحصول على بعض الجاذبية من خلال الخضوع لتجارب طرق عامة ضيقة للغاية وانتقائية ، على الرغم من وجود جدل حول ما إذا كان يجب السماح بهذا الاختبار في حد ذاته (نحن جميعًا حيوانات تجارب حياة أو موت في التجربة التي تجري على طرقنا السريعة والطرق الفرعية ، يدعي البعض ، انظر تغطيتي في هذا الرابط هنا).

نظرًا لأن السيارات شبه المستقلة تتطلب سائقًا بشريًا ، فإن اعتماد هذه الأنواع من السيارات لن يكون مختلفًا بشكل ملحوظ عن قيادة المركبات التقليدية ، لذلك لا يوجد الكثير في حد ذاته لتغطية هذه المواضيع (على الرغم من ذلك ، كما سترى في لحظة ، النقاط التالية تنطبق بشكل عام).

بالنسبة للسيارات شبه المستقلة ، من المهم أن يتم تحذير الجمهور بشأن جانب مزعج ظهر مؤخرًا ، أي أنه على الرغم من هؤلاء السائقين البشر الذين يستمرون في نشر مقاطع فيديو لأنفسهم ينامون على عجلة سيارة من المستوى 2 أو المستوى 3 علينا جميعًا أن نتجنب التضليل حتى نصدق أن السائق يمكنه أن يلفت انتباهه عن مهمة القيادة أثناء قيادة سيارة شبه مستقلة.

أنت الطرف المسؤول عن إجراءات القيادة في السيارة ، بغض النظر عن مقدار الأتمتة التي قد يتم قذفها في المستوى 2 أو المستوى 3.

السيارات ذاتية القيادة وصيد المكافآت التحيز للذكاء الاصطناعي

بالنسبة للمركبات ذاتية القيادة الحقيقية من المستوى 4 والمستوى 5 ، لن يكون هناك سائق بشري يشارك في مهمة القيادة.

سيكون جميع الركاب من الركاب.

تقوم منظمة العفو الدولية بالقيادة.

أحد الجوانب التي يجب مناقشتها على الفور يستلزم حقيقة أن الذكاء الاصطناعي المتضمن في أنظمة قيادة الذكاء الاصطناعي اليوم ليس واعيًا. بعبارة أخرى ، الذكاء الاصطناعي عبارة عن مجموعة من البرمجة والخوارزميات المستندة إلى الكمبيوتر ، وهو بالتأكيد غير قادر على التفكير بنفس الطريقة التي يستطيع بها البشر.

لماذا هذا التركيز الإضافي على الذكاء الاصطناعي ليس واعيا؟

لأنني أريد أن أؤكد أنه عند مناقشة دور نظام القيادة للذكاء الاصطناعي ، فأنا لا أنسب الصفات البشرية للذكاء الاصطناعي. يرجى العلم أن هناك اتجاهًا مستمرًا وخطيرًا هذه الأيام لتجسيد الذكاء الاصطناعي. من حيث الجوهر ، يخصص الناس ذكاءً شبيهاً بالإنسان إلى الذكاء الاصطناعي اليوم ، على الرغم من الحقيقة التي لا يمكن إنكارها والتي لا جدال فيها وهي عدم وجود مثل هذا الذكاء الاصطناعي حتى الآن.

مع هذا التوضيح ، يمكنك أن تتخيل أن نظام القيادة بالذكاء الاصطناعي لن "يعرف" بطريقة أو بأخرى جوانب القيادة. القيادة وكل ما تتطلبه يجب برمجتها كجزء من أجهزة وبرامج السيارة ذاتية القيادة.

دعونا نتعمق في عدد لا يحصى من الجوانب التي تأتي للعب في هذا الموضوع.

أولاً ، من المهم أن ندرك أنه ليست كل سيارات الذكاء الاصطناعي ذاتية القيادة هي نفسها. تتبنى كل شركة تصنيع سيارات وشركة تقنية ذاتية القيادة نهجها في ابتكار سيارات ذاتية القيادة. على هذا النحو ، من الصعب الإدلاء ببيانات شاملة حول ما ستفعله أو لا تفعله أنظمة القيادة بالذكاء الاصطناعي.

علاوة على ذلك ، عندما يذكر أن نظام القيادة بالذكاء الاصطناعي لا يفعل شيئًا معينًا ، يمكن ، لاحقًا ، تجاوز هذا الأمر من قبل المطورين الذين يقومون في الواقع ببرمجة الكمبيوتر للقيام بهذا الشيء بالذات. خطوة بخطوة ، يتم تحسين أنظمة القيادة بالذكاء الاصطناعي وتوسيعها تدريجياً. قد لا يوجد قيد موجود اليوم في تكرار أو إصدار مستقبلي من النظام.

آمل أن يوفر ذلك مجموعة كافية من المحاذير لإبراز ما أنا على وشك ربطه.

في أعمدتي ، لقد ناقشت بإسهاب استخدام صائدي المكافآت الموجهين للأخطاء في مجال السيارات ذاتية القيادة والسيارات ذاتية القيادة. لقد تم بالفعل هذا النهج في هذا المكانة. هناك نقاشات معتادة حول ما إذا كانت فكرة سليمة أم لا. كانت الجهود عادة ذات طبيعة محدودة ، وغالبًا ما تظل هادئة نسبيًا.

يمكن أن يحدث خطاب مماثل عندما يتحول التركيز نحو البحث عن تحيزات الذكاء الاصطناعي بدلاً من البحث عن أخطاء النظام في حد ذاته. يقترح البعض أنه أمر مرهق إذا فعلت ذلك ، وترتق إذا لم تكن لغزًا.

وإليك السبب.

أولاً ، لكي نكون واضحين ، هناك العديد من الطرق التي ستخضع بها المركبات ذاتية القيادة والسيارات ذاتية القيادة لاحتواء تحيزات الذكاء الاصطناعي ، انظر تغطيتي على الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر. قد يبدو من الحكمة أن تحاول شركات صناعة السيارات والسيارات ذاتية القيادة منع تحيزات الذكاء الاصطناعي تلك من الظهور في أنظمة الذكاء الاصطناعي الخاصة بهم. العاصفة النارية القانونية والأخلاقية ضد مثل هذه الشركات ستكون بلا شك شديدة.

هل استخدام مسعى صيد مكافآت الذكاء الاصطناعي المتحيز هو نهج مناسب في هذا السياق المحدد؟

إجابة واحدة هي نعم ، سيكون هذا مفيدًا وسيوفر وفرة من المجموعات "المجانية" من العيون الجديدة لمحاولة اكتشاف أي تحيزات مدمجة للذكاء الاصطناعي لسيارة ذاتية القيادة تعمل بالذكاء الاصطناعي أو ما شابه. ينشغل معظم مطوري الذكاء الاصطناعي الذين يصنعون سيارات ذاتية القيادة في صنع ذكاء اصطناعي يمكنه قيادة السيارة بأمان من النقطة أ إلى النقطة ب. الذكاء الاصطناعي الخاص بهم.

الإجابة الأخرى هي أنه لا ، فالسماح بصيد الجوائز للمركبات ذاتية القيادة والسيارات ذاتية القيادة على أي أساس ، سواء أكان ذلك بسبب الأخطاء أو انحيازات الذكاء الاصطناعي ، يجب تجنبه بشدة. الحجة هي أن هذه المركبات والذكاء الاصطناعي الخاص بهم من عيار الحياة أو الموت. قد يكون العبث بالذكاء الاصطناعي بأي شكل من الأشكال مدمرًا إلى حد ما للذكاء الاصطناعي ويؤثر على ما يفعله نظام القيادة بالذكاء الاصطناعي.

والحجة المضادة لتلك النقطة الأخيرة هي أن صائدي المكافآت من المفترض ألا يكونوا قادرين على تغيير الذكاء الاصطناعي الذي يفحصونه. وبالتالي ، لا يوجد خطر من العبث بالذكاء الاصطناعي والتسبب في تحول الذكاء الاصطناعي في هذا السياق فجأة إلى نظام قيادة مجنون بالذكاء الاصطناعي. يمتلك صائدو الجوائز حق الوصول للقراءة فقط. إن السماح لهم بالذهاب إلى أبعد من ذلك سيكون غبيًا للغاية وخطأ فادحًا.

الحجة المضادة لهذه الحجة المضادة هي أنه من خلال السماح لصائدي المكافآت وتشجيعهم لفحص الذكاء الاصطناعي الخاص بك ، فإن الأمر برمته يصبح مشبوهًا. قد يكتشف صائدو الجوائز هؤلاء طرقًا لاستغلال أي أخطاء أو تحيزات تم العثور عليها. هذه الثغرات بدورها قد تكون لأغراض خادعة. سيكون من الأفضل لك عدم دعوة "لصوص" إلى منزلك ، إذا جاز التعبير. بمجرد أن يقوموا بإخراج المفصل ، ستكون في النهاية في كومة من المشاكل.

بالنسبة لأولئك الذين لديهم أنظمة ذكاء اصطناعي ذات حجم أقل من الحياة أو الموت ، فإن الاعتقاد السائد هو أن تداعيات غزوة صيد الجوائز التي تنحرف عن مسارها هي أقل خطورة بكثير. ربما لذلك. من ناحية أخرى ، إذا ضخت شركة ما أموالها في نظام ذكاء اصطناعي تمكن صائدي المكافآت من اغتصابه ، فيمكنك افتراض أن الأضرار التي تلحق بالسمعة والأضرار المحتملة الأخرى ستظل مؤذية.

لا توجد وجبة غداء مجانية عندما يتعلق الأمر بصيد المكافآت التحيز للذكاء الاصطناعي.

ملاحظة ختامية سريعة في الوقت الحالي.

عندما تم البحث عن الخارج عن القانون سيئ السمعة جيسي جيمس خلال الغرب القديم ، طُبع ملصق "مطلوب" يعرض مكافأة قدرها 5,000 دولار مقابل القبض عليه (تفيد بأنه "حي أو ميت"). لقد كان مبلغًا ضخمًا إلى حد ما في ذلك الوقت. اختار أحد أعضاء عصابته إطلاق النار على جيسي ميتًا وجمع المكافأة. أفترض أن هذا يوضح مدى فعالية المكافأة.

هل سيكون استخدام صائدي المكافآت المتحيزين للذكاء الاصطناعي أمرًا جيدًا ، أم سيكون شيئًا سيئًا؟

إذا اخترت إنشاء مسعى صائد مكافآت الذكاء الاصطناعي ، فأنا أقترح أن تبقي عينيك مفتوحتين على مصراعيها وأن تنظر من فوق كتفك في جميع الأوقات. هذا أمر حكيم بالنسبة لك ولذكاء الاصطناعي الخاص بك. أنت لا تعرف أبدًا ما يمكن أن يحدث ، بما في ذلك أن صائد المكافآت المتواطئ يدرج بطريقة خفية تحيزًا للذكاء الاصطناعي في الذكاء الاصطناعي الخاص بك ويصرخ للعالم بأنهم وجدوا تحيزًا عديم الضمير للذكاء الاصطناعي في الذكاء الاصطناعي الخاص بك. ربما يتم القيام بذلك في محاولة وقحة ومضخمة للحصول على مكافأة المكافأة ، بالإضافة إلى إعلان أنفسهم بطلاً حصل بشكل أساسي على جيسي جيمس المتبجح.

تعال إلى التفكير في الأمر ، ربما لن يحب الذكاء الاصطناعي الواعي تلك الفكرة المقلقة عن توفير حيا أو ميتا ، قد يتكهن المرء بشدة.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- أنظمة شريرة أخلاقياً بالكامل ذاتي الحكم هي حكيمة أو عقيمة /