أخلاقيات الذكاء الاصطناعي حذرة من تفاقم عدم تناسق الذكاء الاصطناعي وسط البشر في الحصول على نهاية قصيرة من العصا

أحيانًا تكون في الطرف الخطأ من العصا.

يمكن تطبيق هذا العامية على فكرة عدم التناسق.

نعم ، سأتحدث عن عدم التماثل. كما قد تكون واجهتك في هذا العالم المقلوب رأسا على عقب الذي نعيش فيه ، هناك مناسبات قد تجد فيها نفسك أقل معرفة بشأن مسألة مهمة نسبيًا بالنسبة لك. يشار إلى هذا رسميًا باسم عدم تناسق المعلومات.

المفتاح هو أن لديك معرفة أو معلومات أقل مما قد ترغب في أن يكون لديك ، بالإضافة إلى أن لديك بالتأكيد أقل من الطرف الآخر المعني بالمسألة. أنت في وضع غير مؤات مقارنة بالطرف الآخر. إنهم يعرفون شيئًا لا تعرفه. يمكنهم الاستفادة مما يعرفونه ، لا سيما فيما يتعلق بما لا تعرفه ، والحصول على اليد العليا في أي مداولات أو مفاوضات قاسية معك.

حسنًا ، هناك طفل جديد في المدينة ، يُعرف باسم عدم تناسق الذكاء الاصطناعي.

يشير هذا الشعار الأخير إلى إمكانية مواجهتك لشخص مسلح بالذكاء الاصطناعي ، بينما أنت لست مسلحًا جدًا.

لديهم الذكاء الاصطناعي إلى جانبهم ، بينما لديك ، حسنًا ، أنت فقط. الأمور غير متوازنة. أنت في وضع غير مؤات. سيتمكن الجانب الآخر من إدارة الدوائر من حولك بسبب تعزيزه بواسطة الذكاء الاصطناعي. قد يكون هذا ضمن المثل الشهير القائل بأن كل شيء عادل في الحب والحرب (مثل قديم صاغ فيه يوفوز بواسطة John Lyly ، 1578) ، على الرغم من أن ديناميكيات ومخاطر عدم تناسق الذكاء الاصطناعي تثير مشكلات أخلاقية في مجال الذكاء الاصطناعي. للاطلاع على تغطيتي المستمرة والواسعة لأخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي ، انظر الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

قبل أن ننتقل إلى عالم الذكاء الاصطناعي وتعقيداته الوفيرة فيما يتعلق بعدم تناسق الذكاء الاصطناعي ، دعنا أولاً نستكشف النسخة العادية اليومية من عدم تناسق المعلومات القديم البسيط. سيؤدي هذا إلى تمهيد الطريق للتقدم إلى الطفل الجديد الذي يضرب به الذكاء الاصطناعي على الكتلة.

حكاية موجزة ومفيدة بشكل هادف قد تثير شهيتك.

في ذلك اليوم ، كان الإطار مثقوبًا أثناء تواجدي على الطريق وكنت أبحث بسرعة عن بديل مناسب يمكن تركيبه بسهولة على الفور. باستخدام هاتفي الذكي ، بحثت عبر الإنترنت في متاجر الإطارات القريبة لمعرفة المسافة التي يجب أن أقودها على الإطار الفارغ من الهواء وما إذا كانت هناك أي متاجر مفتوحة. بالإضافة إلى ذلك ، أجريت تقييمًا سريعًا لمراجعات العملاء عبر الإنترنت وحاولت الحصول على أي شيء مفيد حول المدة التي قضوها في العمل والعوامل الأخرى التي قد تُظهر جدارتهم.

عند الاتصال بأحد متاجر الإطارات ، أعطاني الموظف عرض أسعار رائع لتكلفة الإطارات وتركيبها. لم يكن الإطار هو بالضبط ما كان يدور في ذهني ، لكن الموظف أكد لي أنه سيكون المتجر الوحيد في المنطقة الذي يمكنه القيام بالعمل على الفور. وفقًا للموظف ، لن يكون لدى أي من متاجر الإطارات القريبة الأخرى أي من هذه الإطارات في المخزون وسيستغرق الأمر يومًا واحدًا على الأقل لهؤلاء المنافسين للحصول على إطار مناسب من بعض المستودعات شبه البعيدة.

كنت في خضم عدم تناسق المعلومات.

ادعى الموظف أنه يعرف المزيد عن الوضع المحلي لمخازن الإطارات وعلى وجه الخصوص نوع الإطارات التي أحتاجها. كنت في منطقة مررت فيها فقط ولم يكن لدي أي معرفة مباشرة بمحلات الإطارات في تلك المنطقة الجغرافية المحددة. على الرغم من كل ما كنت أعرفه ، كان الكاتب في مكانه وكان يعطيني الحقيقة الخالصة.

لكن هل كان الكاتب يفعل ذلك؟

ربما نعم ، ربما لا.

يمكن أن يكون الكاتب مؤمنًا بصدق بكل ما تم نقله إلي. بالنسبة للكاتب ، كانت هذه هي الحقيقة. أو ربما كان الكاتب يمدد الحقيقة إلى حد ما. كان من الممكن أن يكون ما قيل صحيحًا ، على الرغم من أن الطريقة التي تم تصويره بها تدل على أنه كان الحقيقة المطلقة التي لا يمكن دحضها. بالطبع ، كان من الممكن أيضًا أن يكون الأمر عبارة عن رعشة كاملة وكان الموظف مجرد شلن لمتجر الإطارات لكسب عملي. هل يمكن أن تكون لجنة مثيرة على المحك؟

أجرؤ على القول إنه لا أحد يحب أن يكون في مثل هذا الموقف الضعيف.

تعتبر مخاطر الموقف عاملاً حيويًا في مدى أهمية عدم تناسق المعلومات. إذا كان السؤال المطروح متعلقًا بطبيعة الحياة أو الموت ، فإن التواجد في بيت الكلب والاعتماد على الطرف الآخر فيما يعرفه أو يدعي أنه يعرفه هو وضع غير مرغوب فيه للغاية. عندما تكون المخاطر منخفضة ، مثل طلب العشاء الخاص بك في مطعم ويخبرك الخادم أن طبق السمك رائع ، لكنك لم تأكل هناك من قبل ولم تكن على دراية كافية ، يمكنك مواكبة هذا القدر من عدم تناسق المعلومات دون قلق كبير (أنا افترض أيضًا أنك تراهن أيضًا على أن الخادم لن يخاطر بإعطاء نصائح سيئة ويفوتك الحصول على نصيحة جيدة).

بالعودة إلى قصة الإطارات البالية (لعبة الكلمات!) ، لم يكن لدي طريقة فورية لمعرفة ما إذا كان الموظف يعطيني رؤى موثوقة وغنية بالمعلومات. قد تتساءل عما حدث. قررت إجراء مكالمات إلى العديد من متاجر الإطارات المجاورة الأخرى.

هل أنت مستعد لما اكتشفته؟

كانت جميع متاجر الإطارات الأخرى تحتوي على الإطارات المرغوبة في المخزون ولن أحاول أن أقنعني بأخذ إطار مختلف (كما حاول الموظف الأول). يمكنهم أيضًا إنجاز العمل في نفس الإطار الزمني مثل متجر الإطارات الأول الذي اتصلت به بالصدفة. بنفس السعر تقريبًا.

لقد حصلت تنهيدة ارتياح مرحب بها من جانبي ، أؤكد لكم.

ومن المفارقات ، في قانون مورفي للحظ السيئ ، أن المكان الأول الذي اتصلت به كان المكان الوحيد الذي بدا أنه يخرج لتناول الغداء ، كما كان. أنا سعيد لأنني سعيت للحصول على مزيد من المعلومات. أدى هذا إلى تضييق فجوة عدم تناسق المعلومات. لقد صفقت لنفسي لأنني تمسكت ببندقي ولم ألتزم بالمركز الأول الذي اتصلت به.

ومع ذلك ، كانت هناك تكلفة محددة من الأنواع المتضمنة في الحصول على معلومات إضافية. لقد أجريت ما يقرب من أربع مكالمات استغرقت كل منها حوالي خمسة عشر إلى عشرين دقيقة لإنجازها بالكامل. وبهذا المعنى ، فقد استهلكت حوالي ساعة ونصف بينما كنت أفكر فقط إلى أين آخذ سيارتي. إذا كنت قد أخذت سيارتي على الفور إلى ذلك المركز الأول ، لكان الإطار الجديد على سيارتي تقريبًا بحلول ذلك الوقت. من ناحية أخرى ، من المؤكد أنني سأندم لاحقًا على القرار السريع الذي اتخذته عندما كنت في مأزق عدم تناسق المعلومات الغادر.

في بعض الأحيان ، عليك أن تضغط على أسنانك وأن تأخذ عدم تناسق المعلومات المخيف كما هو. أنت تأمل فقط أن أي قرار تتخذه ، سيكون جيدًا بما فيه الكفاية. قد لا يكون قرارًا "مثاليًا" وقد تندم لاحقًا على هذا القرار. الزاوية الأخرى هي أنه يمكنك محاولة تعزيز جانبك من معادلة المعلومات ، على الرغم من أن هذا ليس بالضرورة خاليًا من التكلفة وقد يؤدي أيضًا إلى مضغ الوقت الثمين ، اعتمادًا على ما إذا كان الوقت المفضل هو الجوهر.

الآن بعد أن شعرت بالراحة بلا شك لمعرفة أن سيارتي تعمل بشكل جيد مع إطارها الجديد والصحيح تمامًا ، يمكنني التحول إلى ظهور عدم تناسق الذكاء الاصطناعي.

تأمل في إحدى قصص الويل التي ترويها منظمة العفو الدولية.

أنت تسعى للحصول على قرض لشراء منزل. يوجد محلل طلبات الرهن العقاري عبر الإنترنت يستخدمه بنك معين. يستفيد النظام عبر الإنترنت من إمكانات الذكاء الاصطناعي المتقدمة اليوم. لا حاجة للتحدث مع وكيل منح القروض البشرية. الذكاء الاصطناعي يفعل كل شيء.

يرشدك نظام الذكاء الاصطناعي عبر سلسلة من المطالبات. أنت تملأ الاستمارات بإخلاص وتستجيب لنظام الذكاء الاصطناعي. هذا الذكاء الاصطناعي حديث للغاية. بينما ربما كنت قد استخدمت في الماضي نظامًا تقليديًا يعتمد على الكمبيوتر ، فإن متغير الذكاء الاصطناعي هذا أقرب إلى التفاعل مع عامل بشري. ليس تمامًا ، لكن يكفي أن تبدأ في الاعتقاد بأن الإنسان كان على الجانب الآخر من هذا النشاط.

بعد بذل قصارى جهدك "لمناقشة" طلبك مع هذا الذكاء الاصطناعي ، في النهاية ، يعلمك أنه للأسف لم تتم الموافقة على طلب القرض. يبدو الأمر وكأن الذكاء الاصطناعي يقدم اعتذارًا نوعًا ما ، كما لو أن الذكاء الاصطناعي أراد الموافقة على القرض ، لكن هؤلاء الأشخاص الذين يتسمون بالحيوية ويشرفون على البنك لن يسمحوا للذكاء الاصطناعي بالقيام بذلك. لتغطيتي لمدى تضليل هذه الأنواع من الاعتذارات المزعومة لمنظمة العفو الدولية ، انظر الرابط هنا.

أنت جاهل لماذا تم رفضك. لا تقدم منظمة العفو الدولية أي تفسير. ربما أخطأ الذكاء الاصطناعي أو أخطأ في حساباته. والأسوأ من ذلك ، لنفترض أن الذكاء الاصطناعي استخدم بعض الاعتبارات المشكوك فيها للغاية مثل العرق أو الجنس عند اتخاذ قرار بشأن القرض. كل ما تعرفه هو أنه يبدو أنك قد أهدرت وقتك وأيضًا سلمت في الوقت نفسه الكثير من البيانات الخاصة إلى الذكاء الاصطناعي والبنك. لقد تفوقت عليك الذكاء الاصطناعي.

سيتم تصنيف هذا كمثال على عدم تناسق الذكاء الاصطناعي.

لقد كنت ضد البنك. كان البنك مسلحًا بالذكاء الاصطناعي. لم تكن مسلحًا بشكل متساوٍ. كان لديك ذكائك وحكمة مدرستك القوية ، لكن لا يوجد ذكاء اصطناعي في جيبك الخلفي. العقل ضد الآلة. للأسف ، فازت الآلة في هذه الحالة.

ماذا ستفعل؟

أولاً ، نحتاج على أساس مجتمعي أن ندرك أن عدم تناسق الذكاء الاصطناعي هذا ينمو ويصبح موجودًا في كل مكان تقريبًا. يواجه البشر الذكاء الاصطناعي في جميع الأنظمة التي نتفاعل معها يوميًا. أحيانًا يكون الذكاء الاصطناعي هو العنصر الوحيد الذي نتفاعل معه ، كما في هذا المثال حول طلب القرض. في حالات أخرى ، قد يكون الإنسان في الحلقة التي تعتمد على الذكاء الاصطناعي لمساعدته في أداء خدمة معينة. بالنسبة للقرض ، قد يطلب منك البنك التحدث مع وكيل بشري بدلاً من التفاعل مع الذكاء الاصطناعي ، ولكن من أجله يستخدم الوكيل البشري نظام كمبيوتر للوصول إلى الذكاء الاصطناعي الذي يوجه الوكيل البشري أثناء عملية طلب القرض (وتكاد تكون مطمئنًا دائمًا إلى أن يتصرف العامل البشري كما لو كان مسجونًا من خلال الاضطرار إلى القيام بصرامة بكل ما "يأمره الذكاء الاصطناعي بفعله").

في كلتا الحالتين ، لا يزال الذكاء الاصطناعي في المزيج.

ثانيًا ، نحتاج إلى المحاولة والتأكد من أن عدم تناسق الذكاء الاصطناعي يتم على الأقل على أساس أخلاقي للذكاء الاصطناعي.

اسمحوا لي أن أشرح تلك الملاحظة التي تبدو غريبة. كما ترى ، إذا تأكدنا إلى حد ما من أن الذكاء الاصطناعي يتصرف بطريقة سليمة أخلاقيًا ، فقد يكون لدينا بعض العزاء حول عدم التناسق الموجود. على أساس مماثل إلى حد ما ولكنه فضفاض أيضًا ، قد تقول إنه إذا كان تفاعلي مع كاتب متجر الإطارات الأول يحتوي على بعض الإرشادات الأخلاقية الصارمة في مكانها ونفذت ، فربما لم يتم إخباري بالقصة التي قيلت لي ، أو على الأقل أنا ربما لم يضطر إلى السعي على الفور لاكتشاف ما إذا كانت قصة طويلة قد أُعطيت لي.

سأشرح المزيد عن أخلاقيات الذكاء الاصطناعي بعد قليل.

ثالثًا ، يجب أن نبحث عن طرق لتقليل عدم تناسق الذكاء الاصطناعي. إذا كان لديك ذكاء اصطناعي في صفك ، وتسعى جاهدة لتكون مدربك أو حاميك ، فقد تتمكن من استخدام ذلك الذكاء الاصطناعي للقيام ببعض الضربات المضادة مع الذكاء الاصطناعي الآخر الذي تتنافس معه وجهاً لوجه. كما يقولون ، في بعض الأحيان يكون من المنطقي محاربة النار بالنار.

قبل الدخول في المزيد من اللحوم والبطاطس حول الاعتبارات البرية والصوفية الكامنة وراء عدم تناسق الذكاء الاصطناعي ، دعنا نضع بعض الأساسيات الإضافية حول الموضوعات الأساسية للغاية. نحن بحاجة إلى الغوص لفترة وجيزة في أخلاقيات الذكاء الاصطناعي وخاصة ظهور التعلم الآلي (ML) والتعلم العميق (DL).

قد تكون مدركًا بشكل غامض أن أحد أعلى الأصوات هذه الأيام في مجال الذكاء الاصطناعي وحتى خارج مجال الذكاء الاصطناعي يتكون من المطالبة بمظهر أشبه بالذكاء الاصطناعي الأخلاقي. دعونا نلقي نظرة على معنى الإشارة إلى أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي. علاوة على ذلك ، سوف نستكشف ما أعنيه عندما أتحدث عن التعلم الآلي والتعلم العميق.

يتكون جزء أو جزء معين من أخلاقيات الذكاء الاصطناعي الذي حظي بالكثير من اهتمام وسائل الإعلام من الذكاء الاصطناعي الذي يُظهر تحيزات وأوجه عدم مساواة غير مرغوب فيها. قد تدرك أنه عندما بدأ العصر الأخير للذكاء الاصطناعي ، كان هناك اندفاع هائل من الحماس لما يسميه البعض الآن منظمة العفو الدولية من أجل الخير. لسوء الحظ ، في أعقاب تلك الإثارة المتدفقة ، بدأنا نشهد منظمة العفو الدولية للسوء. على سبيل المثال ، تم الكشف عن العديد من أنظمة التعرف على الوجه القائمة على الذكاء الاصطناعي على أنها تحتوي على تحيزات عنصرية وتحيزات بين الجنسين ، والتي ناقشتها في الرابط هنا.

جهود للقتال ضد منظمة العفو الدولية للسوء بنشاط جارية. إلى جانب صاخبة السياسات مساعي كبح جماح المخالفات ، هناك أيضًا دافع جوهري نحو تبني أخلاقيات الذكاء الاصطناعي لتصحيح ضعف الذكاء الاصطناعي. الفكرة هي أننا يجب أن نتبنى ونصادق على المبادئ الأخلاقية الرئيسية للذكاء الاصطناعي لتطوير الذكاء الاصطناعي وإدخاله في الميدان لتقويض منظمة العفو الدولية للسوء والتبشير والترويج في الوقت نفسه لما هو مفضل منظمة العفو الدولية من أجل الخير.

فيما يتعلق بمفهوم ذي صلة ، أنا من المدافعين عن محاولة استخدام الذكاء الاصطناعي كجزء من حل مشاكل الذكاء الاصطناعي ، ومكافحة النيران بالنار بهذه الطريقة من التفكير. قد نقوم على سبيل المثال بتضمين المكونات الأخلاقية للذكاء الاصطناعي في نظام ذكاء اصطناعي يراقب كيفية قيام بقية الذكاء الاصطناعي بالأشياء ، وبالتالي من المحتمل أن نكتشف في الوقت الفعلي أي جهود تمييزية ، انظر نقاشي في الرابط هنا. يمكن أن يكون لدينا أيضًا نظام ذكاء اصطناعي منفصل يعمل كنوع من أجهزة مراقبة أخلاقيات الذكاء الاصطناعي. يعمل نظام الذكاء الاصطناعي كمشرف لتتبع واكتشاف متى يدخل ذكاء اصطناعي آخر في الهاوية غير الأخلاقية (انظر تحليلي لهذه القدرات في الرابط هنا).

بعد قليل ، سوف أشارككم بعض المبادئ الشاملة التي تقوم عليها أخلاقيات الذكاء الاصطناعي. هناك الكثير من هذه الأنواع من القوائم التي تطفو هنا وهناك. يمكنك القول أنه لا توجد حتى الآن قائمة فردية للنداء والتوافق العالميين. هذه هي الأخبار المؤسفة. الخبر السار هو أن هناك على الأقل قوائم أخلاقيات الذكاء الاصطناعي متاحة بسهولة وتميل إلى أن تكون متشابهة تمامًا. أخيرًا ، يشير هذا إلى أنه من خلال شكل من أشكال التقارب المنطقي ، فإننا نجد طريقنا نحو قواسم مشتركة عامة لما تتكون منه أخلاقيات الذكاء الاصطناعي.

أولاً ، دعنا نغطي بإيجاز بعض المبادئ الأخلاقية الشاملة للذكاء الاصطناعي لتوضيح ما يجب أن يكون اعتبارًا حيويًا لأي شخص يقوم بصياغة أو استخدام أو استخدام الذكاء الاصطناعي.

على سبيل المثال ، كما صرح الفاتيكان في دعوة روما لأخلاقيات الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • الشفافية: من حيث المبدأ ، يجب أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير
  • إدراجه: يجب أن تؤخذ احتياجات جميع البشر في الاعتبار حتى يستفيد الجميع ، ويمكن لجميع الأفراد توفير أفضل الظروف الممكنة للتعبير عن أنفسهم وتطويرهم.
  • المسئولية: يجب على أولئك الذين يصممون وينشرون استخدام الذكاء الاصطناعي أن يتابعوا المسؤولية والشفافية
  • النزاهة: لا تخلق أو تتصرف على أساس التحيز ، وبالتالي الحفاظ على العدالة والكرامة الإنسانية
  • الموثوقية: يجب أن تكون أنظمة الذكاء الاصطناعي قادرة على العمل بشكل موثوق
  • الأمن والخصوصية: يجب أن تعمل أنظمة الذكاء الاصطناعي بشكل آمن وتحترم خصوصية المستخدمين.

كما صرحت وزارة الدفاع الأمريكية (DoD) في المبادئ الأخلاقية لاستخدام الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • مسؤول: سوف يمارس موظفو وزارة الدفاع مستويات مناسبة من الحكم والرعاية مع الاستمرار في المسؤولية عن تطوير ونشر واستخدام قدرات الذكاء الاصطناعي.
  • العادل: ستتخذ الإدارة خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي.
  • تعقبها: سيتم تطوير ونشر قدرات الذكاء الاصطناعي في الإدارة بحيث يمتلك الموظفون المعنيون فهمًا مناسبًا للتكنولوجيا وعمليات التطوير والأساليب التشغيلية المطبقة على قدرات الذكاء الاصطناعي ، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق ومصادر البيانات وإجراءات التصميم والتوثيق.
  • موثوق: سيكون لإمكانيات الذكاء الاصطناعي في الإدارة استخدامات واضحة ومحددة جيدًا ، وستخضع سلامة وأمن وفعالية هذه القدرات للاختبار والتأكيد ضمن تلك الاستخدامات المحددة عبر دورات حياتها بأكملها.
  • للحكم: ستقوم الإدارة بتصميم وهندسة قدرات الذكاء الاصطناعي للوفاء بالوظائف المقصودة مع امتلاك القدرة على اكتشاف وتجنب العواقب غير المقصودة ، والقدرة على فك أو إلغاء تنشيط الأنظمة المنشورة التي تظهر سلوكًا غير مقصود.

لقد ناقشت أيضًا العديد من التحليلات الجماعية للمبادئ الأخلاقية للذكاء الاصطناعي ، بما في ذلك تغطية مجموعة ابتكرها باحثون قاموا بفحص وتكثيف جوهر العديد من مبادئ أخلاقيات الذكاء الاصطناعي الوطنية والدولية في ورقة بعنوان "المشهد العالمي لإرشادات أخلاقيات الذكاء الاصطناعي" (تم نشره) في الطبيعة) ، وأن تغطيتي تستكشف في الرابط هنا، مما أدى إلى هذه القائمة الأساسية:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

كما قد تخمن بشكل مباشر ، فإن محاولة تحديد التفاصيل التي تقوم عليها هذه المبادئ قد يكون صعبًا للغاية. والأكثر من ذلك ، فإن الجهد المبذول لتحويل هذه المبادئ العريضة إلى شيء ملموس ومفصل تمامًا بما يكفي لاستخدامه عند صياغة أنظمة الذكاء الاصطناعي يعد أيضًا من الصعب كسرها. من السهل بشكل عام القيام ببعض التلويح اليدوي حول ماهية مبادئ أخلاقيات الذكاء الاصطناعي وكيف ينبغي مراعاتها بشكل عام ، في حين أنه وضع أكثر تعقيدًا في ترميز الذكاء الاصطناعي يجب أن يكون المطاط الحقيقي الذي يلبي الطريق.

يجب استخدام مبادئ أخلاقيات الذكاء الاصطناعي من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف. يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. كما ذكرنا سابقًا ، فإن الأمر يتطلب قرية لابتكار واستخدام الذكاء الاصطناعي ، ومن أجل ذلك يجب أن تكون القرية بأكملها على دراية بمبادئ أخلاقيات الذكاء الاصطناعي والالتزام بها.

دعنا نتأكد أيضًا من أننا على نفس الصفحة حول طبيعة الذكاء الاصطناعي اليوم.

لا يوجد أي ذكاء اصطناعي واعي اليوم. ليس لدينا هذا. لا نعرف ما إذا كان الذكاء الاصطناعي الواعي سيكون ممكنًا. لا أحد يستطيع أن يتنبأ بجدارة بما إذا كنا سنحقق ذكاءً اصطناعيًا واعيًا ، ولا ما إذا كان الذكاء الاصطناعي الواعي سينشأ بطريقة ما بأعجوبة تلقائيًا في شكل مستعر أعظم معرفي حسابي (يشار إليه عادةً باسم التفرد ، انظر تغطيتي في الرابط هنا).

نوع الذكاء الاصطناعي الذي أركز عليه يتكون من الذكاء الاصطناعي غير الواعي الذي لدينا اليوم. إذا أردنا التكهن بشدة حساس الذكاء الاصطناعي ، يمكن أن تسير هذه المناقشة في اتجاه مختلف جذريًا. من المفترض أن يكون الذكاء الاصطناعي الواعي ذا جودة بشرية. ستحتاج إلى اعتبار أن الذكاء الاصطناعي الواعي هو المكافئ المعرفي للإنسان. أكثر من ذلك ، نظرًا لأن البعض يتوقع أن يكون لدينا ذكاء اصطناعي فائق الذكاء ، فمن المتصور أن مثل هذا الذكاء الاصطناعي يمكن أن يصبح أكثر ذكاءً من البشر (لاستكشافي للذكاء الاصطناعي الفائق كإمكانية ، انظر التغطية هنا).

دعونا نحافظ على الأمور أكثر واقعية ونفكر في الذكاء الاصطناعي غير الحسابي اليوم.

ندرك أن الذكاء الاصطناعي اليوم غير قادر على "التفكير" بأي شكل من الأشكال على قدم المساواة مع التفكير البشري. عندما تتفاعل مع Alexa أو Siri ، قد تبدو قدرات المحادثة شبيهة بالقدرات البشرية ، لكن الحقيقة هي أنها حسابية وتفتقر إلى الإدراك البشري. استفاد العصر الأخير من الذكاء الاصطناعي بشكل مكثف من التعلم الآلي (ML) والتعلم العميق (DL) ، مما يعزز مطابقة الأنماط الحسابية. وقد أدى ذلك إلى ظهور أنظمة ذكاء اصطناعي تبدو وكأنها ميول شبيهة بالإنسان. وفي الوقت نفسه ، لا يوجد أي ذكاء اصطناعي اليوم يشبه الفطرة السليمة وليس لديه أي من التعجب المعرفي للتفكير البشري القوي.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين يتخذون نمطًا بناءً على القرارات قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق خفية ولكنها مهمة. سيحاول التعلم الآلي أو مطابقة الأنماط الحسابية للتعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة المصممة بالذكاء الاصطناعي في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة في ML / DL من الصعب اكتشاف التحيزات الخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا أكثر تعقيدًا مما قد يبدو. توجد فرصة قوية أنه حتى مع إجراء اختبارات مكثفة نسبيًا ، لا تزال هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

يمكنك إلى حد ما استخدام القول المأثور الشهير أو سيئ السمعة من القمامة في القمامة. الشيء هو ، هذا أقرب إلى التحيزات - التي يتم غرسها بشكل خبيث على أنها تحيزات مغمورة داخل الذكاء الاصطناعي. تصبح عملية اتخاذ القرار الخوارزمية (ADM) للذكاء الاصطناعي بشكل بديهي محملة بعدم المساواة.

غير جيد.

دعنا نعود إلى تركيزنا على عدم تناسق الذكاء الاصطناعي.

خلاصة سريعة عن توصياتي الثلاثة المذكورة أعلاه هي كما يلي:

1) كن على علم بأن عدم تناسق الذكاء الاصطناعي موجود ويتزايد

2) حاول التأكد من أن عدم تناسق الذكاء الاصطناعي يحده أخلاقيات الذكاء الاصطناعي

3) حاول أن تتعامل مع عدم تناسق الذكاء الاصطناعي بالتسلح بالذكاء الاصطناعي

سوف نلقي نظرة فاحصة على النقطة الأخيرة من مكافحة النار بالنار.

تخيل أنه عند السعي للحصول على قرض ، كان لديك ذكاء اصطناعي يعمل بجانبك من هذا الجهد. قد يكون هذا تطبيقًا قائمًا على الذكاء الاصطناعي على هاتفك الذكي تم تصميمه للحصول على قروض. إنه ليس تطبيقًا من قبل أحد البنوك وبدلاً من ذلك تم تصميمه بشكل مستقل للعمل نيابة عنك. لقد قمت بتفصيل هذه الأنواع من التطبيقات في كتابي عن الروبوتات الملاك الحارس القائمة على الذكاء الاصطناعي ، انظر الرابط هنا.

عند التقدم بطلب للحصول على قرض ، يمكنك الرجوع إلى هذا التطبيق أثناء قيامك منظمة العفو الدولية الأخرى بخطواتك خلال عملية التقديم. هذان النظامان للذكاء الاصطناعي متميزان ومنفصلان تمامًا عن بعضهما البعض. تم "تدريب" الذكاء الاصطناعي على هاتفك الذكي لمعرفة جميع الحيل التي يستخدمها الذكاء الاصطناعي الآخر. على هذا النحو ، فإن الإجابات التي تدخلها في الذكاء الاصطناعي للبنك ستعتمد على ما ينصحك به الذكاء الاصطناعي الخاص بك.

هناك متغير آخر يتمثل في إجابة الذكاء الاصطناعي الخاص بك على الأسئلة التي يطرحها الذكاء الاصطناعي الآخر. بقدر ما يمكن أن يؤكده الذكاء الاصطناعي الآخر ، فأنت من تدخل الإجابات. يمكنك بدلاً من ذلك أن تشاهد فقط التفاعلات التي تحدث بين نظامي الذكاء الاصطناعي المتقاتلين. يتيح لك ذلك معرفة ما يقدمه الذكاء الاصطناعي الخاص بك. علاوة على ذلك ، يمكنك تعديل الذكاء الاصطناعي لديك اعتمادًا على ما إذا كنت راضيًا عما يفعله الذكاء الاصطناعي نيابة عنك.

لقد توقعت أننا جميعًا سنصبح مسلحين تدريجيًا بالذكاء الاصطناعي الذي سيكون إلى جانبنا في مواقف عدم تناسق الذكاء الاصطناعي هذه.

دعونا نفكر في كيفية عمل ذلك.

هذه هي التأثيرات الأساسية على حالة عدم تناسق الذكاء الاصطناعي التي حددتها:

  • تسطيح عدم تناسق الذكاء الاصطناعي لصالحك (يرفعك إلى الأعلى ، على أمل الوصول إلى مستويات متساوية)
  • تحفيز عدم تناسق الذكاء الاصطناعي لصالحك (رفعك إلى ميزة عندما تكون متساويًا بالفعل)
  • تعزيز عدم تناسق الذكاء الاصطناعي لصالحك غير العادي (اكتساب ميزة أوسع عندما تكون بالفعل في ميزة)
  • تقويض غير متعمد لعدم تناسق الذكاء الاصطناعي على نحو لا يرضيك (عندما كانت لديك ميزة موجودة مسبقًا وسحبها الذكاء الاصطناعي دون قصد)

حان الوقت للتعمق في هذه الاحتمالات المثيرة للاهتمام.

تسطيح عدم تناسق الذكاء الاصطناعي لصالحك

يعتبر تسطيح عدم تناسق الذكاء الاصطناعي هو الاعتبار الأكثر وضوحًا والأكثر مناقشة في أغلب الأحيان ، أي أنك ستسلح نفسك بالذكاء الاصطناعي لمحاولة الذهاب إلى أخمص القدمين مع استخدام الذكاء الاصطناعي من قبل الجانب الآخر في المسألة المطروحة. بدأ إعداد عدم تناسق الذكاء الاصطناعي معك في وضع غير مؤات. لم يكن لديك ذكاء اصطناعي في ركنك. كنت في الجانب المنخفض من الأشياء. كان لدى الجانب الآخر ذكاء اصطناعي وكانوا في مكان مرتفع.

وبالتالي ، قمت بتسليح نفسك بحكمة باستخدام الذكاء الاصطناعي الذي من شأنه أن يضعك أنت والذكاء الاصطناعي الآخر على قدم المساواة.

أحد الفروق الدقيقة المهمة وربما المدهشة التي يجب مراعاتها هو أنه لن يكون الأمر دائمًا هو أن أنظمة الذكاء الاصطناعي المستخدمة سوف تتوازن مع بعضها البعض بشكل متساوٍ. يمكنك تسليح نفسك بالذكاء الاصطناعي وهذا يعني أنه أقل قوة من الذكاء الاصطناعي الذي يستخدمه الجانب الآخر. في هذه الحالة ، تكون قد عززت موقفك السلبي ، لحسن الحظ ، على الرغم من أنك لا تساوي الآن تمامًا مع الجانب الآخر والذكاء الاصطناعي الخاص به.

لهذا السبب أشير إلى هذا على أنه تسطيح عدم تناسق الذكاء الاصطناعي. قد تكون قادرًا على تضييق الفجوة ، على الرغم من عدم إغلاقها بالكامل. سيكون الهدف النهائي هو استخدام الذكاء الاصطناعي من جانبك والذي سيجعلك في وضع متساوٍ تمامًا. الشيء هو أن هذا قد يكون أو لا يكون ممكنًا. يمكن أن يكون لدى الجانب الآخر بعض الذكاء الاصطناعي المكلف حقًا وأنت تحاول التنافس مع الإصدار المقتصد للذكاء الاصطناعي.

ليس كل الذكاء الاصطناعي هو نفسه.

تحفيز عدم تناسق الذكاء الاصطناعي لصالحك

لم تتم مناقشة هذا الظرف كثيرًا اليوم ، جزئيًا لأنه نادر الحدوث في الوقت الحالي. يومًا ما ، سيكون هذا أمرًا شائعًا. الفكرة هي أن نفترض أنك بدون الذكاء الاصطناعي ومع ذلك على قدم المساواة مع الجانب الذي لديه ذكاء اصطناعي.

أمر طيب لك.

البشر لديهم ذكائهم عنهم.

لكنك قد ترغب في الحصول على ميزة على الجانب الآخر. إن تسليح نفسك بالذكاء الاصطناعي يأخذك إلى مستوى أعلى. لديك الآن ذكائك وذكائك AI الموثوق به في متناول اليد. لقد اكتسبت ميزة يفترض أنها ستسود على الذكاء الاصطناعي في الجانب الآخر.

تعزيز عدم تناسق الذكاء الاصطناعي لصالحك غير العادي

باستخدام منطق مشابه لجانب تحفيز عدم تناسق الذكاء الاصطناعي نيابة عنك ، افترض أنك بالفعل فوق قدرات الجانب الآخر الذي يستخدم الذكاء الاصطناعي. حسنًا ، أنت لا تبدأ في وضع متساوٍ. لحسن الحظ أنت بالفعل في الجانب العلوي.

قد ترغب في الحصول على ميزة أكبر على أي حال. لذلك ، أنت تتسلح بالذكاء الاصطناعي. هذا يأخذ رأسك وكتفيك فوق الجانب الآخر.

تقويض غير متعمد لعدم تناسق الذكاء الاصطناعي مما يزعجك

أشك في أنك تريد أن تسمع عن هذا الاحتمال. برجاء إدراك أن التعامل مع الذكاء الاصطناعي لا يقتصر على الورود وكعكات الآيس كريم.

قد يكون الأمر أنه عندما تتسلح بالذكاء الاصطناعي ، فإنك في الواقع تقوض نفسك. إذا كنت بالفعل أقل من الذكاء الاصطناعي من الجانب الآخر ، فأنت الآن في حفرة أعمق. إذا كنت على قدم المساواة ، فأنت الآن في وضع غير مؤات. إذا كنت فوق الجانب الآخر ، فأنت الآن مساوية له أو تحته.

كيف يمكن أن يحدث ذلك؟

قد تشعر بالصدمة عندما تتفكر في أن الذكاء الاصطناعي الذي تتبناه سيقودك إلى الضلال. هذا يمكن أن يحدث بسهولة. فقط لأن لديك ذكاء اصطناعي في ركنك لا يعني أنه مفيد. ربما تستخدم الذكاء الاصطناعي ويقدم نصائح لا تعتقد بالضرورة أنها مناسبة ، لكنك قررت اتباعها على أي حال. كان منطقك في ذلك الوقت هو أنه نظرًا لأنك واجهت مشكلة في الحصول على الذكاء الاصطناعي ، فقد تعتمد عليه أيضًا.

قد يكون الذكاء الاصطناعي الذي تستخدمه معيبًا. أو قد يكون تصميمه سيئًا. هناك عدد كبير من الأسباب التي تجعل الذكاء الاصطناعي يعطيك نصائح مهزوزة. أولئك الذين يقبلون بشكل أعمى كل ما تقوله منظمة العفو الدولية لا بد أن يجدوا أنفسهم في عالم من الأذى. لقد غطيت مثل هذه المآزق في عمودي ، مثل الرابط هنا.

خلاصة القول هي أنه ليس هناك ما يضمن على الإطلاق أنك ستفوز في لعبة عدم التناسق بالذكاء الاصطناعي لمجرد أنك تسلح نفسك بالذكاء الاصطناعي.

قد تصل إلى ساحة لعب متكافئة. قد تحصل على ميزة. وللأسف ، يجب أن تكون حذرًا لأنه من الممكن أن تنخفض إلى مستويات منخفضة عندما تكون مسلحًا بالذكاء الاصطناعي.

إلى حد ما ، هذا هو السبب في أن أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي موضوع بالغ الأهمية. تدفعنا مبادئ أخلاقيات الذكاء الاصطناعي إلى توخي اليقظة. يمكن أن ينشغل تقنيو الذكاء الاصطناعي في بعض الأحيان بالتكنولوجيا ، لا سيما تحسين التكنولوجيا الفائقة. إنهم لا يفكرون بالضرورة في التداعيات المجتمعية الأكبر. إن امتلاك عقلية أخلاقية للذكاء الاصطناعي والقيام بذلك بشكل متكامل لتطوير الذكاء الاصطناعي وإدارته يعد أمرًا حيويًا لإنتاج الذكاء الاصطناعي المناسب.

إلى جانب استخدام أخلاقيات الذكاء الاصطناعي ، هناك سؤال مماثل عما إذا كان ينبغي أن تكون لدينا قوانين تحكم الاستخدامات المختلفة للذكاء الاصطناعي. يجري تداول قوانين جديدة على المستويات الفيدرالية والولائية والمحلية التي تتعلق بنطاق وطبيعة كيفية ابتكار الذكاء الاصطناعي. إن الجهد المبذول لصياغة وسن مثل هذه القوانين هو جهد تدريجي. تُعد أخلاقيات الذكاء الاصطناعي بمثابة حل مؤقت مدروس ، على أقل تقدير ، ومن المؤكد تقريبًا إلى حد ما أن يتم دمجها بشكل مباشر في تلك القوانين الجديدة.

اعلم أن البعض يجادل بقوة بأننا لسنا بحاجة إلى قوانين جديدة تغطي الذكاء الاصطناعي وأن قوانيننا الحالية كافية. في الواقع ، لقد حذروا من أننا إذا قمنا بسن بعض قوانين الذكاء الاصطناعي هذه ، فسوف نقتل الأوزة الذهبية من خلال تقييد التقدم في الذكاء الاصطناعي الذي يقدم مزايا مجتمعية هائلة. انظر على سبيل المثال تغطية بلدي في الرابط هنا و الرابط هنا.

في هذه المرحلة من هذه المناقشة المهمة ، أراهن أنك ترغب في بعض الأمثلة التوضيحية التي قد تعرض هذا الموضوع. هناك مجموعة خاصة وشعبية بالتأكيد من الأمثلة القريبة من قلبي. كما ترى ، بصفتي خبيرًا في الذكاء الاصطناعي بما في ذلك التداعيات الأخلاقية والقانونية ، يُطلب مني كثيرًا تحديد أمثلة واقعية تعرض معضلات أخلاقيات الذكاء الاصطناعي بحيث يمكن فهم الطبيعة النظرية إلى حد ما للموضوع بسهولة أكبر. واحدة من أكثر المجالات إثارة للذكريات التي تقدم بوضوح هذا المأزق الأخلاقي للذكاء الاصطناعي هو ظهور سيارات ذاتية القيادة حقيقية قائمة على الذكاء الاصطناعي. سيكون هذا بمثابة حالة استخدام مفيدة أو نموذجًا لمناقشة مستفيضة حول هذا الموضوع.

إليك إذن سؤال جدير بالملاحظة يستحق التفكير فيه: هل يبرز ظهور السيارات ذاتية القيادة الحقيقية القائمة على الذكاء الاصطناعي أي شيء عن عدم تناسق الذكاء الاصطناعي ، وإذا كان الأمر كذلك ، فما الذي يعرضه هذا؟

اسمح لي بلحظة لفك السؤال.

أولاً ، لاحظ أنه لا يوجد سائق بشري متورط في سيارة حقيقية ذاتية القيادة. ضع في اعتبارك أن السيارات الحقيقية ذاتية القيادة يتم قيادتها عبر نظام قيادة بالذكاء الاصطناعي. ليست هناك حاجة لسائق بشري على عجلة القيادة ، ولا يوجد شرط لقيادة الإنسان للسيارة. لتغطيتي الواسعة والمستمرة للمركبات ذاتية القيادة (AVs) وخاصة السيارات ذاتية القيادة ، انظر الرابط هنا.

أود أن أوضح ما هو المقصود عندما أشير إلى السيارات الحقيقية ذاتية القيادة.

فهم مستويات السيارات ذاتية القيادة

للتوضيح ، السيارات الحقيقية ذاتية القيادة هي تلك التي يقود فيها الذكاء الاصطناعي السيارة بالكامل من تلقاء نفسه ولا توجد أي مساعدة بشرية أثناء مهمة القيادة.

تعتبر هذه المركبات ذاتية القيادة من المستوى 4 والمستوى 5 (انظر الشرح في هذا الرابط هنا) ، في حين أن السيارة التي تتطلب سائقًا بشريًا للمشاركة في جهد القيادة يتم اعتبارها عادةً في المستوى 2 أو المستوى 3. يتم وصف السيارات التي تشارك في مهمة القيادة بأنها شبه مستقلة ، وتحتوي عادةً على مجموعة متنوعة من الوظائف الإضافية المؤتمتة التي يشار إليها باسم ADAS (أنظمة مساعدة السائق المتقدمة).

لا توجد حتى الآن سيارة ذاتية القيادة حقيقية في المستوى الخامس ، ولا نعرف حتى الآن ما إذا كان من الممكن تحقيق ذلك ، ولا كم من الوقت سيستغرق الوصول إليه.

وفي الوقت نفسه ، تحاول جهود المستوى 4 تدريجياً الحصول على بعض الجاذبية من خلال الخضوع لتجارب طرق عامة ضيقة للغاية وانتقائية ، على الرغم من وجود جدل حول ما إذا كان يجب السماح بهذا الاختبار في حد ذاته (نحن جميعًا حيوانات تجارب حياة أو موت في التجربة التي تجري على طرقنا السريعة والطرق الفرعية ، يدعي البعض ، انظر تغطيتي في هذا الرابط هنا).

نظرًا لأن السيارات شبه المستقلة تتطلب سائقًا بشريًا ، فإن اعتماد هذه الأنواع من السيارات لن يكون مختلفًا بشكل ملحوظ عن قيادة المركبات التقليدية ، لذلك لا يوجد الكثير في حد ذاته لتغطية هذه المواضيع (على الرغم من ذلك ، كما سترى في لحظة ، النقاط التالية تنطبق بشكل عام).

بالنسبة للسيارات شبه المستقلة ، من المهم أن يتم تحذير الجمهور بشأن جانب مزعج ظهر مؤخرًا ، أي أنه على الرغم من هؤلاء السائقين البشر الذين يستمرون في نشر مقاطع فيديو لأنفسهم ينامون على عجلة سيارة من المستوى 2 أو المستوى 3 علينا جميعًا أن نتجنب التضليل حتى نصدق أن السائق يمكنه أن يلفت انتباهه عن مهمة القيادة أثناء قيادة سيارة شبه مستقلة.

أنت الطرف المسؤول عن إجراءات القيادة في السيارة ، بغض النظر عن مقدار الأتمتة التي قد يتم قذفها في المستوى 2 أو المستوى 3.

السيارات ذاتية القيادة وعدم تناسق الذكاء الاصطناعي

بالنسبة للمركبات ذاتية القيادة الحقيقية من المستوى 4 والمستوى 5 ، لن يكون هناك سائق بشري يشارك في مهمة القيادة.

سيكون جميع الركاب من الركاب.

تقوم منظمة العفو الدولية بالقيادة.

أحد الجوانب التي يجب مناقشتها على الفور يستلزم حقيقة أن الذكاء الاصطناعي المتضمن في أنظمة قيادة الذكاء الاصطناعي اليوم ليس واعيًا. بعبارة أخرى ، الذكاء الاصطناعي عبارة عن مجموعة من البرمجة والخوارزميات المستندة إلى الكمبيوتر ، وهو بالتأكيد غير قادر على التفكير بنفس الطريقة التي يستطيع بها البشر.

لماذا هذا التركيز الإضافي على الذكاء الاصطناعي ليس واعيا؟

لأنني أريد أن أؤكد أنه عند مناقشة دور نظام القيادة للذكاء الاصطناعي ، فأنا لا أنسب الصفات البشرية للذكاء الاصطناعي. يرجى العلم أن هناك اتجاهًا مستمرًا وخطيرًا هذه الأيام لتجسيد الذكاء الاصطناعي. من حيث الجوهر ، يخصص الناس ذكاءً شبيهاً بالإنسان إلى الذكاء الاصطناعي اليوم ، على الرغم من الحقيقة التي لا يمكن إنكارها والتي لا جدال فيها وهي عدم وجود مثل هذا الذكاء الاصطناعي حتى الآن.

مع هذا التوضيح ، يمكنك أن تتخيل أن نظام القيادة بالذكاء الاصطناعي لن "يعرف" بطريقة أو بأخرى جوانب القيادة. القيادة وكل ما تتطلبه يجب برمجتها كجزء من أجهزة وبرامج السيارة ذاتية القيادة.

دعونا نتعمق في عدد لا يحصى من الجوانب التي تأتي للعب في هذا الموضوع.

أولاً ، من المهم أن ندرك أنه ليست كل سيارات الذكاء الاصطناعي ذاتية القيادة هي نفسها. تتبنى كل شركة تصنيع سيارات وشركة تقنية ذاتية القيادة نهجها في ابتكار سيارات ذاتية القيادة. على هذا النحو ، من الصعب الإدلاء ببيانات شاملة حول ما ستفعله أو لا تفعله أنظمة القيادة بالذكاء الاصطناعي.

علاوة على ذلك ، عندما يذكر أن نظام القيادة بالذكاء الاصطناعي لا يفعل شيئًا معينًا ، يمكن ، لاحقًا ، تجاوز هذا الأمر من قبل المطورين الذين يقومون في الواقع ببرمجة الكمبيوتر للقيام بهذا الشيء بالذات. خطوة بخطوة ، يتم تحسين أنظمة القيادة بالذكاء الاصطناعي وتوسيعها تدريجياً. قد لا يوجد قيد موجود اليوم في تكرار أو إصدار مستقبلي من النظام.

آمل أن يوفر ذلك مجموعة كافية من المحاذير لإبراز ما أنا على وشك ربطه.

دعنا نرسم سيناريو يعرض عدم تناسق الذكاء الاصطناعي.

فكر في الأمر الذي يبدو غير منطقي وهو المكان الذي ستتجول فيه السيارات ذاتية القيادة لنقل الركاب. هذا يبدو وكأنه موضوع غير ضار إلى حد كبير.

في البداية ، افترض أن السيارات ذاتية القيادة التي تعمل بالذكاء الاصطناعي ستتجول في جميع أنحاء البلدات. أي شخص يريد أن يطلب مشوارًا في سيارة ذاتية القيادة لديه فرصة متساوية في الترحيب بواحد. تدريجيًا ، يبدأ الذكاء الاصطناعي في الحفاظ بشكل أساسي على تجوال السيارات ذاتية القيادة في قسم واحد فقط من المدينة. هذا القسم هو صانع أموال أكبر وقد تمت برمجة منظمة العفو الدولية لتجربتها تعظيم الإيرادات كجزء من الاستخدام في المجتمع ككل (وهذا يؤكد العقلية الكامنة وراء التحسين ، أي التركيز على مقياس واحد فقط وإهمال العوامل الحاسمة الأخرى في العملية).

يتضح أن أفراد المجتمع في الأجزاء الفقيرة من المدينة أقل احتمالًا لأن يكونوا قادرين على ركوب سيارة ذاتية القيادة. وذلك لأن السيارات ذاتية القيادة كانت بعيدة وتتجول في الجزء الأعلى من الإيرادات في المدينة. عندما يأتي طلب من جزء بعيد من المدينة ، فإن أي طلب آخر من موقع أقرب سيكون له أولوية أعلى. في نهاية المطاف ، أصبح من المستحيل تقريبًا الحصول على سيارة ذاتية القيادة في أي مكان آخر غير الجزء الأغنى من المدينة ، وهو أمر مزعج للغاية بالنسبة لأولئك الذين يعيشون في تلك المناطق التي تعاني من نقص الموارد الآن.

تخرج أحلام التنقل المتفاخر للجميع التي من المفترض أن تحققها السيارات ذاتية القيادة.

يمكنك التأكيد على أن الذكاء الاصطناعي تمامًا قد هبط على شكل من أشكال التحيز الإحصائي والحاسبي ، أقرب إلى شكل من أشكال التمييز بالوكالة (يشار إليه غالبًا بالتمييز غير المباشر). اعلم أن الذكاء الاصطناعي لم يكن مبرمجًا لتجنب تلك الأحياء الفقيرة. لنكن واضحين بشأن ذلك في هذه الحالة. لا ، لقد تم تصميمه بدلاً من ذلك لمجرد تحسين الإيرادات ، وهو هدف يبدو مقبولاً على ما يبدو ، ولكن تم ذلك دون أن يفكر مطورو الذكاء الاصطناعي في التداعيات المحتملة الأخرى. وقد أدى هذا التحسين بدوره عن غير قصد وحتمًا إلى نتيجة غير مرغوب فيها.

لو قاموا بتضمين اعتبارات أخلاقيات الذكاء الاصطناعي كجزء من عقلية التحسين لديهم ، فربما أدركوا مسبقًا أنه ما لم يصمموا الذكاء الاصطناعي للتعامل مع هذا النوع من الحجم الكبير على مقياس واحد فقط ، فربما يكونون قد تجنبوا مثل هذه النتائج القاسية. لمزيد من المعلومات حول هذه الأنواع من المشكلات التي من المحتمل أن يتكبدها الاعتماد الواسع النطاق للمركبات ذاتية القيادة والسيارات ذاتية القيادة ، راجع تغطيتي على هذا الرابط هنا، واصفًا دراسة بقيادة هارفارد شاركت في تأليفها حول هذه الموضوعات.

على أي حال ، افترض أن الحصان قد خرج بالفعل من الحظيرة وأن الموقف ليس قابلاً للحلول الشاملة على الفور.

ما الذي قد يفعله أولئك الذين يرغبون في استخدام تلك السيارات ذاتية القيادة؟

سيكون النهج الأكثر وضوحًا هو العمل مع قادة المجتمع على حث صانع السيارات أو شركة التكنولوجيا ذاتية القيادة على إعادة النظر في كيفية إعدادهم للذكاء الاصطناعي. ربما يمارس الضغط على أي ترخيص أو تصاريح ممنوحة لنشر تلك السيارات ذاتية القيادة في تلك المدينة أو البلدة. من المحتمل أن تكون هذه وسائل قابلة للتطبيق لإحداث تغييرات إيجابية ، على الرغم من أن الأمر قد يستغرق بعض الوقت قبل أن تؤتي ثمارها.

هناك زاوية أخرى تتمثل في تسليح نفسك بالذكاء الاصطناعي.

تخيل أن شخصًا ما قد ابتكر بذكاء تطبيقًا قائمًا على الذكاء الاصطناعي يعمل على هاتفك الذكي ويتعامل مع الذكاء الاصطناعي الخاص بصانع السيارات أو مشغل الأسطول الذي يستقبل طلبات الركوب. يمكن أن يكون الذكاء الاصطناعي الذي تستخدمه يستغل العناصر الأساسية للذكاء الاصطناعي الآخر ، بحيث يتم إعطاء أولوية قصوى لطلب الحصول على سيارة ذاتية القيادة من قبلك. لاحظ أنني لا أقترح حدوث أي شيء غير قانوني ، ولكن بدلاً من ذلك ، تم تطوير الذكاء الاصطناعي من جانبك بناءً على "الميزات" المكتشفة أو حتى الثغرات الموجودة في الذكاء الاصطناعي الآخر.

وفي الختام

تثير القصة حول الرد الوقح على الذكاء الاصطناعي لمشغل أسطول السيارات ذاتية القيادة من خلال التسليح بالذكاء الاصطناعي مزيدًا من الخلافات والاعتبارات المتعلقة بأخلاقيات الذكاء الاصطناعي.

فمثلا:

  • إذا كان بإمكان شخص ما الاستفادة من الذكاء الاصطناعي لمنحه ميزة على الذكاء الاصطناعي لبعض الأنظمة الأخرى ، فإلى أي مدى يمكن أن يذهب هذا من حيث إمكانية تجاوز حدود أخلاقيات الذكاء الاصطناعي (أقنع السيارات ذاتية القيادة أن تأتي إلي وأصدقائي ، لاستبعاد كل الآخرين)؟
  • أيضًا ، هل هناك أي مظهر من مظاهر مراعاة أخلاقيات الذكاء الاصطناعي أنه إذا كان شخص ما يعرف أو كان مسلحًا بالذكاء الاصطناعي لخوض معركة مع ذكاء اصطناعي آخر ، فهل يجب على الأشخاص الباقين الذين لا يمتلكون هذا التوازن في الذكاء الاصطناعي تنبيههم بطريقة ما إلى الذكاء الاصطناعي ويكونوا قادرين على تسليح أنفسهم تبعا لذلك أيضا؟

في النهاية ، كل هذا يأخذنا إلى مستقبل يبدو غريبًا ، يتكون من سباق تسلح بالذكاء الاصطناعي. من سيكون لديه الذكاء الاصطناعي الذي يحتاجه للالتفاف حوله والبقاء على قيد الحياة ومن لا يمتلكه؟ هل سيكون هناك دائمًا ذكاء اصطناعي آخر يأتي ويثير الحاجة إلى موازنة الذكاء الاصطناعي؟

قدم كارل ساجان ، العالم الموقر ، هذه الحكمة الحكيمة حول سباقات التسلح الكارثية بشكل خاص: "إن سباق التسلح النووي مثل عدوين لدودين يقفان بعمق في البنزين ، أحدهما به ثلاث مباريات ، والآخر بخمسة".

يجب أن نهدف بشكل حاسم إلى إبقاء أقدامنا جافة ورؤوسنا صافية عندما يتعلق الأمر بسباق تسلح دائم للذكاء الاصطناعي.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- من العصا /