دروس أخلاقيات الذكاء الاصطناعي والأنظمة الذاتية المستقاة من رحلة طيران ألاسكا الأخيرة حيث اختلف الطيار ومساعده قبل الإقلاع واختاروا فجأة سيارة الأجرة للعودة إلى المحطة والسير في طرق منفصلة

ظهرت الخطوط الجوية في الأخبار مؤخرًا.

نحن في أزمة الرحلات الصيفية. يجد الركاب المرهقون والإحباط أنفسهم يواجهون جميع أنواع اضطرابات الرحلات والتواءات في جدول الرحلات الجوية. يتم إلغاء الرحلات الجوية بشكل غير متوقع. تأخرت الرحلات. دخان الركاب. لسوء الحظ ، كان هناك العديد من حالات الركاب التي سمحت لهذه الانزعاج بالاندلاع ، وشاهدنا بشكل محزن الكثير من مقاطع الفيديو الفيروسية للمواجهات وجهاً لوجه وأحيانًا الضربات.

نادرًا ما نتعرف على الخلافات بين الطيار ومساعد الطيار التي قد تحدث أثناء وجوده في قمرة القيادة.

هذه مفاجأة كبيرة.

في الواقع ، نحن بطبيعة الحال مندهشون من الاعتقاد بأن الطيار ومساعده سيكون لهما أي مظهر من مظاهر الخلاف الجاد خلال أي مرحلة من مراحل الرحلة. إذا كان الخلاف يتعلق بالعلامة التجارية الأفضل للقهوة ، فإن افتراضنا هو أن هذا لن يتدخل في جهد العمل الذي يستلزم قيادة الطائرة. كان الاثنان يتجاهلان ببساطة افتقارهما إلى المواجهة بشأن موضوع يبدو أنه غير ذي صلة بالطيران. سيبدأ سلوكهم المهني وتدريب الطيارين الطويل الأمد وسيعيدون تركيزهم إلى تفاصيل الرحلة.

ضع في اعتبارك على الرغم من أن ملف الخلاف المهني يتدخل.

سأشارككم بإيجاز خبرًا نُشر على نطاق واسع حول حالة حديثة لشيء حدث أثناء رحلة في الولايات المتحدة يتعلق بخلاف مهني مزعوم في قمرة القيادة.

يتم الاستشهاد بهذا بشكل أساسي هنا حتى نتمكن من استكشاف موضوع ذي صلة له أهمية كبيرة لظهور الذكاء الاصطناعي (AI). كما ترى ، يمكن أن يكون هناك شكل من أشكال هل نقول الخلاف المهني بين ليس فقط البشر في الخلاف بين البشر ، ولكن يمكننا أيضًا حدوث شيء مشابه وسط اعتماد الذكاء الاصطناعي والخلافات المهنية الناتجة بين الإنسان والذكاء الاصطناعي . تنشأ جميع أنواع الاعتبارات الأخلاقية للذكاء الاصطناعي. للاطلاع على تغطيتي الشاملة والمستمرة لأخلاقيات الذكاء الاصطناعي وقضايا الذكاء الاصطناعي الأخلاقي ، انظر الرابط هنا و الرابط هنا, وهذا غيض من فيض.

احصل على استعداد لقصة رائعة.

كما ورد في الأخبار مؤخرًا ، ظهرت حالة "خلاف مهني" على ما يبدو أثناء رحلة طيران ألاسكا كانت متوجهة من واشنطن إلى سان فرانسيسكو. وبحسب التقارير الإخبارية ، ابتعدت الطائرة عن البوابة وكانت تنتظر على مدرج المطار للحصول على إذن بالتاكسي والرحلات. كانت عاصفة جارية وأدت إلى تأخير الرحلة لأكثر من ساعة ونصف. اتضح أن الطائرة استدارت في النهاية وعادت إلى البوابة ، والتي ربما افترض بعض الركاب أنها مجرد إجراء وقائي متعلق بالعواصف.

وفقًا للتغريدات المختلفة ، يبدو أن الطيار ومساعده كان لهما نوع من العداء خارج نطاق الرؤية خلال فترة وجودهما هناك في قمرة القيادة وتوصلا بطريقة ما إلى استنتاج مفاده أن النهج الأكثر حكمة سيكون فرك الرحلة والعودة إلى المحطة . أشارت التغريدات إلى أن القبطان والضابط الأول على ما يبدو لا يستطيعان الانسجام مع بعضهما البعض. أصدرت شركة الطيران في وقت لاحق بيانًا مفاده أن الوضع كان مؤسفًا (لم يتم توضيح الموقف صراحة أو شرحه في حد ذاته) ، وتم تقييم ضابطي الرحلة من قبل الإدارة واعتبروا مناسبين للطيران ، وتم تبديل الطاقم ، وانتهى الأمر بالرحلة. وبعد ذلك وصلت إلى سان فرانسيسكو.

بمعنى ما ، إذا كان للطيار ومساعده خلافًا مهنيًا في الواقع ، مثل ما إذا كانت الطائرة جاهزة بشكل مناسب للرحلة أو ما إذا كان خطر الطيران عبر عاصفة ضمن نطاق أمان مناسب ، فيجب إعفاء هؤلاء الركاب و شاكرين عودة الطائرة إلى البوابة. من الأفضل أن تكون آمنًا من أن تكون آسف. إن الحصول على تأخير إضافي يستحق التقليل المفترض للمخاطر المرتبطة برحلة طيران صعبة أو معاكسة.

قد يتفاجأ بعض الناس من احتمال ظهور مثل هذا الخلاف المهني.

ربما يكون لدينا انطباع خاطئ بأن كل ما يحدث في قمرة القيادة دقيق تمامًا ومكتوب جيدًا. يبدو أن كل أشكال التقدير البشري قد تم انتزاعها من العملية. استنادًا إلى الرسوم البيانية الدقيقة والمحسوبة بدقة ، فإن الرحلة إما أن تكون على ما يرام أو ليست كذلك. لا يمكن أن يكون هناك أي خلاف عندما يُعتقد أن المجموعة الكاملة والكابودل تستندان إلى حسابات تفاضلية غير قابلة للدحض للحقائق والأرقام.

هذه ليست الحقيقة الكاملة للأمر. بالتأكيد ، هناك عدد كبير من البروتوكولات وجميع أنواع الضوابط والتوازنات ، لكن هذا لا يستبعد كل ذرة من الحكم البشري. لا يزال الطيارون ومساعدو الطيار يمارسون الحكم البشري. لحسن الحظ ، يتم شحذ هذا الحكم البشري بسنوات من الطيران. الاحتمالات هي أن الطيار ومساعده في طائرة ركاب تجارية يتمتعان بخبرة طيران سابقة ويستفيدان بسهولة من سنواتهما العديدة من التفكير المتعمق والحكم المرتبط بالتواجد في ضوابط الطيران.

بالنظر إلى الدور الملحوظ للحكم البشري ، قد نتوقع منطقياً أن يكون للطيار ومساعده خلافات مهنية في بعض الأحيان. من المفترض أن يكون هناك القليل جدًا من الخلاف في معظم الأوقات. من المرجح أن يكون الطيار ومساعده في الرحلات اليومية متماشين بشكل جيد مع غلبة الوقت. فقط عندما يخرج سيناريو الرحلة عن الحدود التقليدية ، نتوقع ظهور احتكاك أكثر توتراً.

إذا كان هناك اختلاف قوي في الرأي بين الاثنين ، فأنا أجرؤ على القول إننا نريدهم تفكيكه.

تخيل موقفًا يريد فيه الطيار المضي قدمًا بقوة لكن مساعد الطيار يدرك أن المخاطر كبيرة جدًا. مجرد امتلاك مساعد الطيار للطيار يبدو غير مرغوب فيه. مساعد الطيار هو فحص وتوازن لما قد يفكر الطيار في القيام به. بالنسبة لأولئك الذين يريدون مساعد الطيار أن يصمت ويتصرف فقط بلا مبالاة مع ما يأمر به الطيار ، حسنًا ، هذا ليس كثيرًا من الطمأنينة. مساعد الطيار ليس مجرد "طيار" احتياطي يدخل في الصورة فقط عندما يكون الطيار عاجزًا تمامًا. هذا فهم مضلل لقيمة وجود طيار ومساعد طيار في قمرة القيادة.

هناك زاوية أخرى لهذا.

ضع في اعتبارك حالة الطيار الذي لا يعتقد أن الرحلة يجب أن تستمر ، وفي الوقت نفسه ، فإن مساعد الطيار هو متحمس بشأن الاستيقاظ في الهواء. ماذا بعد؟ من خلال التسلسل الهرمي المتوقع ، من المفترض أن يسود الطيار تقليديًا على مساعد الطيار. الدور المعين لكونك المسؤول الأساسي يجعل الطيار أكبر مما يكون متساويًا إلى حد ما. عادةً ما يكون للطيار وقت طيران إجمالي أكثر من مساعد الطيار ومن المفترض بشكل هرمي أن يراعي الطيار رغبات الطيار (عندما يكون في حدود المعقول).

على أي حال ، أعتقد أننا يمكن أن نتفق جميعًا على أن اختيار عدم الطيران هو بالتأكيد خيار أقل خطورة من اتخاذ قرار بالطيران. بمجرد أن ترتفع الطائرة في الهواء ، تصبح مستويات الخطر هائلة مقارنة بكونها على أرض مستقرة عادية. إن الرحلة التجارية المعتادة التي تعود ببساطة بسيارات الأجرة إلى المحطة دون أن تطير في الهواء ستكون حلاً وديًا للغاية لأي نقاش حاد محتدم حول الذهاب إلى الرحلة.

دعنا نحول التروس ونستخدم هذا الخبر الشجاع لغرض مختلف تمامًا ولكن يمكن الاعتماد عليه.

نشهد بيننا بشكل تدريجي انتشارًا للأنظمة المستقلة القائمة على الذكاء الاصطناعي. في بعض الأحيان تدير منظمة العفو الدولية العرض ، كما كان. يقوم الذكاء الاصطناعي بعمل كل شيء من الألف إلى الياء ، وقد نفهم ذلك على أنه ذكاء اصطناعي مستقل تمامًا أو تقريبًا. في حالات أخرى ، يمكن أن يكون لدينا ذكاء اصطناعي يتفاعل مع وإلى درجة ما مبرمج للاعتماد على وجود إنسان في الحلقة.

أود التركيز على مسألة نظام مستقل أو شبه مستقل قائم على الذكاء الاصطناعي والذي من البداية لديه إنسان في الحلقة. يتم دمج الذكاء الاصطناعي والإنسان معًا عن قصد ومن المفترض أنهما يعملان جنبًا إلى جنب مع بعضهما البعض. هم أتراب في أداء مهمة معينة في متناول اليد. لا يُفترض أن يعمل الذكاء الاصطناعي وحده في هذه المهمة. يجب أن يتفاعل الذكاء الاصطناعي مع الإنسان المعين في الحلقة.

أطرح هذا التوصيف للتمييز عن المواقف التي يعتبر فيها الإنسان في الحلقة وجهًا اختياريًا. في جوهرها ، يتم منح الذكاء الاصطناعي العنان. إذا اختار الذكاء الاصطناعي الاستفادة من الإنسان ، فليكن ذلك. لا يوجد أي شرط بأن يتواصل الذكاء الاصطناعي مع الإنسان المعين أو أن يعمل جنبًا إلى جنب معه. التحليلات التي أنا على وشك ربطها وثيقة الصلة بهذا النوع من التحليلات اختياري ترتيب التفاعل ، لكن هذا ليس ما أقوده تحديدًا في هذه المناقشة بالذات.

حسنًا ، لدينا نوع من المهام التي سيعمل عليها الإنسان والذكاء الاصطناعي معًا ، بشكل لا ينفصل عن بعضهما البعض. بالمعنى المجرد ، لدينا إنسان جالس في مقعد ونظام ذكاء اصطناعي يجلس في المقعد الآخر المصاحب. أقول هذا بوقاحة لأننا لا نحصر هذه المناقشة في إنسان آلي على سبيل المثال قد يكون في الواقع جالسًا على مقعد. أنا أشير مجازًا إلى فكرة أن الذكاء الاصطناعي يشارك في مكان ما في المهمة وكذلك الإنسان. جسديًا ، مكان وجودهم ليس حيويًا بشكل خاص للمناقشة.

قد تكون غير متأكد من موعد ظهور مثل هذه الظروف.

سهل جدا.

سأناقش لاحقًا ظهور المركبات ذاتية القيادة والسيارات ذاتية القيادة. في مستويات معينة من الاستقلالية ، من المفترض أن يعمل الذكاء الاصطناعي والبشر معًا. قد يكون الذكاء الاصطناعي يقود السيارة ويطلب من الإنسان أن يتولى ضوابط القيادة. قد يقود الإنسان السيارة وينشط الذكاء الاصطناعي لتولي زمام الأمور. يتناوبون على ضوابط القيادة.

بالإضافة إلى ذلك ، فإن بعض التصميمات تجعل الذكاء الاصطناعي نشطًا بشكل أساسي طوال الوقت (أو ، ما لم يتم إيقاف تشغيله) ، بحيث يكون الذكاء الاصطناعي جاهزًا دائمًا. علاوة على ذلك ، قد يتدخل الذكاء الاصطناعي بشكل مباشر ، حتى بدون أن يطلب الإنسان ، اعتمادًا على الموقف الذي يتكشف. افترض على سبيل المثال أن الإنسان بدا وكأنه قد نام أثناء القيادة. نظرًا لأن الإنسان لا يمكنه على ما يبدو تنشيط الذكاء الاصطناعي (لأن الشخص نائم) ، فقد تتم برمجة الذكاء الاصطناعي لتولي التحكم من الإنسان.

تجلب بعض التصميمات الذكاء الاصطناعي والبشر إلى نهج قيادة مزدوج. الذكاء الاصطناعي يقود والإنسان يقود. أو ، إذا كنت تفضل ذلك ، فإن الإنسان يقود والذكاء الاصطناعي هو الذي يقود أيضًا. كل منهم يقود السيارة. أشبه هذا بالسيارات المجهزة خصيصًا التي ربما استخدمتها عند تلقي تدريب السائق ، وكانت هناك مجموعتان من أدوات التحكم في القيادة في السيارة ، واحدة للسائق الطالب والأخرى لمعلم القيادة.

هذا مجرد مثال واحد على بيئة يمكن أن يعمل فيها الذكاء الاصطناعي والبشر معًا في مهمة ما. كل أنواع الاحتمالات موجودة. قد يتم ابتكار أنواع أخرى من المركبات المستقلة بالمثل ، مثل الطائرات والطائرات بدون طيار والغواصات والسفن السطحية والقطارات وما إلى ذلك. لا يتعين علينا النظر فقط في إعدادات المركبات والنقل. تخيل المجال الطبي والعمليات الجراحية التي يتم إجراؤها بشكل مشترك من قبل طبيب ونظام ذكاء اصطناعي. القائمة لا حصر لها.

أكاد أشعر بالرغبة في الإشارة إلى النكتة الكلاسيكية الصاخبة حول إنسان وذكاء اصطناعي يسيران معًا في الحانة. إنه أمر مثير للضحك بالنسبة لأولئك الذين يهتمون بالذكاء الاصطناعي.

بجدية ، دعنا نعود إلى تركيز الإنسان ونظام الذكاء الاصطناعي الذي يعمل معًا في مهمة معينة. أولاً ، أريد أن أتجنب تجسيد الذكاء الاصطناعي ، وهو شيء سأركز عليه طوال الوقت. الذكاء الاصطناعي ليس واعيًا. من فضلك ضع ذلك في الاعتبار.

إليك شيء يجب التفكير فيه: هل سيكون الإنسان المعين في الحلقة دائمًا في اتفاق تام مع ذكاء اصطناعي مشترك؟

بالنسبة لأي مهمة معقدة ، قد يبدو من غير المحتمل أن يكون الإنسان والذكاء الاصطناعي في حالة تأهب تام ودائم. قد يختلف الإنسان في بعض المناسبات مع الذكاء الاصطناعي. يمكننا أن نأخذ هذا الافتراض على طول الطريق إلى البنك.

أود أن تفكر أيضًا في هذا الاحتمال الذي قد يكون مفاجئًا أيضًا: هل سيكون الذكاء الاصطناعي دائمًا في اتفاق تام مع شخص معين في الحلقة؟

مرة أخرى ، بالنسبة لأي مهمة معقدة ، قد يبدو من المعقول تمامًا ألا يكون الذكاء الاصطناعي متفقًا مع البشر في بعض المناسبات. إذا كنت تميل بالفعل إلى فكرة أن الذكاء الاصطناعي يجب أن يكون دائمًا على خطأ بينما يجب أن يكون البشر دائمًا على حق ، سيكون من الحكمة إعادة التفكير في هذا الاستنتاج المتسرع. تخيل سيارة بها إنسان وذكاء اصطناعي يقودان بشكل مشترك المركبة شبه المستقلة. يتجه الإنسان نحو جدار من الطوب. لماذا ا؟ لا نعرف ، ربما يكون الإنسان مخموراً أو نام ، لكننا نعلم أن الاصطدام بجدار من الطوب ليس فكرة جيدة ، فكل شيء آخر متساوٍ. قد يكتشف الذكاء الاصطناعي الكارثة القادمة ويسعى للابتعاد عن الحاجز الوشيك.

أخيرًا ، سيكون لدينا إمكانية واضحة لاختلاف الذكاء الاصطناعي والإنسان مع بعضهما البعض. الطريقة الأخرى لقول نفس الشيء هي أن البشر والذكاء الاصطناعي يختلفون مع بعضهم البعض. لاحظ أنني لا أريد أن يشير تسلسل الذكاء الاصطناعي والبشر مقابل الإنسان والذكاء الاصطناعي إلى أي شيء حول اتجاه أو معقولية الخلاف.

العاملان ، أحدهما بشري والآخر هو الذكاء الاصطناعي ، يختلفان مع بعضهما البعض.

يمكننا أن نعلن مسبقًا أنه كلما حدث خلاف بين ذكاء اصطناعي معين وإنسان معين ، فإننا نعلن مسبقًا أن الإنسان يسود على الذكاء الاصطناعي. ومع ذلك ، فإن المثال التوضيحي الخاص بي عن السيارة التي تتجه نحو جدار من الطوب يبدو أنه يثنينا عن أن الإنسان سيكون دائمًا على حق.

يمكننا ، على النقيض من ذلك ، أن نختار الإعلان مقدمًا أنه كلما نشأ خلاف ، سنثبت مسبقًا أن الذكاء الاصطناعي على حق والبشر على خطأ. هذا ليس شرطًا قابلاً للتعميم بشكل معقول أيضًا. تخيل سيارة بها بعض الأخطاء أو الأخطاء البرمجية المضمنة في الذكاء الاصطناعي ، ويحاول الذكاء الاصطناعي توجيه السيارة بعيدًا عن الطريق والوقوع في حفرة. بافتراض أن كل شيء آخر متساوٍ ، يجب أن يكون الإنسان قادرًا على التغلب على حركة القيادة بالذكاء الاصطناعي ومنع السيارة من الهبوط في الأخدود.

لنقم بتلخيص سريع لهذا:

  • هل سيكون الإنسان في الحلقة دائمًا في اتفاق تام مع الذكاء الاصطناعي؟ الجواب: رقم
  • هل سيكون الذكاء الاصطناعي دائمًا في اتفاق تام مع إنسان في الحلقة؟ الجواب: لا.
  • هل سيكون الإنسان في الحلقة دائمًا على حق مقارنةً بالذكاء الاصطناعي؟ الجواب: ليس بالضرورة.
  • هل سيكون الذكاء الاصطناعي دائمًا على حق بالمقارنة مع الإنسان في الحلقة؟ الجواب: ليس بالضرورة.

يمكنك بالتأكيد إعداد الذكاء الاصطناعي ليتم اعتباره افتراضيًا كطرف "خاطئ" أو أضعف ، وبالتالي يمكنك دائمًا الإذعان للإنسان كلما ظهر خلاف. وبالمثل ، يمكنك إعداد الذكاء الاصطناعي على افتراض أن الذكاء الاصطناعي يعتبر "صحيحًا" عندما يكون الإنسان في خلاف مع الذكاء الاصطناعي. أريد أن أوضح أنه يمكننا القيام بذلك برمجيًا إذا أردنا القيام بذلك. أنا أدعي أنه بشكل عام ، لن يكون هذا هو الحال دائمًا. هناك بالتأكيد إعدادات لا نعرف فيها مسبقًا ما إذا كان الذكاء الاصطناعي "صحيحًا" أم أن الإنسان "على حق" من حيث اختيار أحدهما أو الآخر بشأن خلاف متعلق بمهمة معينة.

لقد وجهتك إلى سؤال مهم للغاية ومعقد للغاية.

ماذا يجب أن نفعل عندما يحدث خلاف مهني بين الإنسان في الحلقة والذكاء الاصطناعي (أو ، بالمقابل ، يمكننا صياغة هذا على أنه بين الذكاء الاصطناعي والإنسان في الحلقة)؟

لا تحاول تفادي السؤال.

قد يجادل البعض بأن هذا لن يحدث أبدًا ، لكن كما أوضحت في المثال الذي قدمته عن السيارة ، فمن المؤكد أنه يمكن أن يحدث. قد يجادل البعض بأن الإنسان متفوق بشكل واضح ويجب أن يكون الفائز في أي خلاف. نموذجي للسيارة والجدار المبني من الطوب يقرع ذلك. هناك أنصار للذكاء الاصطناعي قد يصرون على أن الذكاء الاصطناعي يجب أن يكون هو الفائز ، وذلك بسبب التغلب ظاهريًا على المشاعر الإنسانية والتفكير العشوائي من قبل هؤلاء البشر ذوي التفكير الغامض. مرة أخرى ، فإن مثالي الآخر الذي يستلزم أن السيارة متجهة إلى الخندق يضعف هذا التأكيد.

في العالم الواقعي ، سيختلف الذكاء الاصطناعي والبشر ، حتى عندما يتم جلب الاثنين عن قصد إلى موقف جماعي لأداء مهمة مشتركة. سوف تحدث. لا يمكننا أن نضع رؤوسنا في الرمال ونتظاهر بأن ذلك لن يحدث.

رأينا أن البشر الذين يقودون الطائرة دخلوا على ما يبدو في خلاف. لحسن الحظ ، وافقوا على عدم الاتفاق ، على ما يبدو. أعادوا الطائرة إلى المحطة. وجدوا وسيلة للتعامل مع الخلاف. كان حل خلافهم جيدًا ، مقارنةً بما إذا كانوا قد ذهبوا إلى المشابك في قمرة القيادة أو ربما طاروا في الهواء واستمروا في القتال مع بعضهم البعض. هذا سيناريو محزن لا يمكن الدفاع عنه ، ويمكننا أن نكون شاكرين لم يحدث.

اسمح لي بتقديم قائمة بالطرق المختلفة التي يمكن من خلالها حل الخلافات بين الذكاء الاصطناعي والإنسان في الحلقة (أو الإنسان في الحلقة والذكاء الاصطناعي):

  • يعمل الذكاء الاصطناعي والإنسان المشترك على حل الأمور (وديًا أم لا)
  • يسود الإنسان على الذكاء الاصطناعي افتراضيًا
  • الذكاء الاصطناعي يسود على الإنسان بشكل افتراضي
  • تسود بعض الدقة الثابتة الأخرى المحددة مسبقًا ، بشكل افتراضي
  • يتم ربط إنسان الطرف الثالث وإشاراتهم تسود على الأطراف
  • ذكاء اصطناعي من طرف ثالث متكرر ويسود دلالاته على الأطراف
  • يحل إنسان الطرف الثالث محل الإنسان الموجود ، وتستمر الأشياء من جديد
  • يحل الذكاء الاصطناعي للجهة الخارجية محل الذكاء الاصطناعي الحالي ، وتستمر الأمور من جديد
  • يستبدل إنسان الطرف الثالث الذكاء الاصطناعي الحالي ، وتستمر الأمور من جديد (الآن من إنسان إلى إنسان)
  • يحل الذكاء الاصطناعي للجهات الخارجية محل الإنسان الحالي ، وتستمر الأمور من جديد (الآن AI-to-AI)
  • أخرى

تلك تستحق بوفرة أن يتم تفريغها.

قبل الدخول في مزيد من اللحوم والبطاطس حول الاعتبارات الجامحة والصوفية الكامنة وراء كيفية التعامل مع الخلافات البشرية والذكاء الاصطناعي ، دعنا نضع بعض الأساسيات الإضافية حول الموضوعات الأساسية للغاية. نحن بحاجة إلى الغوص لفترة وجيزة في أخلاقيات الذكاء الاصطناعي وخاصة ظهور التعلم الآلي (ML) والتعلم العميق (DL).

قد تكون مدركًا بشكل غامض أن أحد أعلى الأصوات هذه الأيام في مجال الذكاء الاصطناعي وحتى خارج مجال الذكاء الاصطناعي يتكون من المطالبة بمظهر أشبه بالذكاء الاصطناعي الأخلاقي. دعونا نلقي نظرة على معنى الإشارة إلى أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي. علاوة على ذلك ، سوف نستكشف ما أعنيه عندما أتحدث عن التعلم الآلي والتعلم العميق.

يتكون جزء أو جزء معين من أخلاقيات الذكاء الاصطناعي الذي حظي بالكثير من اهتمام وسائل الإعلام من الذكاء الاصطناعي الذي يُظهر تحيزات وأوجه عدم مساواة غير مرغوب فيها. قد تدرك أنه عندما بدأ العصر الأخير للذكاء الاصطناعي ، كان هناك اندفاع هائل من الحماس لما يسميه البعض الآن منظمة العفو الدولية من أجل الخير. لسوء الحظ ، في أعقاب تلك الإثارة المتدفقة ، بدأنا نشهد منظمة العفو الدولية للسوء. على سبيل المثال ، تم الكشف عن العديد من أنظمة التعرف على الوجه القائمة على الذكاء الاصطناعي على أنها تحتوي على تحيزات عنصرية وتحيزات بين الجنسين ، والتي ناقشتها في الرابط هنا.

جهود للقتال ضد منظمة العفو الدولية للسوء بنشاط جارية. إلى جانب صاخبة السياسات مساعي كبح جماح المخالفات ، هناك أيضًا دافع جوهري نحو تبني أخلاقيات الذكاء الاصطناعي لتصحيح ضعف الذكاء الاصطناعي. الفكرة هي أننا يجب أن نتبنى ونصادق على المبادئ الأخلاقية الرئيسية للذكاء الاصطناعي لتطوير الذكاء الاصطناعي وإدخاله في الميدان لتقويض منظمة العفو الدولية للسوء والتبشير والترويج في الوقت نفسه لما هو مفضل منظمة العفو الدولية من أجل الخير.

فيما يتعلق بمفهوم ذي صلة ، أنا من المدافعين عن محاولة استخدام الذكاء الاصطناعي كجزء من حل مشاكل الذكاء الاصطناعي ، ومكافحة النيران بالنار بهذه الطريقة من التفكير. قد نقوم على سبيل المثال بتضمين المكونات الأخلاقية للذكاء الاصطناعي في نظام ذكاء اصطناعي يراقب كيفية قيام بقية الذكاء الاصطناعي بالأشياء ، وبالتالي من المحتمل أن نكتشف في الوقت الفعلي أي جهود تمييزية ، انظر نقاشي في الرابط هنا. يمكن أن يكون لدينا أيضًا نظام ذكاء اصطناعي منفصل يعمل كنوع من أجهزة مراقبة أخلاقيات الذكاء الاصطناعي. يعمل نظام الذكاء الاصطناعي كمشرف لتتبع واكتشاف متى يدخل ذكاء اصطناعي آخر في الهاوية غير الأخلاقية (انظر تحليلي لهذه القدرات في الرابط هنا).

بعد قليل ، سوف أشارككم بعض المبادئ الشاملة التي تقوم عليها أخلاقيات الذكاء الاصطناعي. هناك الكثير من هذه الأنواع من القوائم التي تطفو هنا وهناك. يمكنك القول أنه لا توجد حتى الآن قائمة فردية للنداء والتوافق العالميين. هذه هي الأخبار المؤسفة. الخبر السار هو أن هناك على الأقل قوائم أخلاقيات الذكاء الاصطناعي متاحة بسهولة وتميل إلى أن تكون متشابهة تمامًا. أخيرًا ، يشير هذا إلى أنه من خلال شكل من أشكال التقارب المنطقي ، فإننا نجد طريقنا نحو قواسم مشتركة عامة لما تتكون منه أخلاقيات الذكاء الاصطناعي.

أولاً ، دعنا نغطي بإيجاز بعض المبادئ الأخلاقية الشاملة للذكاء الاصطناعي لتوضيح ما يجب أن يكون اعتبارًا حيويًا لأي شخص يقوم بصياغة أو استخدام أو استخدام الذكاء الاصطناعي.

على سبيل المثال ، كما صرح الفاتيكان في دعوة روما لأخلاقيات الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • الشفافية: من حيث المبدأ ، يجب أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير
  • إدراجه: يجب أن تؤخذ احتياجات جميع البشر في الاعتبار حتى يستفيد الجميع ، ويمكن لجميع الأفراد توفير أفضل الظروف الممكنة للتعبير عن أنفسهم وتطويرهم.
  • المسئولية: يجب على أولئك الذين يصممون وينشرون استخدام الذكاء الاصطناعي أن يتابعوا المسؤولية والشفافية
  • النزاهة: لا تخلق أو تتصرف على أساس التحيز ، وبالتالي الحفاظ على العدالة والكرامة الإنسانية
  • الموثوقية: يجب أن تكون أنظمة الذكاء الاصطناعي قادرة على العمل بشكل موثوق
  • الأمن والخصوصية: يجب أن تعمل أنظمة الذكاء الاصطناعي بشكل آمن وتحترم خصوصية المستخدمين.

كما صرحت وزارة الدفاع الأمريكية (DoD) في المبادئ الأخلاقية لاستخدام الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • مسؤول: سوف يمارس موظفو وزارة الدفاع مستويات مناسبة من الحكم والرعاية مع الاستمرار في المسؤولية عن تطوير ونشر واستخدام قدرات الذكاء الاصطناعي.
  • العادل: ستتخذ الإدارة خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي.
  • تعقبها: سيتم تطوير ونشر قدرات الذكاء الاصطناعي في الإدارة بحيث يمتلك الموظفون المعنيون فهمًا مناسبًا للتكنولوجيا وعمليات التطوير والأساليب التشغيلية المطبقة على قدرات الذكاء الاصطناعي ، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق ومصادر البيانات وإجراءات التصميم والتوثيق.
  • موثوق: سيكون لإمكانيات الذكاء الاصطناعي في الإدارة استخدامات واضحة ومحددة جيدًا ، وستخضع سلامة وأمن وفعالية هذه القدرات للاختبار والتأكيد ضمن تلك الاستخدامات المحددة عبر دورات حياتها بأكملها.
  • للحكم: ستقوم الإدارة بتصميم وهندسة قدرات الذكاء الاصطناعي للوفاء بالوظائف المقصودة مع امتلاك القدرة على اكتشاف وتجنب العواقب غير المقصودة ، والقدرة على فك أو إلغاء تنشيط الأنظمة المنشورة التي تظهر سلوكًا غير مقصود.

لقد ناقشت أيضًا العديد من التحليلات الجماعية للمبادئ الأخلاقية للذكاء الاصطناعي ، بما في ذلك تغطية مجموعة ابتكرها باحثون قاموا بفحص وتكثيف جوهر العديد من مبادئ أخلاقيات الذكاء الاصطناعي الوطنية والدولية في ورقة بعنوان "المشهد العالمي لإرشادات أخلاقيات الذكاء الاصطناعي" (تم نشره) في الطبيعة) ، وأن تغطيتي تستكشف في الرابط هنا، مما أدى إلى هذه القائمة الأساسية:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

كما قد تخمن بشكل مباشر ، فإن محاولة تحديد التفاصيل التي تقوم عليها هذه المبادئ قد يكون صعبًا للغاية. والأكثر من ذلك ، فإن الجهد المبذول لتحويل هذه المبادئ العريضة إلى شيء ملموس ومفصل تمامًا بما يكفي لاستخدامه عند صياغة أنظمة الذكاء الاصطناعي يعد أيضًا من الصعب كسرها. من السهل بشكل عام القيام ببعض التلويح اليدوي حول ماهية مبادئ أخلاقيات الذكاء الاصطناعي وكيف ينبغي مراعاتها بشكل عام ، في حين أنه وضع أكثر تعقيدًا في ترميز الذكاء الاصطناعي يجب أن يكون المطاط الحقيقي الذي يلبي الطريق.

يجب استخدام مبادئ أخلاقيات الذكاء الاصطناعي من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف. يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. كما ذكرنا سابقًا ، فإن الأمر يتطلب قرية لابتكار واستخدام الذكاء الاصطناعي ، ومن أجل ذلك يجب أن تكون القرية بأكملها على دراية بمبادئ أخلاقيات الذكاء الاصطناعي والالتزام بها.

دعنا نتأكد أيضًا من أننا على نفس الصفحة حول طبيعة الذكاء الاصطناعي اليوم.

لا يوجد أي ذكاء اصطناعي واعي اليوم. ليس لدينا هذا. لا نعرف ما إذا كان الذكاء الاصطناعي الواعي سيكون ممكنًا. لا أحد يستطيع أن يتنبأ بجدارة بما إذا كنا سنحقق ذكاءً اصطناعيًا واعيًا ، ولا ما إذا كان الذكاء الاصطناعي الواعي سينشأ بطريقة ما بأعجوبة تلقائيًا في شكل مستعر أعظم معرفي حسابي (يشار إليه عادةً باسم التفرد ، انظر تغطيتي في الرابط هنا).

نوع الذكاء الاصطناعي الذي أركز عليه يتكون من الذكاء الاصطناعي غير الواعي الذي لدينا اليوم. إذا أردنا التكهن بشدة حساس الذكاء الاصطناعي ، يمكن أن تسير هذه المناقشة في اتجاه مختلف جذريًا. من المفترض أن يكون الذكاء الاصطناعي الواعي ذا جودة بشرية. ستحتاج إلى اعتبار أن الذكاء الاصطناعي الواعي هو المكافئ المعرفي للإنسان. أكثر من ذلك ، نظرًا لأن البعض يتوقع أن يكون لدينا ذكاء اصطناعي فائق الذكاء ، فمن المتصور أن مثل هذا الذكاء الاصطناعي يمكن أن يصبح أكثر ذكاءً من البشر (لاستكشافي للذكاء الاصطناعي الفائق كإمكانية ، انظر التغطية هنا).

دعونا نحافظ على الأمور أكثر واقعية ونفكر في الذكاء الاصطناعي غير الحسابي اليوم.

ندرك أن الذكاء الاصطناعي اليوم غير قادر على "التفكير" بأي شكل من الأشكال على قدم المساواة مع التفكير البشري. عندما تتفاعل مع Alexa أو Siri ، قد تبدو قدرات المحادثة شبيهة بالقدرات البشرية ، لكن الحقيقة هي أنها حسابية وتفتقر إلى الإدراك البشري. استفاد العصر الأخير من الذكاء الاصطناعي بشكل مكثف من التعلم الآلي (ML) والتعلم العميق (DL) ، مما يعزز مطابقة الأنماط الحسابية. وقد أدى ذلك إلى ظهور أنظمة ذكاء اصطناعي تبدو وكأنها ميول شبيهة بالإنسان. وفي الوقت نفسه ، لا يوجد أي ذكاء اصطناعي اليوم يشبه الفطرة السليمة وليس لديه أي من التعجب المعرفي للتفكير البشري القوي.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين يتخذون نمطًا بناءً على القرارات قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق خفية ولكنها مهمة. سيحاول التعلم الآلي أو مطابقة الأنماط الحسابية للتعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة المصممة بالذكاء الاصطناعي في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة في ML / DL من الصعب اكتشاف التحيزات الخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا أكثر تعقيدًا مما قد يبدو. توجد فرصة قوية أنه حتى مع إجراء اختبارات مكثفة نسبيًا ، لا تزال هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

يمكنك إلى حد ما استخدام القول المأثور الشهير أو سيئ السمعة من القمامة في القمامة. الشيء هو ، هذا أقرب إلى التحيزات - التي يتم غرسها بشكل خبيث على أنها تحيزات مغمورة داخل الذكاء الاصطناعي. تصبح عملية اتخاذ القرار الخوارزمية (ADM) للذكاء الاصطناعي بشكل بديهي محملة بعدم المساواة.

غير جيد.

دعنا نعود إلى تركيزنا على الخلافات بين الذكاء الاصطناعي والإنسان.

لقد أشرت سابقًا إلى أن هذه بعض استراتيجيات حل الخلافات:

  • يعمل الذكاء الاصطناعي والإنسان المشترك على حل الأمور (وديًا أم لا)
  • يسود الإنسان على الذكاء الاصطناعي افتراضيًا
  • الذكاء الاصطناعي يسود على الإنسان بشكل افتراضي
  • تسود بعض الدقة الثابتة الأخرى المحددة مسبقًا ، بشكل افتراضي
  • يتم ربط إنسان الطرف الثالث وإشاراتهم تسود على الأطراف
  • ذكاء اصطناعي من طرف ثالث متكرر ويسود دلالاته على الأطراف
  • يحل إنسان الطرف الثالث محل الإنسان الموجود ، وتستمر الأشياء من جديد
  • يحل الذكاء الاصطناعي للجهة الخارجية محل الذكاء الاصطناعي الحالي ، وتستمر الأمور من جديد
  • يستبدل إنسان الطرف الثالث الذكاء الاصطناعي الحالي ، وتستمر الأمور من جديد (الآن من إنسان إلى إنسان)
  • يحل الذكاء الاصطناعي للجهات الخارجية محل الإنسان الحالي ، وتستمر الأمور من جديد (الآن AI-to-AI)
  • أخرى

حان الوقت لتفريغ هذه.

أولاً ، ضع في اعتبارك أن هذا هو كل شيء محترف الخلافات.

يتم تعريف الخلاف المهني بشكل فضفاض على أنه خلاف مرتبط بمهمة متعلقة بالعمل.

على سبيل المثال ، يمكن وصف الخلاف الذي ينشأ بين الطيار ومساعده حول ما إذا كان يجب المضي قدمًا في رحلة تواجه عاصفة على أنه خلاف مهني. في المقابل ، يتم تصنيف الخلاف الحاد حول ماركة القهوة التي يدافع عنها الطيار مقابل العلامة التجارية التي يفضلها مساعد الطيار على أنها خلاف غير مهني في هذا السياق بالذات.

بالطبع ، إذا كان الخلاف غير المهني يشق طريقه إلى خلاف مهني ، فقد نكون مهتمين في النهاية بالخلاف غير المهني كمصدر مفترض أو شرارة للخلاف المهني. تخيل أن الطيار ومساعده يتجادلان بمرارة حول نوع القهوة الأفضل ، والذي ينتقل للأسف بعد ذلك إلى مخاوف خاصة بالرحلة (التورية!) ، مثل ما إذا كنت ستقلع أم لا.

ثانيًا ، علينا أن نضع في اعتبارنا حجم الخلاف المهني.

ربما الطيار ومساعده أو في خلاف خفيف حول المضي قدما في الطيران. إنهم ليسوا على خلاف ويفكرون فقط في إيجابيات وسلبيات الإقلاع. ليس هذا هو مستوى أو حجم الخلاف المهني الذي نفكر فيه عادةً هنا. الأمر هو أنه يمكن أن يكون الخلاف المهني مؤقتًا ويعمل كلا الطرفين على حل ودي أو على الأقل في الوقت المناسب. بشكل عام ، محور الخلاف المهني داخل النطاق هو تلك التي تبدو مستعصية على الحل ، ويظل الطرفان في الخلاف بثبات.

ثالثًا ، يجب عادةً أن يكون هناك شيء جاد على المحك حتى تدخل هذه الإرشادات حيز التنفيذ.

يعد اختيار الطيران أو عدم الطيران قرارًا مؤكدًا يتعلق بالحياة أو الموت إذا كانت الرحلة معرضة للخطر بسبب عاصفة أو إذا اعتبرت الطائرة غير مستعدة تمامًا لمثل هذه الرحلة. هذا عمل جاد. لا يزال بإمكاننا تطبيق الإرشادات على الخلافات المهنية الأقل تأثيرًا على الرغم من أنها قد تكون مزعجة أكثر مما تستحق.

حسنًا ، اعتباراتنا هي:

  • الخلاف موجه بشكل أساسي مهنيًا بدلاً من شيء غير احترافي
  • الخلاف ذو طبيعة مستدامة وليس مجرد عابر أو يتم حله بسهولة
  • الخلاف ينذر بعواقب وخيمة وعادة ما يكون له نتيجة مؤثرة
  • الأطراف على خلاف ويبدو أنها مستعصية على الحل

دعنا الآن نلقي نظرة فاحصة على كل من المبادئ التوجيهية أو المناهج التي اقترحتها فيما يتعلق بكيفية التعامل مع مثل هذه الخلافات المهنية.

يعمل الذكاء الاصطناعي والإنسان المشترك على حل الأمور (وديًا أم لا)

أبدأ القائمة بإمكانية مباشرة أن يكون الذكاء الاصطناعي والإنسان في الحلقة قادرين على حل الخلاف المهني فيما بينهما. يبدو أن مثال الإنسانين ، الطيار ومساعد الطيار ، ربما يوضح هذا النوع من الظروف. لقد قرروا بطريقة ما العودة إلى المحطة والذهاب في طريقهم المنفصل. يمكن أن يكون نظام الذكاء الاصطناعي والإنسان قادرين على اكتشاف نهج حل مرضٍ بشكل عام لكلا الطرفين ، وبالتالي يتم حل المسألة بشكل مرض.

يسود الإنسان على الذكاء الاصطناعي افتراضيًا

عند إعداد الذكاء الاصطناعي ، قد نبرمج قاعدة تنص على أن الإنسان في الحلقة يجب أن يسود دائمًا كلما ظهر خلاف مهني. سيكون هذا هو الافتراضي المشفر صراحة. قد نسمح أيضًا ببعض أشكال التجاوز ، فقط في حالة ، على الرغم من أن القاعدة الدائمة ستكون أن الإنسان يسود.

الذكاء الاصطناعي يسود على الإنسان بشكل افتراضي

عند إعداد الذكاء الاصطناعي ، قد نبرمج قاعدة تنص على أن الذكاء الاصطناعي يجب أن يسود دائمًا على الإنسان في الحلقة كلما ظهر خلاف مهني. هذا هو الافتراضي المشفر صراحة. قد نسمح أيضًا ببعض أشكال التجاوز ، فقط في حالة ، على الرغم من أن القاعدة الدائمة ستكون أن الذكاء الاصطناعي يسود.

تسود بعض الدقة الثابتة الأخرى المحددة مسبقًا ، بشكل افتراضي

عند إعداد الذكاء الاصطناعي ، قد نبرمج قاعدة تنص على أن بعض الدقة الثابتة المحددة مسبقًا ستسود كلما ظهر خلاف مهني مع الإنسان في الحلقة. لا يسود الإنسان في الحلقة بشكل افتراضي. الذكاء الاصطناعي لا يسود بشكل افتراضي. هناك بعض القرارات الأخرى المحددة مسبقًا. على سبيل المثال ، ربما يكون هناك رمي عملة معدنية سيتم استخدامها لتحديد أي من الطرفين يعتبر المسار الصحيح الذي يجب اتخاذه. من الواضح أن هذا يبدو تعسفياً إلى حد ما ؛ وبالتالي ، فإن مثالًا آخر هو أن القاعدة المتخصصة تبدأ بحساب قيمة بناءً على المدخلات من الطرفين وتصل إلى نتيجة كسر التعادل.

يتم ربط إنسان الطرف الثالث وإشاراتهم تسود على الأطراف

عند وجود خلاف مهني ، يمكن أن تتمثل القاعدة في أن طرفًا ثالثًا بشريًا يتم استدعاؤه وإدارته في المكان لاتخاذ قرار بشأن حل الخلاف. الذكاء الاصطناعي مبرمج للإذعان لما يقرره الطرف الثالث البشري. تم توجيه الإنسان الموجود بالفعل في حلقة الإنسان في الحلقة مسبقًا أنه إذا نشأ مثل هذا الموقف ، فيجب عليه أيضًا الإذعان إلى إنسان الطرف الثالث. كإجراء جانبي ، يمكنك على الأرجح أن تتوقع أن يكون الإنسان في الحلقة قلقًا بشأن الانضمام إلى ما يقرره الطرف الثالث البشري إذا كان القرار يتعارض مع وضعية الإنسان في الحلقة.

ذكاء اصطناعي من طرف ثالث متكرر ويسود دلالاته على الأطراف

عند وجود خلاف مهني ، يمكن أن تتمثل القاعدة في استدعاء طرف ثالث يمثل نظامًا مختلفًا للذكاء الاصطناعي وإدخاله في الإعداد لاتخاذ قرار بشأن حل الخلاف. تمت برمجة الذكاء الاصطناعي الأصلي للتأجيل لما تقرره الجهة الخارجية من الذكاء الاصطناعي. تم توجيه الإنسان الموجود بالفعل في حلقة الإنسان في الحلقة مسبقًا بأنه إذا ظهر مثل هذا الموقف ، فعليه أيضًا أن يذعن للذكاء الاصطناعي التابع لجهة خارجية. جانبا ، يمكنك أن تتوقع على الأرجح أن الإنسان في الحلقة قد يكون قلقًا بشأن الانضمام إلى أي شيء يقرره طرف ثالث لمنظمة العفو الدولية إذا كان القرار يتعارض مع موقف الإنسان في الحلقة.

يحل إنسان الطرف الثالث محل الإنسان الموجود ، وتستمر الأشياء من جديد

عند الخلاف المهني ، يتم استبدال "الإنسان في الحلقة" بطرف ثالث يكون إنسانًا ويصبح من الآن فصاعدًا "إنسان في الحلقة". الإنسان الذي كان الإنسان الأصلي في الحلقة للمهمة لم يعد يُعتبر جزءًا من المهمة المطروحة. إنه جانب مفتوح فيما يتعلق بما يحدث بخلاف ذلك مع الإنسان الذي تم استبداله الآن ، لكننا نقول أنه بالتأكيد لم يعد لديهم أي دور مستمر في مهمة العمل.

يحل الذكاء الاصطناعي للجهة الخارجية محل الذكاء الاصطناعي الحالي ، وتستمر الأمور من جديد

عند الخلاف المهني ، يتم استبدال الذكاء الاصطناعي بذكاء اصطناعي تابع لجهة خارجية ، ويصبح ذلك من الآن فصاعدًا الذكاء الاصطناعي المستخدم لمهمة العمل المطروحة. لم يعد الذكاء الاصطناعي الذي تم استخدامه في الأصل للمهمة يعد جزءًا من المهمة المطروحة. إنه جانب مفتوح فيما يتعلق بما سيحدث بخلاف ذلك مع الذكاء الاصطناعي الذي تم استبداله الآن ، لكننا نقول أنه بالتأكيد لم يعد للذكاء الاصطناعي أي دور مستمر في مهمة العمل.

يستبدل إنسان الطرف الثالث الذكاء الاصطناعي الحالي ، وتستمر الأمور من جديد (الآن من إنسان إلى إنسان)

بناءً على خلاف مهني ، يتم استبدال الذكاء الاصطناعي بشخص من طرف ثالث يصبح هذا الشخص بالنسبة له هو الطرف المشترك الذي سيتم استخدامه لمهمة العمل المطروحة. لم يعد الذكاء الاصطناعي الذي تم استخدامه في الأصل للمهمة يعد جزءًا من المهمة المطروحة. إنه جانب مفتوح فيما يتعلق بما سيحدث بخلاف ذلك مع الذكاء الاصطناعي الذي تم استبداله الآن ، لكننا نقول أنه بالتأكيد لم يعد للذكاء الاصطناعي أي دور مستمر في مهمة العمل. باختصار ، تصبح هذه الآن مهمة يقوم بها شخصان من طرفين.

يحل الذكاء الاصطناعي للجهات الخارجية محل الإنسان الحالي ، وتستمر الأمور من جديد (الآن AI-to-AI)

بناءً على خلاف مهني ، يتم استبدال الإنسان في الحلقة بذكاء اصطناعي تابع لجهة خارجية ويصبح هذا الذكاء الاصطناعي من الآن فصاعدًا العنصر الأساسي للإنسان في الحلقة السابقة. الإنسان الذي كان الإنسان الأصلي في الحلقة للمهمة لم يعد يُعتبر جزءًا من المهمة المطروحة. إنه جانب مفتوح فيما يتعلق بما يحدث بخلاف ذلك مع الإنسان الذي تم استبداله الآن ، لكننا نقول أنه بالتأكيد لم يعد لديهم أي دور مستمر في مهمة العمل. باختصار ، أصبح هذا الآن عبارة عن طرفين من AI-to-AI لأداء المهمة.

أخرى

يمكن ابتكار أشكال أخرى للتعامل مع الخلاف المهني ، لكننا غطينا هنا بعضًا من الركائز الأساسية.

كيف لنا أن نقرر أي من هذه الأساليب سيكون النهج المناسب لحالة معينة؟

تدخل مجموعة متنوعة من القضايا في اتخاذ مثل هذا الاختيار. هناك اعتبارات تكنولوجية. هناك اعتبارات تجارية. هناك اعتبارات قانونية وأخلاقية.

إلى حد ما ، هذا هو السبب في أن أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي موضوع بالغ الأهمية. تدفعنا مبادئ أخلاقيات الذكاء الاصطناعي إلى توخي اليقظة. يمكن أن ينشغل تقنيو الذكاء الاصطناعي في بعض الأحيان بالتكنولوجيا ، لا سيما تحسين التكنولوجيا الفائقة. إنهم لا يفكرون بالضرورة في التداعيات المجتمعية الأكبر. إن امتلاك عقلية أخلاقيات الذكاء الاصطناعي والقيام بذلك بشكل متكامل لتطوير الذكاء الاصطناعي وإدارته أمر حيوي لإنتاج الذكاء الاصطناعي المناسب ، بما في ذلك (ربما بشكل مفاجئ أو من المفارقات) تقييم كيفية تبني الشركات لأخلاقيات الذكاء الاصطناعي.

إلى جانب استخدام مبادئ أخلاقيات الذكاء الاصطناعي بشكل عام ، هناك سؤال مماثل عما إذا كان ينبغي أن تكون لدينا قوانين تحكم الاستخدامات المختلفة للذكاء الاصطناعي. يجري تداول قوانين جديدة على المستويات الفيدرالية والولائية والمحلية التي تتعلق بنطاق وطبيعة كيفية ابتكار الذكاء الاصطناعي. إن الجهد المبذول لصياغة وسن مثل هذه القوانين هو جهد تدريجي. تُعد أخلاقيات الذكاء الاصطناعي بمثابة حل مؤقت مدروس ، على أقل تقدير ، ومن المؤكد تقريبًا إلى حد ما أن يتم دمجها بشكل مباشر في تلك القوانين الجديدة.

اعلم أن البعض يجادل بقوة بأننا لسنا بحاجة إلى قوانين جديدة تغطي الذكاء الاصطناعي وأن قوانيننا الحالية كافية. في الواقع ، لقد حذروا من أننا إذا قمنا بسن بعض قوانين الذكاء الاصطناعي هذه ، فسوف نقتل الأوزة الذهبية من خلال تقييد التقدم في الذكاء الاصطناعي الذي يقدم مزايا مجتمعية هائلة.

في هذه المرحلة من هذه المناقشة المهمة ، أراهن أنك ترغب في بعض الأمثلة التوضيحية التي قد تعرض هذا الموضوع. هناك مجموعة خاصة وشعبية بالتأكيد من الأمثلة القريبة من قلبي. كما ترى ، بصفتي خبيرًا في الذكاء الاصطناعي بما في ذلك التداعيات الأخلاقية والقانونية ، يُطلب مني كثيرًا تحديد أمثلة واقعية تعرض معضلات أخلاقيات الذكاء الاصطناعي بحيث يمكن فهم الطبيعة النظرية إلى حد ما للموضوع بسهولة أكبر. واحدة من أكثر المجالات إثارة للذكريات التي تقدم بوضوح هذا المأزق الأخلاقي للذكاء الاصطناعي هو ظهور سيارات ذاتية القيادة حقيقية قائمة على الذكاء الاصطناعي. سيكون هذا بمثابة حالة استخدام مفيدة أو نموذجًا لمناقشة مستفيضة حول هذا الموضوع.

إليك إذن سؤال جدير بالملاحظة يستحق التفكير فيه: هل ظهور السيارات الحقيقية ذاتية القيادة القائمة على الذكاء الاصطناعي يسلط الضوء على أي شيء يتعلق بقرارات الخلاف بين الذكاء الاصطناعي والبشر ، وإذا كان الأمر كذلك ، فما الذي يعرضه هذا؟

اسمح لي بلحظة لفك السؤال.

أولاً ، لاحظ أنه لا يوجد سائق بشري متورط في سيارة حقيقية ذاتية القيادة. ضع في اعتبارك أن السيارات الحقيقية ذاتية القيادة يتم قيادتها عبر نظام قيادة بالذكاء الاصطناعي. ليست هناك حاجة لسائق بشري على عجلة القيادة ، ولا يوجد شرط لقيادة الإنسان للسيارة. لتغطيتي الواسعة والمستمرة للمركبات ذاتية القيادة (AVs) وخاصة السيارات ذاتية القيادة ، انظر الرابط هنا.

أود أن أوضح ما هو المقصود عندما أشير إلى السيارات الحقيقية ذاتية القيادة.

فهم مستويات السيارات ذاتية القيادة

للتوضيح ، السيارات الحقيقية ذاتية القيادة هي تلك التي يقود فيها الذكاء الاصطناعي السيارة بالكامل من تلقاء نفسه ولا توجد أي مساعدة بشرية أثناء مهمة القيادة.

تعتبر هذه المركبات ذاتية القيادة من المستوى 4 والمستوى 5 (انظر الشرح في هذا الرابط هنا) ، في حين أن السيارة التي تتطلب سائقًا بشريًا للمشاركة في جهد القيادة يتم اعتبارها عادةً في المستوى 2 أو المستوى 3. يتم وصف السيارات التي تشارك في مهمة القيادة بأنها شبه مستقلة ، وتحتوي عادةً على مجموعة متنوعة من الوظائف الإضافية المؤتمتة التي يشار إليها باسم ADAS (أنظمة مساعدة السائق المتقدمة).

لا توجد حتى الآن سيارة ذاتية القيادة حقيقية في المستوى الخامس ، ولا نعرف حتى الآن ما إذا كان من الممكن تحقيق ذلك ، ولا كم من الوقت سيستغرق الوصول إليه.

وفي الوقت نفسه ، تحاول جهود المستوى 4 تدريجياً الحصول على بعض الجاذبية من خلال الخضوع لتجارب طرق عامة ضيقة للغاية وانتقائية ، على الرغم من وجود جدل حول ما إذا كان يجب السماح بهذا الاختبار في حد ذاته (نحن جميعًا حيوانات تجارب حياة أو موت في التجربة التي تجري على طرقنا السريعة والطرق الفرعية ، يدعي البعض ، انظر تغطيتي في هذا الرابط هنا).

نظرًا لأن السيارات شبه المستقلة تتطلب سائقًا بشريًا ، فإن اعتماد هذه الأنواع من السيارات لن يكون مختلفًا بشكل ملحوظ عن قيادة المركبات التقليدية ، لذلك لا يوجد الكثير في حد ذاته لتغطية هذه المواضيع (على الرغم من ذلك ، كما سترى في لحظة ، النقاط التالية تنطبق بشكل عام).

بالنسبة للسيارات شبه المستقلة ، من المهم أن يتم تحذير الجمهور بشأن جانب مزعج ظهر مؤخرًا ، أي أنه على الرغم من هؤلاء السائقين البشر الذين يستمرون في نشر مقاطع فيديو لأنفسهم ينامون على عجلة سيارة من المستوى 2 أو المستوى 3 علينا جميعًا أن نتجنب التضليل حتى نصدق أن السائق يمكنه أن يلفت انتباهه عن مهمة القيادة أثناء قيادة سيارة شبه مستقلة.

أنت الطرف المسؤول عن إجراءات القيادة في السيارة ، بغض النظر عن مقدار الأتمتة التي قد يتم قذفها في المستوى 2 أو المستوى 3.

السيارات ذاتية القيادة والخلاف بين الذكاء الاصطناعي والإنسان

بالنسبة للمركبات ذاتية القيادة الحقيقية من المستوى 4 والمستوى 5 ، لن يكون هناك سائق بشري يشارك في مهمة القيادة.

سيكون جميع الركاب من الركاب.

تقوم منظمة العفو الدولية بالقيادة.

أحد الجوانب التي يجب مناقشتها على الفور يستلزم حقيقة أن الذكاء الاصطناعي المتضمن في أنظمة قيادة الذكاء الاصطناعي اليوم ليس واعيًا. بعبارة أخرى ، الذكاء الاصطناعي عبارة عن مجموعة من البرمجة والخوارزميات المستندة إلى الكمبيوتر ، وهو بالتأكيد غير قادر على التفكير بنفس الطريقة التي يستطيع بها البشر.

لماذا هذا التركيز الإضافي على الذكاء الاصطناعي ليس واعيا؟

لأنني أريد أن أؤكد أنه عند مناقشة دور نظام القيادة للذكاء الاصطناعي ، فأنا لا أنسب الصفات البشرية للذكاء الاصطناعي. يرجى العلم أن هناك اتجاهًا مستمرًا وخطيرًا هذه الأيام لتجسيد الذكاء الاصطناعي. من حيث الجوهر ، يخصص الناس ذكاءً شبيهاً بالإنسان إلى الذكاء الاصطناعي اليوم ، على الرغم من الحقيقة التي لا يمكن إنكارها والتي لا جدال فيها وهي عدم وجود مثل هذا الذكاء الاصطناعي حتى الآن.

مع هذا التوضيح ، يمكنك أن تتخيل أن نظام القيادة بالذكاء الاصطناعي لن "يعرف" بطريقة أو بأخرى جوانب القيادة. القيادة وكل ما تتطلبه يجب برمجتها كجزء من أجهزة وبرامج السيارة ذاتية القيادة.

دعونا نتعمق في عدد لا يحصى من الجوانب التي تأتي للعب في هذا الموضوع.

أولاً ، من المهم أن ندرك أنه ليست كل سيارات الذكاء الاصطناعي ذاتية القيادة هي نفسها. تتبنى كل شركة تصنيع سيارات وشركة تقنية ذاتية القيادة نهجها في ابتكار سيارات ذاتية القيادة. على هذا النحو ، من الصعب الإدلاء ببيانات شاملة حول ما ستفعله أو لا تفعله أنظمة القيادة بالذكاء الاصطناعي.

علاوة على ذلك ، عندما يذكر أن نظام القيادة بالذكاء الاصطناعي لا يفعل شيئًا معينًا ، يمكن ، لاحقًا ، تجاوز هذا الأمر من قبل المطورين الذين يقومون في الواقع ببرمجة الكمبيوتر للقيام بهذا الشيء بالذات. خطوة بخطوة ، يتم تحسين أنظمة القيادة بالذكاء الاصطناعي وتوسيعها تدريجياً. قد لا يوجد قيد موجود اليوم في تكرار أو إصدار مستقبلي من النظام.

آمل أن يوفر ذلك مجموعة كافية من المحاذير لإبراز ما أنا على وشك ربطه.

بالنسبة للمركبات ذاتية التحكم بالكامل ، قد لا تكون هناك أي فرصة لخلاف مهني بين الإنسان والذكاء الاصطناعي نظرًا لاحتمال عدم وجود أي إنسان في الحلقة للبدء به. يتطلع العديد من صانعي السيارات ذاتية القيادة اليوم إلى إبعاد السائق البشري تمامًا عن مهمة القيادة. لن تحتوي السيارة حتى على عناصر تحكم في القيادة يسهل على الإنسان الوصول إليها. في هذه الحالة ، لن يتمكن السائق البشري ، إذا كان موجودًا ، من المشاركة في مهمة القيادة نظرًا لأنه يفتقر إلى الوصول إلى أي أدوات تحكم في القيادة.

بالنسبة لبعض المركبات ذاتية القيادة ، لا تزال بعض التصاميم تسمح للإنسان أن يكون في الحلقة ، على الرغم من أن الإنسان لا يجب أن يكون متاحًا أو يشارك في عملية القيادة على الإطلاق. وهكذا يمكن للإنسان أن يشارك في القيادة إذا رغب في ذلك. لا يعتمد الذكاء الاصطناعي في أي وقت على الإنسان لأداء أي من مهام القيادة.

في حالة المركبات شبه المستقلة ، هناك علاقة يدا بيد بين السائق البشري والذكاء الاصطناعي. يمكن للسائق البشري أن يتولى أدوات التحكم في القيادة بشكل كامل ويوقف بشكل أساسي الذكاء الاصطناعي عن المشاركة في القيادة. إذا كان السائق البشري يرغب في إعادة الذكاء الاصطناعي إلى دور القيادة ، فيمكنه القيام بذلك ، على الرغم من أن هذا يجبر الإنسان أحيانًا على التخلي عن أدوات التحكم في القيادة.

شكل آخر من أشكال العمليات شبه المستقلة يستلزم أن يعمل السائق البشري والذكاء الاصطناعي معًا بطريقة جماعية. الذكاء الاصطناعي يقود والإنسان يقود. إنهم يقودون معا. قد يذعن الذكاء الاصطناعي للإنسان. قد يذعن الإنسان للذكاء الاصطناعي.

في مرحلة ما ، قد يصل نظام القيادة بالذكاء الاصطناعي والسائق البشري الموجود في الحلقة إلى منعطف من "الخلاف المهني" فيما يتعلق بمهمة القيادة المطروحة.

لتوضيح كيف أن بعض القواعد المذكورة أعلاه للتعامل مع الخلاف المهني يمكن أن تكون صعبة التنفيذ ، ضع في اعتبارك حالة استدعاء شخص ثالث للدخول في المسألة وتقديم قرار لحل المشكلة التي لم يتم حلها.

لنفترض أن شركة تصنيع سيارات أو شركة تكنولوجيا ذاتية القيادة قد رتبت للمشغلين البشريين عن بُعد للوصول إلى أدوات التحكم في قيادة المركبات داخل أسطولهم. العامل البشري يجلس في مكتب بعيد أو مكان قريب. من خلال نظام الكمبيوتر ، يمكنهم مشاهدة مشهد القيادة من خلال الوصول إلى الكاميرات وأجهزة الاستشعار الأخرى المحملة على السيارة ذاتية القيادة. بالنسبة لهم ، هذا يشبه لعب لعبة فيديو عبر الإنترنت ، على الرغم من أن ظروف الحياة الواقعية قد يكون لها عواقب وخيمة بالطبع.

يقود نظام ذكاء اصطناعي وسائق بشري داخل السيارة مركبة شبه مستقلة على طريق سريع طويل. فجأة ، يريد الذكاء الاصطناعي التوجه نحو حفرة. السائق البشري لا يريد أن يفعل هذا. يتنازع الاثنان حول ضوابط القيادة.

كيف سيتم حل هذا؟

ربما كان بإمكاننا أن نضع مسبقًا أن الإنسان يفوز دائمًا. افترض على الرغم من أننا اخترنا عدم القيام بذلك.

كان بإمكاننا أن نضع مسبقًا أن الذكاء الاصطناعي يفوز دائمًا. افترض أننا اخترنا عدم القيام بذلك. بشكل عام ، لم نعتمد أيًا من هذه القواعد ، بخلاف أننا قررنا السماح لطرف ثالث من البشر بالتدخل وحل الخلاف المهني من أي طبيعة جوهرية.

في حالة الاستخدام هذه ، يتقاتل الذكاء الاصطناعي والسائق البشري على عجلة القيادة من أجل ضوابط القيادة. لنفترض أن هذا تم نقله إلى المشغل البشري البعيد (إنساننا الخارجي). يفحص العامل البشري البعيد ما يحدث ويقرر الابتعاد عن الخندق ، متجنبًا على ما يبدو ما كان الذكاء الاصطناعي يحاول فعله. في الوقت نفسه ، لنفترض أن المشغل البشري عن بعد يوجه حركة المرور القادمة ، والتي ربما لم يرغب الذكاء الاصطناعي ولا السائق البشري داخل السيارة في القيام بها.

النقطة المهمة هي أن الطريقة التي تم بها تنفيذ هذه القاعدة هي أن المشغل البشري التابع لجهة خارجية قادر على تجاوز كل من الذكاء الاصطناعي والإنسان في الحلقة تمامًا. من المؤكد أن ما إذا كان هذا سيؤدي إلى نتيجة جيدة.

سأستخدم هذا المثال لتسليط الضوء على بعض الأفكار المضافة حول هذه الأمور.

لا يمكنك الافتراض الوقح أنه لمجرد تطبيق إحدى هذه القواعد ، فإن نتيجة الخلاف الذي تم حله هي بالضرورة نتيجة جيدة مضمونة. قد لا يكون كذلك. لا يوجد أي نوع من القواعد الثابتة التي يمكن تحديدها دائمًا.

بعد ذلك ، قد لا تكون بعض هذه القواعد قابلة للتنفيذ بشكل قابل للتطبيق.

ضع في اعتبارك مثال تدخل المشغل البشري عن بعد عندما يتشاجر الذكاء الاصطناعي والسائق البشري حول أدوات التحكم في القيادة. قد يستغرق الأمر عدة ثوانٍ حتى يكتشف العامل البشري البعيد ما يجري. بحلول ذلك الوقت ، ربما تكون السيارة قد انتهت بالفعل في الخندق أو كان لها بعض النتائج السلبية الأخرى. افترض أيضًا أن موقع السيارة يحول دون الوصول عن بُعد مثل التواجد في مكان ما لا يوجد فيه أي اتصال إلكتروني بالشبكة. أو ربما لا تعمل ميزات الشبكة الخاصة بالمركبة في تلك اللحظة بالذات.

كما ترى ، قد تبدو القاعدة رائعة على الورق ، على الرغم من أن وضع القاعدة في الاستخدام الفعلي قد يكون نهجًا صعبًا للغاية أو محتملًا للغاية. شاهد تغطية العين الحرجة الخاصة بي على المشغل عن بُعد للمركبات ذاتية القيادة والسيارات ذاتية القيادة في الرابط هنا.

أود أن أغطي بإيجاز موضوعًا آخر ذي صلة سأقوم بتغطيته بعمق أكبر في تحليل قادم.

أحد المخاوف المتزايدة بشأن المركبات ذاتية القيادة والسيارات ذاتية القيادة شبه المستقلة هو ما يسمى متلازمة البطاطا الحارة.

ها هي الصفقة.

نظام قيادة يعمل بالذكاء الاصطناعي وإنسان يشتركان في القيادة. تنشأ أزمة رهيبة. تمت برمجة الذكاء الاصطناعي للتخلي عن مهمة القيادة وتحويل الأمور إلى الإنسان عند حدوث لحظة عصيبة. ربما يبدو هذا "منطقيًا" من حيث أننا يبدو أننا نستشهد بالقاعدة المتعلقة بالإنسان "الفائز" الافتراضي في أي خلاف مهني محتمل.

لكن ترك الذكاء الاصطناعي قد يكون لأغراض أكثر شناعة أو خادعة. قد يكون السبب هو أن شركة صناعة السيارات أو شركة التكنولوجيا ذاتية القيادة لا تريد أن يتم اعتبار الذكاء الاصطناعي الخاص بها "الطرف المخطئ" عند حدوث حادث سيارة. لتجنب الوقوع في مثل هذا الأمر على ما يبدو ، يقوم الذكاء الاصطناعي بتسليم عناصر التحكم بشكل مفاجئ إلى الإنسان. فويلا ، من المفترض أن يكون الإنسان الآن مسؤولاً مسؤولية كاملة عن السيارة.

المهم هو أن نفترض أن الذكاء الاصطناعي يقوم بهذا التسليم مع دعنا نقول ثانية واحدة متبقية قبل حدوث الانهيار.

هل سيكون لدى الإنسان حقًا أي وقت متاح لتجنب الانهيار؟

على الأرجح لا.

لنفترض أن الذكاء الاصطناعي يقوم بعملية التسليم مع بقاء بضع ميلي ثانية أو نانوثانية متبقية. أجرؤ على القول إن الإنسان ليس لديه أي فرصة للقيام بأي شيء لتجنب الانهيار.

من وجهة نظر صانع السيارات أو شركة السيارات ذاتية القيادة ، يمكنهم محاولة التصرف كما لو كانت أيديهم نظيفة عند حدوث مثل هذا الحادث. كانت السيارة يقودها إنسان. لم يكن الذكاء الاصطناعي يقود السيارة. يبدو أن الاستنتاج "المنطقي" الوحيد هو أن الإنسان يجب أن يكون مخطئًا وأن الذكاء الاصطناعي يجب أن يكون بلا لوم تمامًا.

إنه فخار.

سوف أناقش هذا بمزيد من التعمق في عمود قادم.

وفي الختام

الخلافات المهنية سوف تحدث.

من الصعب تخيل أي مهمة معقدة يشترك فيها طرفان في أداء المهمة ولن يكون هناك أبدًا أي خلافات مهنية قد تنشأ. هذا يبدو وكأنه فنتازيا أو على الأقل ندرة كبيرة.

اليوم ، لدينا الكثير والكثير من حالات الخلاف المهني بين البشر ، والتي يتم التوصل إلى حلول على أساس يومي بطريقة سلمية ومعقولة بطريقة أو بأخرى. في الواقع ، نقوم في كثير من الأحيان بإعداد مواقف عن قصد لتعزيز الخلافات المهنية وإبرازها. قد تجادل بأن هذا يوضح الحكمة الشهيرة التي تقول أحيانًا أن رأسين أفضل من رأس واحد.

نظرًا لأن الذكاء الاصطناعي أصبح أكثر انتشارًا ، سيكون لدينا الكثير من فناني أداء المهام من طرفين من AI إلى الإنسان أو من إنسان إلى AI وسيكون هناك الخلافات المهنية سيحدث ذلك. النهج الكسول هو الإذعان دائمًا للإنسان. قد لا يكون هذا هو النهج الأنسب. قد يكون الذكاء الاصطناعي هو الخيار الأفضل. أو قد تكون إحدى القواعد الأخرى المذكورة أعلاه طريقة أسلم.

هناك هذا الخط الحكيم الذي يتكرر في كثير من الأحيان أنه يجب علينا جميعًا أن نكون قادرين بشكل عام على الموافقة على الاختلاف ، على الرغم من أنه عندما يتعلق الأمر بالأسلاك ، يجب أحيانًا حل الخلاف بشكل لا لبس فيه وإلا فإن الأمر المطروح سيؤدي إلى كارثة لا توصف. لا يمكننا أن ندع الخلاف يذبل على الكرمة. قد يكون الوقت جوهريًا وقد تكون الأرواح على المحك.

هناك مطلب واضح لبعض الوسائل الحكيمة لحل الخلافات حتى لو لم يكن ذلك بالضرورة متفقًا عليه ، بما في ذلك عندما لا يرى الذكاء الاصطناعي والإنسان في الحلقة وجهاً لوجه ولا من بايت إلى بايت.

أنا على ثقة من أنك لن تتعارض مع هذا الخلاف المقبول تمامًا.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- اختلف الطيار ومساعده قبل الإقلاع واختاروا فجأة سيارة أجرة العودة إلى المحطة وانطلقوا بطرق منفصلة /