أخلاقيات الذكاء الاصطناعي تثير غضبًا حول ارتفاع متلازمة البطاطا الساخنة التي يتم توظيفها من قبل صناع الذكاء الاصطناعي في محاولة على ما يبدو لتجنب المساءلة عن الأنظمة الذاتية التي تقرر حياتهم

نعلم جميعًا أنه من المفترض أن تتأكد من أنك لن ينتهي بك الأمر مع البطاطا الساخنة التي يضرب بها المثل.

يبدو أن مناورة البطاطا الساخنة ترجع جذورها إلى أواخر القرن التاسع عشر على الأقل عندما كانت لعبة الردهة التي تتضمن شموعًا مضاءة نوعًا ما تتدحرج. عادة ما يجلس الناس في سلسلة من الكراسي الخشبية التي كانت متجاورة نسبيًا مع بعضها البعض ويلعبون لعبة مثيرة تمامًا في تلك الحقبة. سيتم تسليم شمعة مضاءة من شخص لآخر من قبل اللاعبين وتمثل ما اخترناه لاحقًا على أنه تسليم بطاطا ساخنة.

كان من المعتاد أن يُطلب من كل شخص التحدث بصوت عالٍ قافية شعبية قبل أن يتمكن من المرور على طول الشمعة المشتعلة تدريجياً. يبدو أن القافية كانت على النحو التالي:

"جاك على قيد الحياة ومن المرجح أن يعيش ؛

إذا مات في يدك ، فلديك تنازل ".

من المفترض أن يسمح هذا القافية للشمعة بقليل من الوقت لمواصلة الاحتراق نحو نهايتها النهائية. كل من علق بالشمعة التي بحوزته عند الانطفاء الطبيعي في النهاية هو الشخص الذي خسر المباراة (لعبة الكلمات!).

وفقًا للكلمات الموضحة في القافية ، كان على الخاسر أن يدفع "خسارة" وبالتالي كان عليه عادةً الخروج من أي جولات أخرى من اللعبة. يمكن بعد ذلك دمج هذا مع ما نعتبره اليوم كراسي موسيقية يومية ، بحيث لا يشارك الشخص الذي خسر الجولة في الجولات اللاحقة (كما لو أن الموسيقى توقفت ولم يتمكنوا من الحصول على مقعد متاح). في النهاية ، سيتبقى شخصان فقط يجتازان الشمعة المضاءة ويقولان القافية ، حتى يتم تحديد الفائز النهائي في الإطفاء النهائي.

قد تتساءل لماذا لم نعد نلعب هذه اللعبة بشمعة مضاءة ، ولماذا نشير بدلاً من ذلك إلى هذه اللعبة على أنها بطاطا ساخنة بدلاً من تصويرها على أنها مخطط "شمعة مضاءة". توصل الباحثون إلى الكثير من النظريات حول كيفية حدوث ذلك تدريجيًا. يبدو التاريخ غائما ومترددا بشأن كيفية تطور الأشياء في هذه المسألة. أفترض أننا يمكن أن نشعر بالارتياح لأن الشموع المضاءة لا تُستخدم عادة بهذا الشكل لأن احتمالية انحراف شيء ما بشكل واضح ستبدو مقلقة للغاية (شخص ما يسقط الشمعة ويشعل النار ، أو يحترق شخص ما بالشمعة عند تسليمه. من لاعب آخر ، وما إلى ذلك).

فيما يتعلق بالبطاطس الساخنة كبديل محتمل للشمعة المضاءة ، يمكنك القول بشكل عام أن البطاطس ستكون أكثر أمانًا إلى حد ما بشكل عام. لا لهب مفتوح. لا تذوب الشمع. الأساس المحتمل لاستخدام البطاطس في هذا السياق هو أنه من المعروف أنها تحتفظ بالحرارة بسهولة بمجرد تسخينها. يمكنك تمرير البطاطس حولها وستظل ساخنة لفترة من الوقت. يفترض المرء أن تحديد متى لم تعد البطاطا الساخنة ساخنة وبدلاً من ذلك يتم تصنيفها على أنها باردة سيكون اقتراحًا مثيرًا للجدل.

بطبيعة الحال ، فإن فكرة البطاطا الساخنة التي يضرب بها المثل هو اعتبار قائم بذاته في هذه الأيام. أي شيء يتم تصنيفه أو تصنيفه على أنه بطاطس ساخنة عادة ما يكون ذا جودة عالية. أنت لا تريد أن تمسك بطاطا ساخنة. تريد التأكد من انتقاله إلى مكان آخر. إلى حد ما ، قد لا تكون منزعجًا بشكل مفرط بشأن المكان الذي تذهب إليه ، ببساطة لأنه لم يعد في حوزتك.

قد تبدو قاسيًا جدًا إذا سلمت حبة بطاطا ساخنة إلى صديق عزيز أو أحد معارفه. هذا يبدو تماما من نوع ما. ربما تجد شخصًا آخر أو مكانًا آخر لوضع تلك البطاطا الساخنة ، إذا كان بإمكانك فعل ذلك. قد تكون الخطوة اليائسة هي إجبار البطاطا الساخنة على زميل ودود ، ولكن نأمل أن يتم ذلك فقط كملاذ أخير.

الجانب الآخر من هذه العملة هو أنك قد تسعد بتسليم حبة بطاطا ساخنة إلى شخص لا تحبه أو تسعى للانتقام منه. بالتأكيد ، يمكن أن تكون البطاطا الساخنة في متناول اليد تقريبًا إذا كنت تهدف إلى تقويض شخص تعامل معك بشكل سيئ. دعهم يكتشفون ما يجب فعله بشأن البطاطس الساخنة. بئس المصير إلى البطاطا وأسوأ حظ للشخص الذي وسمتها به.

في سيناريو البطاطا الساخنة الذي يشمل شخصين فقط ، هناك احتمال لخلاف سريع ذهابًا وإيابًا بشأن الشخص الذي يحمل العنصر البغيض وغير المرغوب فيه. على سبيل المثال ، أسلمك البطاطا الساخنة ، وأعودتها إلي على عجل. بافتراض أننا لسنا بحاجة إلى الإعلان عن قافية الحضانة بين كل عملية تسليم ، يمكننا إلى حد كبير تمرير البطاطس بالسرعة التي تسمح لنا بها أذرعنا بالقيام بذلك.

قد تكون فضوليًا لمعرفة سبب اختياري الغوص بعمق في البطاطا الساخنة الموقرة والتي كثيرًا ما يُستشهد بها.

وإليك السبب.

تبين أن غطاء البطاطس الساخن يستخدم بشكل متزايد في مجال الذكاء الاصطناعي (AI).

معظم الناس لا يعرفون شيئًا عنها. لم يسمعوا به من قبل إنهم غير مدركين تمامًا لما هو عليه. حتى العديد من مطوري الذكاء الاصطناعي لا يدركون الأمر. ومع ذلك ، فهو موجود ويبدو أنه يتم استخدامه في أماكن مشكوك فيها حقًا ، لا سيما الحالات التي تنطوي على ظروف الحياة أو الموت.

أشير إلى هذا باسم AI متلازمة البطاطا الحارة.

هناك الكثير من التداعيات الخطيرة الكامنة وراء هذه المتلازمة ونحتاج إلى التأكد من وضع حدود التفكير الخاصة بأخلاقيات الذكاء الاصطناعي والتفكير فيما يجب القيام به. هناك اعتبارات أخلاقية واقعية. لا بد أن تكون هناك تداعيات قانونية ملحوظة أيضًا (والتي لم تصل بعد إلى مستوى الرؤية المجتمعية ، على الرغم من أنني أتوقع أنها ستحدث قريبًا). للاطلاع على تغطيتي المستمرة والواسعة لأخلاقيات الذكاء الاصطناعي ، والذكاء الاصطناعي الأخلاقي ، وقضايا الذكاء الاصطناعي القانوني ، انظر الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

دعونا نفك حزم متلازمة البطاطا الحارة بالذكاء الاصطناعي.

تخيل نظام ذكاء اصطناعي يعمل بشكل مشترك مع الإنسان. يتحكم الذكاء الاصطناعي والبشر في بعض الأنشطة الجارية بحيث يكون الإنسان في بعض الأحيان مسيطرًا بينما في أوقات أخرى يكون الذكاء الاصطناعي هو المسيطر. قد يتم ذلك في البداية بطريقة يجب أن نقولها بطريقة حسنة السلوك أو معقولة. لأسباب مختلفة ، والتي سنتطرق إليها مؤقتًا ، قد يتأكد الذكاء الاصطناعي من الناحية الحسابية من أن عنصر التحكم يجب أن يتم نقله بسرعة إلى الإنسان.

هذا هو بطاطا ساخنة التي تهدد الحياة في العالم الحقيقي بدلاً من أن تكون مجرد لعبة تعليمية للأطفال.

تكمن مشكلة الانتقال السريع للسيطرة من الذكاء الاصطناعي إلى الإنسان في أنه يمكن القيام بذلك بطريقة معقولة أو يمكن تحقيقه بطريقة غير معقولة إلى حد ما. إذا لم يكن الإنسان يتوقع التسليم بشكل خاص ، فمن المحتمل أن تكون هذه مشكلة. إذا كان الإنسان على ما يرام بشكل عام مع تمرير السيطرة ، فإن الظروف الكامنة وراء التسليم يمكن أن تكون شاقة عندما لا يُمنح الإنسان وقتًا كافيًا أو وعيًا غير كافٍ بسبب تغذيته بالقوة في أيدي البشر.

سوف نستكشف أمثلة حول كيف يمكن أن ينتج عن ذلك خطر الحياة أو الموت للإنسان وربما البشر الآخرين القريبين. إنها أشياء خطيرة. فترة ، نقطة.

قبل الدخول في المزيد من الجوانب اللحمية للبرية والاعتبارات الصوفية الكامنة وراء متلازمة البطاطا الحارة بالذكاء الاصطناعي، فلنضع بعض الأساسيات الإضافية حول الموضوعات الأساسية للغاية. نحن بحاجة إلى الغوص لفترة وجيزة في أخلاقيات الذكاء الاصطناعي وخاصة ظهور التعلم الآلي (ML) والتعلم العميق (DL).

قد تكون مدركًا بشكل غامض أن أحد أعلى الأصوات هذه الأيام في مجال الذكاء الاصطناعي وحتى خارج مجال الذكاء الاصطناعي يتكون من المطالبة بمظهر أشبه بالذكاء الاصطناعي الأخلاقي. دعونا نلقي نظرة على معنى الإشارة إلى أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي. علاوة على ذلك ، سوف نستكشف ما أعنيه عندما أتحدث عن التعلم الآلي والتعلم العميق.

يتكون جزء أو جزء معين من أخلاقيات الذكاء الاصطناعي الذي حظي بالكثير من اهتمام وسائل الإعلام من الذكاء الاصطناعي الذي يُظهر تحيزات وأوجه عدم مساواة غير مرغوب فيها. قد تدرك أنه عندما بدأ العصر الأخير للذكاء الاصطناعي ، كان هناك اندفاع هائل من الحماس لما يسميه البعض الآن منظمة العفو الدولية من أجل الخير. لسوء الحظ ، في أعقاب تلك الإثارة المتدفقة ، بدأنا نشهد منظمة العفو الدولية للسوء. على سبيل المثال ، تم الكشف عن العديد من أنظمة التعرف على الوجه القائمة على الذكاء الاصطناعي على أنها تحتوي على تحيزات عنصرية وتحيزات بين الجنسين ، والتي ناقشتها في الرابط هنا.

جهود للقتال ضد منظمة العفو الدولية للسوء بنشاط جارية. إلى جانب صاخبة السياسات مساعي كبح جماح المخالفات ، هناك أيضًا دافع جوهري نحو تبني أخلاقيات الذكاء الاصطناعي لتصحيح ضعف الذكاء الاصطناعي. الفكرة هي أننا يجب أن نتبنى ونصادق على المبادئ الأخلاقية الرئيسية للذكاء الاصطناعي لتطوير الذكاء الاصطناعي وإدخاله في الميدان لتقويض منظمة العفو الدولية للسوء والتبشير والترويج في الوقت نفسه لما هو مفضل منظمة العفو الدولية من أجل الخير.

فيما يتعلق بمفهوم ذي صلة ، أنا من المدافعين عن محاولة استخدام الذكاء الاصطناعي كجزء من حل مشاكل الذكاء الاصطناعي ، ومكافحة النيران بالنار بهذه الطريقة من التفكير. قد نقوم على سبيل المثال بتضمين المكونات الأخلاقية للذكاء الاصطناعي في نظام ذكاء اصطناعي يراقب كيفية قيام بقية الذكاء الاصطناعي بالأشياء ، وبالتالي من المحتمل أن نكتشف في الوقت الفعلي أي جهود تمييزية ، انظر نقاشي في الرابط هنا. يمكن أن يكون لدينا أيضًا نظام ذكاء اصطناعي منفصل يعمل كنوع من أجهزة مراقبة أخلاقيات الذكاء الاصطناعي. يعمل نظام الذكاء الاصطناعي كمشرف لتتبع واكتشاف متى يدخل ذكاء اصطناعي آخر في الهاوية غير الأخلاقية (انظر تحليلي لهذه القدرات في الرابط هنا).

بعد قليل ، سوف أشارككم بعض المبادئ الشاملة التي تقوم عليها أخلاقيات الذكاء الاصطناعي. هناك الكثير من هذه الأنواع من القوائم التي تطفو هنا وهناك. يمكنك القول أنه لا توجد حتى الآن قائمة فردية للنداء والتوافق العالميين. هذه هي الأخبار المؤسفة. الخبر السار هو أن هناك على الأقل قوائم أخلاقيات الذكاء الاصطناعي متاحة بسهولة وتميل إلى أن تكون متشابهة تمامًا. أخيرًا ، يشير هذا إلى أنه من خلال شكل من أشكال التقارب المنطقي ، فإننا نجد طريقنا نحو قواسم مشتركة عامة لما تتكون منه أخلاقيات الذكاء الاصطناعي.

أولاً ، دعنا نغطي بإيجاز بعض المبادئ الأخلاقية الشاملة للذكاء الاصطناعي لتوضيح ما يجب أن يكون اعتبارًا حيويًا لأي شخص يقوم بصياغة أو استخدام أو استخدام الذكاء الاصطناعي.

على سبيل المثال ، كما صرح الفاتيكان في دعوة روما لأخلاقيات الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • الشفافية: من حيث المبدأ ، يجب أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير
  • إدراجه: يجب أن تؤخذ احتياجات جميع البشر في الاعتبار حتى يستفيد الجميع ، ويمكن لجميع الأفراد توفير أفضل الظروف الممكنة للتعبير عن أنفسهم وتطويرهم.
  • المسئولية: يجب على أولئك الذين يصممون وينشرون استخدام الذكاء الاصطناعي أن يتابعوا المسؤولية والشفافية
  • النزاهة: لا تخلق أو تتصرف على أساس التحيز ، وبالتالي الحفاظ على العدالة والكرامة الإنسانية
  • الموثوقية: يجب أن تكون أنظمة الذكاء الاصطناعي قادرة على العمل بشكل موثوق
  • الأمن والخصوصية: يجب أن تعمل أنظمة الذكاء الاصطناعي بشكل آمن وتحترم خصوصية المستخدمين.

كما صرحت وزارة الدفاع الأمريكية (DoD) في المبادئ الأخلاقية لاستخدام الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • مسؤول: سوف يمارس موظفو وزارة الدفاع مستويات مناسبة من الحكم والرعاية مع الاستمرار في المسؤولية عن تطوير ونشر واستخدام قدرات الذكاء الاصطناعي.
  • العادل: ستتخذ الإدارة خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي.
  • تعقبها: سيتم تطوير ونشر قدرات الذكاء الاصطناعي في الإدارة بحيث يمتلك الموظفون المعنيون فهمًا مناسبًا للتكنولوجيا وعمليات التطوير والأساليب التشغيلية المطبقة على قدرات الذكاء الاصطناعي ، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق ومصادر البيانات وإجراءات التصميم والتوثيق.
  • موثوق: سيكون لإمكانيات الذكاء الاصطناعي في الإدارة استخدامات واضحة ومحددة جيدًا ، وستخضع سلامة وأمن وفعالية هذه القدرات للاختبار والتأكيد ضمن تلك الاستخدامات المحددة عبر دورات حياتها بأكملها.
  • للحكم: ستقوم الإدارة بتصميم وهندسة قدرات الذكاء الاصطناعي للوفاء بالوظائف المقصودة مع امتلاك القدرة على اكتشاف وتجنب العواقب غير المقصودة ، والقدرة على فك أو إلغاء تنشيط الأنظمة المنشورة التي تظهر سلوكًا غير مقصود.

لقد ناقشت أيضًا العديد من التحليلات الجماعية للمبادئ الأخلاقية للذكاء الاصطناعي ، بما في ذلك تغطية مجموعة ابتكرها باحثون قاموا بفحص وتكثيف جوهر العديد من مبادئ أخلاقيات الذكاء الاصطناعي الوطنية والدولية في ورقة بعنوان "المشهد العالمي لإرشادات أخلاقيات الذكاء الاصطناعي" (تم نشره) في الطبيعة) ، وأن تغطيتي تستكشف في الرابط هنا، مما أدى إلى هذه القائمة الأساسية:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

كما قد تخمن بشكل مباشر ، فإن محاولة تحديد التفاصيل التي تقوم عليها هذه المبادئ قد يكون صعبًا للغاية. والأكثر من ذلك ، فإن الجهد المبذول لتحويل هذه المبادئ العريضة إلى شيء ملموس ومفصل تمامًا بما يكفي لاستخدامه عند صياغة أنظمة الذكاء الاصطناعي يعد أيضًا من الصعب كسرها. من السهل بشكل عام القيام ببعض التلويح اليدوي حول ماهية مبادئ أخلاقيات الذكاء الاصطناعي وكيف ينبغي مراعاتها بشكل عام ، في حين أنه وضع أكثر تعقيدًا في ترميز الذكاء الاصطناعي يجب أن يكون المطاط الحقيقي الذي يلبي الطريق.

يجب استخدام مبادئ أخلاقيات الذكاء الاصطناعي من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف. يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. كما ذكرنا سابقًا ، فإن الأمر يتطلب قرية لابتكار واستخدام الذكاء الاصطناعي ، ومن أجل ذلك يجب أن تكون القرية بأكملها على دراية بمبادئ أخلاقيات الذكاء الاصطناعي والالتزام بها.

دعنا نتأكد أيضًا من أننا على نفس الصفحة حول طبيعة الذكاء الاصطناعي اليوم.

لا يوجد أي ذكاء اصطناعي واعي اليوم. ليس لدينا هذا. لا نعرف ما إذا كان الذكاء الاصطناعي الواعي سيكون ممكنًا. لا أحد يستطيع أن يتنبأ بجدارة بما إذا كنا سنحقق ذكاءً اصطناعيًا واعيًا ، ولا ما إذا كان الذكاء الاصطناعي الواعي سينشأ بطريقة ما بأعجوبة تلقائيًا في شكل مستعر أعظم معرفي حسابي (يشار إليه عادةً باسم التفرد ، انظر تغطيتي في الرابط هنا).

نوع الذكاء الاصطناعي الذي أركز عليه يتكون من الذكاء الاصطناعي غير الواعي الذي لدينا اليوم. إذا أردنا التكهن بشدة حساس الذكاء الاصطناعي ، يمكن أن تسير هذه المناقشة في اتجاه مختلف جذريًا. من المفترض أن يكون الذكاء الاصطناعي الواعي ذا جودة بشرية. ستحتاج إلى اعتبار أن الذكاء الاصطناعي الواعي هو المكافئ المعرفي للإنسان. أكثر من ذلك ، نظرًا لأن البعض يتوقع أن يكون لدينا ذكاء اصطناعي فائق الذكاء ، فمن المتصور أن مثل هذا الذكاء الاصطناعي يمكن أن يصبح أكثر ذكاءً من البشر (لاستكشافي للذكاء الاصطناعي الفائق كإمكانية ، انظر التغطية هنا).

دعونا نحافظ على الأمور أكثر واقعية ونفكر في الذكاء الاصطناعي غير الحسابي اليوم.

ندرك أن الذكاء الاصطناعي اليوم غير قادر على "التفكير" بأي شكل من الأشكال على قدم المساواة مع التفكير البشري. عندما تتفاعل مع Alexa أو Siri ، قد تبدو قدرات المحادثة شبيهة بالقدرات البشرية ، لكن الحقيقة هي أنها حسابية وتفتقر إلى الإدراك البشري. استفاد العصر الأخير من الذكاء الاصطناعي بشكل مكثف من التعلم الآلي (ML) والتعلم العميق (DL) ، مما يعزز مطابقة الأنماط الحسابية. وقد أدى ذلك إلى ظهور أنظمة ذكاء اصطناعي تبدو وكأنها ميول شبيهة بالإنسان. وفي الوقت نفسه ، لا يوجد أي ذكاء اصطناعي اليوم يشبه الفطرة السليمة وليس لديه أي من التعجب المعرفي للتفكير البشري القوي.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين يتخذون نمطًا بناءً على القرارات قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق خفية ولكنها مهمة. سيحاول التعلم الآلي أو مطابقة الأنماط الحسابية للتعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة المصممة بالذكاء الاصطناعي في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة في ML / DL من الصعب اكتشاف التحيزات الخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا أكثر تعقيدًا مما قد يبدو. توجد فرصة قوية أنه حتى مع إجراء اختبارات مكثفة نسبيًا ، لا تزال هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

يمكنك إلى حد ما استخدام القول المأثور الشهير أو سيئ السمعة من القمامة في القمامة. الشيء هو ، هذا أقرب إلى التحيزات - التي يتم غرسها بشكل خبيث على أنها تحيزات مغمورة داخل الذكاء الاصطناعي. تصبح عملية اتخاذ القرار الخوارزمية (ADM) للذكاء الاصطناعي بشكل بديهي محملة بعدم المساواة.

غير جيد.

دعنا نعود إلى تركيزنا على البطاطا الساخنة واستخدامها الكارثي المحتمل في الذكاء الاصطناعي. هناك أيضًا شيطانية يمكن أن تكمن في حيلة البطاطا الساخنة أيضًا.

كخلاصة سريعة حول مظاهر الذكاء الاصطناعي لمناورة البطاطا الساخنة:

  • يعمل الذكاء الاصطناعي والإنسان في الحلقة معًا في مهمة معينة
  • يتحكم الذكاء الاصطناعي في بعض الأوقات
  • يتحكم الإنسان في الحلقة في بعض الوقت
  • هناك شكل من أشكال بروتوكول التسليم بين الذكاء الاصطناعي والإنسان
  • قد يكون التسليم مرئيًا للغاية ، أو قد يكون دقيقًا ومخفيًا تقريبًا
  • هذا كله عادة في سياق الوقت الفعلي (شيء ما قيد التنفيذ)

ينصب التركيز الأساسي هنا على عندما يكون التسليم في الأساس عبارة عن بطاطس ساخنة ويختار الذكاء الاصطناعي تسليم التحكم فجأة إلى الإنسان. يرجى ملاحظة أنني سأغطي لاحقًا هنا الجانب الآخر ، ألا وهو التحكم في تسليم الإنسان للذكاء الاصطناعي كبطاطا ساخنة.

أولاً ، ضع في اعتبارك ما يمكن أن يحدث عندما يقوم الذكاء الاصطناعي بتسليم البطاطا الساخنة إلى إنسان في الحلقة.

سأشير إلى الإنسان باعتباره الإنسان في الحلقة لأنني أقول إن الإنسان هو بالفعل جزء لا يتجزأ من نشاط العمل الجاري. يمكن أن يكون لدينا سيناريوهات أخرى حيث يحصل الإنسان الذي لم يشارك بشكل خاص في النشاط ، وربما يكون غريبًا عن الأمر برمته ، على البطاطا الساخنة من قبل الذكاء الاصطناعي ، لذلك ضع في اعتبارك أن هناك نكهات أخرى من هذه البيئة موجودة.

إذا كنت أعطيك بطاطا ساخنة وأردت أن أفعل ذلك بطريقة معقولة ، فربما أنبهك إلى أنني سأقوم بتسليم الأشياء إليك. علاوة على ذلك ، سأحاول القيام بذلك إذا كنت أعتقد حقًا أن امتلاكك للبطاطا الساخنة أفضل بشكل عام من امتلاكها. سأحسب عقليًا ما إذا كان يجب أن تحصل عليه أو ما إذا كان يجب علي الاستمرار فيه.

تخيل لعبة كرة سلة. أنت وأنا في نفس الفريق. نأمل أن نعمل معًا لمحاولة الفوز بالمباراة. لم يتبق سوى بضع ثوانٍ على مدار الساعة ونحتاج بشدة إلى التسجيل وإلا سنخسر المباراة. أستعد لأخذ اللقطة الأخيرة. هل يجب أن أفعل ذلك ، أم هل يجب أن أمرر الكرة إليك وأخذت آخر تسديدة؟

إذا كنت لاعب كرة سلة أفضل ولدي فرصة أكبر لإسقاط الكرة ، فربما يجب أن أحافظ على كرة السلة وأحاول التسديد. إذا كنت لاعب كرة سلة أفضل مني ، فمن المحتمل أن أمرر الكرة إليك وأسمح لك بالتسديد. تظهر اعتبارات أخرى في المقدمة مثل أي منا في وضع أفضل في الملعب لأخذ اللقطة ، بالإضافة إلى ما إذا كان أحدنا منهكًا لأن اللعبة أوشكت على الانتهاء وقد تكون مهترئة وغير متكافئة إطلاق النار عليهم. إلخ.

مع كل هذه العوامل في خضم اللحظة الصعبة ، أحتاج إلى تقرير ما إذا كنت سأحتفظ بالكرة أم أمررها إليك.

أدرك جيدًا أن الساعة في هذا السيناريو أمر بالغ الأهمية. أنت وأنا نواجه استجابة سريعة للغاية. اللعبة كلها الآن على المحك. بمجرد نفاد الوقت ، إما أن نكون قد فزنا لأن أحدنا قام بالتصويب ، أو خسرنا لأننا لم نغرقها. قد أكون البطل إذا أغرقت السلة. أو يمكن أن تكون البطل إذا مررت الكرة إليك وأغرقتها.

هناك جانب الماعز أو الجوانب السلبية لهذا أيضًا. إذا احتفظت بالكرة وفقدت الكرة ، فقد يتهمني الجميع بأنني العنزة أو خذل الفريق بأكمله. من ناحية أخرى ، إذا قمت بتمرير الكرة إليك وفقدت التسديدة ، فأنت تصبح العنزة. قد يكون هذا غير عادل تمامًا بالنسبة لك لأنني أجبرتك على أن تكون آخر مطلق النار وأخذ اللقطة الأخيرة.

ستعرف بالتأكيد أنني وضعتك في هذا الموقف المنفر. وعلى الرغم من أنه يمكن للجميع رؤيتي أفعل ذلك ، إلا أنهم ملزمون بالتركيز فقط على آخر شخص حصل على الكرة. من المحتمل أن أتزلج مجانا. لن يتذكر أحد أنني مررت لك الكرة في اللحظة الأخيرة. سيتذكرون فقط أنك استحوذت على الكرة وخسرت المباراة لأنك لم تسدد.

حسنًا ، لقد مررت الكرة إليك.

لماذا فعلت ذلك؟

لا توجد طريقة سهلة لتحديد هذا.

قد تكون نواياي الحقيقية أنني لم أرغب في أن أكون ماعزًا ، ولذا اخترت أن أضع كل الضغط عليك. عندما سُئلت عن سبب تمرير الكرة ، كان بإمكاني أن أدعي أنني فعلت ذلك لأنني اعتقدت أنك أفضل من تصويب الكرة مني (لكن ، دعنا نتظاهر بأنني لا أصدق ذلك على الإطلاق). أو ظننت أنك في وضع أفضل مما كنت عليه (دعنا نتظاهر بأنني لم أفكر في ذلك أيضًا). لا أحد يعرف أبدًا أنني كنت في الواقع أحاول فقط تجنب الوقوع في البطاطا الساخنة.

من وجهة النظر الخارجية للأشياء ، لا يمكن لأحد أن يميز بسهولة مبرراتي الحقيقية لتمرير الكرة إليك. ربما فعلت ذلك ببراءة لأنني اعتقدت أنك أفضل لاعب. هذه زاوية واحدة. ربما فعلت ذلك لأنني لم أرغب في أن يناديني الجميع بالخاسر لربما فاتني التسديدة ، وبالتالي حصلت على الكرة لك واعتقدت أنها كانت مصدر ارتياح كبير بالنسبة لي. ما إذا كنت أهتم بك حقًا هو أمر مختلف تمامًا.

نحن الآن قادرون على إضافة بعض التفاصيل الإضافية إلى البطاطا الساخنة المتعلقة بالذكاء الاصطناعي:

  • يختار الذكاء الاصطناعي منح التحكم للإنسان في الحلقة في اللحظة الأخيرة
  • قد تكون اللحظة الأخيرة بالفعل أبعد بكثير من أي عمل يمكن أن يحياه الإنسان
  • يتحكم الإنسان في الحلقة ولكنه خطأ إلى حد ما بسبب توقيت التسليم

فكر في هذا للحظة.

لنفترض أن نظامًا للذكاء الاصطناعي وإنسانًا في الحلقة يعملان معًا في مهمة في الوقت الفعلي تتضمن تشغيل آلة كبيرة الحجم في مصنع. يكتشف الذكاء الاصطناعي أن الماكينة تتعثر. بدلاً من استمرار احتفاظ الذكاء الاصطناعي بالسيطرة ، سلم الذكاء الاصطناعي السيطرة فجأة إلى الإنسان. تسير الآلات في هذا المصنع بسرعة نحو الفوضى الخالصة ولا يوجد وقت للإنسان لاتخاذ الإجراءات التصحيحية.

لقد سلمت منظمة العفو الدولية البطاطا الساخنة إلى الإنسان في الحلقة وألحقت الإنسان بالبطاطا الساخنة الحقيقية بحيث لم يعد من الممكن إنسانيًا التعامل معها. علامة ، أنت عليه ، يذهب إلى الخط القديم عند لعب ألعاب العلامة عندما كان طفلاً. يجب أن نقول الإنسان الموسومة بالفوضى.

تمامًا مثل مثالي عن لعبة كرة السلة.

لماذا قام الذكاء الاصطناعي بعملية التسليم؟

حسنًا ، على عكس ما يحدث عندما يسلم الإنسان كرة السلة فجأة ثم يقوم ببعض التلويح اليدوي الجامح حول سبب قيامهم بذلك ، يمكننا عادةً فحص برمجة الذكاء الاصطناعي ومعرفة ما أدى إلى قيام الذكاء الاصطناعي بهذا النوع من تسليم البطاطا الساخنة.

ربما يكون مطور الذكاء الاصطناعي قد قرر مسبقًا أنه عندما يدخل الذكاء الاصطناعي في مأزق سيئ حقًا ، يجب على الذكاء الاصطناعي المضي قدمًا في منح التحكم للإنسان في الحلقة. يبدو هذا منطقيًا ومعقولًا تمامًا. قد يكون الإنسان "اللاعب الأفضل" في الميدان. يمكن للبشر استخدام قدراتهم المعرفية لحل أي مشكلة في متناول اليد. من المحتمل أن يكون الذكاء الاصطناعي قد وصل إلى حدود برمجته ولا يوجد شيء بناء آخر يمكنه القيام به في هذا الموقف.

إذا كانت منظمة العفو الدولية قد نفذت عملية التسليم قبل دقيقة واحدة من انتهاء الوقت المتبقي قبل تشغيل الماكينة ، فربما تكون دقيقة واحدة طويلة بما يكفي بحيث يتمكن الإنسان في الحلقة من تصحيح الأمور. لنفترض أن الذكاء الاصطناعي قام بعملية التسليم قبل ثلاث ثوانٍ متبقية. هل تعتقد أن الإنسان يمكن أن يتفاعل في هذا الإطار الزمني؟ من غير المرجح. على أي حال ، فقط لجعل الأمور أقل تشويشًا ، افترض أن التسليم إلى الإنسان في الحلقة حدث مع بقاء بضع نانو ثانية من الثانية (النانوثانية هي جزء من المليار من الثانية ، والتي بالمقارنة العين بطيئة طولها 300 مللي ثانية).

هل يمكن لإنسان في الحلقة أن يتفاعل بشكل كافٍ إذا سلم الذكاء الاصطناعي البطاطا الساخنة مع مجرد ثوانٍ صغيرة متبقية للقيام بأي إجراء صريح؟

رقم

التسليم هو أكثر من الباطل مما قد يبدو لولا ذلك.

في الواقع ، لن يجدي التسليم أي فائدة عندما يتعلق الأمر بالمأزق الرهيب. لقد دفع الذكاء الاصطناعي الإنسان ليصبح ماعزًا.

لا يفكر بعض مطوري الذكاء الاصطناعي في هذا الأمر عندما يبتكرون الذكاء الاصطناعي الخاص بهم. إنهم (خطأ) بسعادة لا يأخذون في الحسبان أن الوقت عامل حاسم. كل ما يفعلونه هو اختيار برمجة التسليم عندما تصبح الأمور صعبة. عندما لا يتبقى شيء يمكن للذكاء الاصطناعي القيام به بشكل بناء ، قم برمي الكرة للاعب البشري.

قد يفشل مطورو الذكاء الاصطناعي في التفكير في هذا الأمر في وقت ترميز الذكاء الاصطناعي ، وغالبًا ما يفشلون مرتين بفشلهم في إجراء الاختبار الذي يسلط الضوء على هذا الأمر. كل ما أظهرته اختباراتهم هو أن الذكاء الاصطناعي قام "بإخلاص" بعملية تسليم عندما تم الوصول إلى حدود الذكاء الاصطناعي. Voila ، يُفترض أن يكون الذكاء الاصطناعي جيدًا وجاهزًا للانطلاق. لم يتضمن الاختبار إنسانًا حقيقيًا تم وضعه في هذا الوضع المستحيل الذي لا يحسد عليه. لم تكن هناك عملية اختبار مناسبة للإنسان في الحلقة ربما كانت قد احتجت على أن طرفة عين التسليم هذه في اللحظة الأخيرة ، أو في الواقع بعد اللحظة الأخيرة ، لم تنفعهم كثيرًا أو لم تنفعهم على الإطلاق.

بطبيعة الحال ، فإن بعض مطوري الذكاء الاصطناعي قد فكروا بذكاء في هذا النوع من المأزق ، بحكمة.

بعد التفكير في اللغز ، سوف يشرعون في برمجة الذكاء الاصطناعي ليتصرف بهذه الطريقة ، على أي حال.

لماذا؟

لأنه لا يوجد شيء آخر يفعلونه ، على الأقل في أذهانهم. عندما يفشل كل شيء آخر ، يمكنك التحكم باليد للإنسان. ربما تحدث معجزة. ومع ذلك ، فإن الجوهر هو أن هذا ليس مصدر قلق لمطور الذكاء الاصطناعي ، وهم يمنحون الإنسان الفرصة الأخيرة للتعامل مع الفوضى التي في متناول اليد. مطور الذكاء الاصطناعي يغسل أيديهم مما يحدث بعد ذلك.

أريد أن أوضح أن مطوري الذكاء الاصطناعي ليسوا هم المصممون الوحيدون لتصميمات البطاطا الساخنة هذه. هناك عدد كبير من أصحاب المصلحة الآخرين الذين يأتون إلى طاولة المفاوضات لهذا الغرض. ربما صرح محلل أنظمة قام بتحليل المواصفات والمتطلبات أن هذا هو ما يفترض أن يقوم به الذكاء الاصطناعي. قام مطورو الذكاء الاصطناعي المشاركون بصياغة الذكاء الاصطناعي وفقًا لذلك. ربما يكون مدير مشروع الذكاء الاصطناعي قد ابتكر هذا. ربما يكون المدراء التنفيذيون والإدارة المشرفة على تطوير الذكاء الاصطناعي قد ابتكروا هذا.

قد يكون الجميع طوال دورة حياة تطوير الذكاء الاصطناعي قد استمروا في هذا التصميم نفسه للبطاطا الساخنة. سواء لاحظ أي شخص ذلك ، لا يمكننا الجزم بذلك. إذا لاحظوا ذلك ، فربما تم تصنيفهم على أنهم رافضون وتحويلهم جانبًا. قد يكون قد تم لفت انتباه الآخرين إلى الأمر ، لكنهم لم يفهموا تداعيات ذلك. لقد شعروا أنه كان جزءًا من التفاصيل الفنية لم يكن ضمن نطاقهم.

سأضيف إلى هذه القائمة غير الرسمية من "الأسباب" احتمالًا أكثر خطورة.

أحيانًا ما يتم استخدام متلازمة البطاطا الساخنة لمنظمة العفو الدولية عن قصد لأن أولئك الذين يصنعون الذكاء الاصطناعي أرادوا أن يكون لديهم ادعاءاتهم الحماسية بشأن الإنكار المعقول.

احصل على استعداد لهذا الجزء من الحكاية.

في حالة آلات المصنع التي تتعثر ، لا بد أن يكون هناك الكثير من توجيه أصابع الاتهام حول من هو المسؤول عما حدث. فيما يتعلق بتشغيل الماكينة ، كان لدينا نظام ذكاء اصطناعي يقوم بذلك وكان لدينا إنسان في الحلقة يقوم بذلك. هذان لاعبا كرة السلة لدينا ، مجازيًا.

كانت الساعة تنفد وكانت الآلات على وشك الانطلاق. لنفترض أنك وأنا نعلم أن الذكاء الاصطناعي قام بتسليم المسؤولية إلى الإنسان في الحلقة ، مع عدم وجود وقت كافٍ للإنسان لاتخاذ أي إجراء كافٍ لتصحيح أو تجنب الكارثة. لا أحد آخر يدرك أن هذا ما حدث.

يمكن للشركة التي تصنع الذكاء الاصطناعي على أي حال أن تعلن على الفور أنها ليست مذنبة لأن الإنسان كان يتحكم. وفقًا لسجلاتهم التي لا تشوبها شائبة ، لم يكن الذكاء الاصطناعي مسيطراً في وقت الكابوم. كان الإنسان. لذلك ، من الواضح بشكل جلي أن الإنسان هو المخطئ.

هل شركة الذكاء الاصطناعي تكذب أساسًا عند إصدار هذا التأكيد الصريح؟

لا ، يبدو أنهم يقولون الحقيقة.

عندما سئلوا عما إذا كانوا متأكدين من أن الذكاء الاصطناعي لم يكن مسيطراً ، فإن الشركة ستعلن بصوت عالٍ وبفخر أن الذكاء الاصطناعي لم يكن مسيطراً على الإطلاق. لقد وثقوا دليلاً على هذا التأكيد (على افتراض أن منظمة العفو الدولية احتفظت بسجل للحادث). في الواقع ، قد يثير المسؤولون التنفيذيون في شركة الذكاء الاصطناعي حواجبهم في حالة من الاشمئزاز من أن يتحدى أي شخص نزاهتهم في هذه النقطة. سيكونون على استعداد لقسم اليمين المقدسة بأن الذكاء الاصطناعي كان ليس تحت السيطرة. كان الإنسان في الحلقة يتحكم.

أنا على ثقة من أنك ترى كيف يمكن أن يكون هذا مضللًا.

نعم ، تم تسليم الإنسان السيطرة. من الناحية النظرية ، كان الإنسان هو المسيطر. لم يعد الذكاء الاصطناعي مسيطراً. لكن الافتقار إلى التوقيت والإخطار المتاحين يجعل هذه المطالبة جوفاء إلى حد كبير.

يكمن جمال هذا ، من وجهة نظر صانع الذكاء الاصطناعي ، في أن قلة هم الذين يمكنهم تحدي الادعاءات المقدمة. قد لا يقوم صانع الذكاء الاصطناعي بنشر سجلات الحادث. قد يؤدي القيام بذلك إلى التخلي عن الوضع المزور. يُقال إن السجلات هي ملكية فكرية (IP) أو خلاف ذلك ذات طبيعة ملكية وسرية. من المحتمل أن تدعي الشركة أنه إذا تم عرض السجلات ، فسيؤدي ذلك إلى إظهار الخلطة السرية للذكاء الاصطناعي الخاص بهم واستنفاد عنوان IP الخاص بهم.

تخيل محنة الإنسان الفقير في الحلقة. إنهم محيرون لأن الجميع يلومهم على ترك الأمور تخرج عن السيطرة. الذكاء الاصطناعي "فعل الشيء الصحيح" وسلم السيطرة إلى الإنسان. ربما كان هذا هو ما قالت المواصفات فعله (مرة أخرى ، على الرغم من أن المواصفات كانت مقصرة في عدم مراعاة عوامل التوقيت والجدوى). السجلات التي لم يتم الإفراج عنها ولكن يُزعم أنها صارمة من قبل صانع الذكاء الاصطناعي تشهد على الحقيقة المطلقة بأن الإنسان قد منح السيطرة من قبل الذكاء الاصطناعي.

يمكنك إعلان هذا على أنه ضربة قاسية مثيرة للشفقة على الإنسان المحير والتي من شبه المؤكد أنها ستسقط.

الاحتمالات هي أنه فقط إذا تم رفع هذا الأمر إلى المحكمة ، فسيتم الكشف عن حقيقة ما حدث. إذا كان البيجل القانونيون الداهية على دراية بهذا النوع من الحفلات ، فسيحاولون الحصول على السجلات بشكل قانوني. سيحتاجون إلى الحصول على شاهد خبير (وهو أمر كنت أفعله من وقت لآخر) لفك تشفير السجلات. قد لا تكون السجلات وحدها كافية. يمكن التلاعب بالسجلات أو تغييرها أو تصميمها عن قصد لعدم عرض التفاصيل بوضوح. على هذا النحو ، قد يلزم الخوض في رمز AI أيضًا.

في غضون ذلك ، طوال هذه العملية المؤلمة والطويلة من الاكتشاف القانوني ، سيبدو الإنسان في الحلقة سيئًا حقًا. كانت وسائل الإعلام تصور الشخص على أنه غير مسؤول ، ويفقد رأسه ، ويفشل في أن يكون مجتهدًا ، ويجب أن يتحمل المسؤولية الكاملة. ربما لأشهر أو سنوات ، خلال هذه العملية ، سيظل هذا الشخص هو الشخص الذي أشار إليه الجميع بإصبع الاتهام. قد لا يتم إزالة الرائحة الكريهة.

ضع في اعتبارك أيضًا أن هذا الظرف نفسه يمكن أن يحدث بسهولة مرة أخرى. ومره اخرى. بافتراض أن صانع الذكاء الاصطناعي لم يغير الذكاء الاصطناعي ، فكلما نشأت حالة مماثلة في اللحظة الأخيرة ، فإن الذكاء الاصطناعي سوف يقوم بهذا التسليم المتبقي. قد يأمل المرء ألا تحدث هذه المواقف بشكل متكرر. في المناسبات النادرة التي تحدث فيها ، لا يزال الإنسان في الحلقة هو الرجل المناسب للسقوط.

إنها خدعة شيطانية.

قد ترغب في الإصرار على أن صانع الذكاء الاصطناعي لم يرتكب أي خطأ. إنهم يقولون الحقيقة. تخلى الذكاء الاصطناعي عن السيطرة. ثم اعتبر الإنسان مسيطرا. تلك هي الحقائق. لا معنى للخلاف عليه.

سواء استيقظ أي شخص وطرح الأسئلة الصعبة ، بالإضافة إلى ما إذا كان صانع الذكاء الاصطناعي يجيب على هذه الأسئلة بأي طريقة مباشرة ، فهذا أمر نادر الحدوث.

الأسئلة تشمل:

  • متى قام الذكاء الاصطناعي بالتسليم إلى الإنسان في الحلقة؟
  • على أي أساس مبرمج قام الذكاء الاصطناعي بعملية التسليم؟
  • هل مُنح الإنسان في الحلقة وقتًا كافيًا لتولي زمام السيطرة؟
  • كيف تم تصميم وابتكار الذكاء الاصطناعي لهذه المآزق؟
  • وهلم جرا.

إلى حد ما ، هذا هو السبب في أن أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي موضوع بالغ الأهمية. تدفعنا مبادئ أخلاقيات الذكاء الاصطناعي إلى توخي اليقظة. يمكن أن ينشغل تقنيو الذكاء الاصطناعي في بعض الأحيان بالتكنولوجيا ، لا سيما تحسين التكنولوجيا الفائقة. إنهم لا يفكرون بالضرورة في التداعيات المجتمعية الأكبر. إن امتلاك عقلية أخلاقيات الذكاء الاصطناعي والقيام بذلك بشكل متكامل لتطوير الذكاء الاصطناعي وإدارته أمر حيوي لإنتاج الذكاء الاصطناعي المناسب ، بما في ذلك (ربما بشكل مفاجئ أو من المفارقات) تقييم كيفية تبني الشركات لأخلاقيات الذكاء الاصطناعي.

إلى جانب استخدام مبادئ أخلاقيات الذكاء الاصطناعي بشكل عام ، هناك سؤال مماثل عما إذا كان ينبغي أن تكون لدينا قوانين تحكم الاستخدامات المختلفة للذكاء الاصطناعي. يجري تداول قوانين جديدة على المستويات الفيدرالية والولائية والمحلية التي تتعلق بنطاق وطبيعة كيفية ابتكار الذكاء الاصطناعي. إن الجهد المبذول لصياغة وسن مثل هذه القوانين هو جهد تدريجي. تُعد أخلاقيات الذكاء الاصطناعي بمثابة حل مؤقت مدروس ، على أقل تقدير ، ومن المؤكد تقريبًا إلى حد ما أن يتم دمجها بشكل مباشر في تلك القوانين الجديدة.

اعلم أن البعض يجادل بقوة بأننا لسنا بحاجة إلى قوانين جديدة تغطي الذكاء الاصطناعي وأن قوانيننا الحالية كافية. في الواقع ، لقد حذروا من أننا إذا قمنا بسن بعض قوانين الذكاء الاصطناعي هذه ، فسوف نقتل الأوزة الذهبية من خلال تقييد التقدم في الذكاء الاصطناعي الذي يقدم مزايا مجتمعية هائلة.

في هذه المرحلة من هذه المناقشة المهمة ، أراهن أنك ترغب في بعض الأمثلة التوضيحية الإضافية التي قد تعرض هذا الموضوع. هناك مجموعة خاصة وشعبية بالتأكيد من الأمثلة القريبة من قلبي. كما ترى ، بصفتي خبيرًا في الذكاء الاصطناعي بما في ذلك التداعيات الأخلاقية والقانونية ، يُطلب مني كثيرًا تحديد أمثلة واقعية تعرض معضلات أخلاقيات الذكاء الاصطناعي بحيث يمكن فهم الطبيعة النظرية إلى حد ما للموضوع بسهولة أكبر. أحد أكثر المجالات إثارة للذكريات التي تقدم بوضوح هذا المأزق الأخلاقي للذكاء الاصطناعي هو ظهور سيارات ذاتية القيادة حقيقية قائمة على الذكاء الاصطناعي. سيكون هذا بمثابة حالة استخدام مفيدة أو نموذجًا لمناقشة مستفيضة حول هذا الموضوع.

إليك إذن سؤال جدير بالملاحظة يستحق التفكير فيه: هل ظهور السيارات ذاتية القيادة الحقيقية القائمة على الذكاء الاصطناعي يسلط الضوء على أي شيء يتعلق بمتلازمة الذكاء الاصطناعي البطاطا الساخنة ، وإذا كان الأمر كذلك ، فما الذي يعرضه هذا؟

اسمح لي بلحظة لفك السؤال.

أولاً ، لاحظ أنه لا يوجد سائق بشري متورط في سيارة حقيقية ذاتية القيادة. ضع في اعتبارك أن السيارات الحقيقية ذاتية القيادة يتم قيادتها عبر نظام قيادة بالذكاء الاصطناعي. ليست هناك حاجة لسائق بشري على عجلة القيادة ، ولا يوجد شرط لقيادة الإنسان للسيارة. لتغطيتي الواسعة والمستمرة للمركبات ذاتية القيادة (AVs) وخاصة السيارات ذاتية القيادة ، انظر الرابط هنا.

أود أن أوضح ما هو المقصود عندما أشير إلى السيارات الحقيقية ذاتية القيادة.

فهم مستويات السيارات ذاتية القيادة

للتوضيح ، السيارات الحقيقية ذاتية القيادة هي تلك التي يقود فيها الذكاء الاصطناعي السيارة بالكامل من تلقاء نفسه ولا توجد أي مساعدة بشرية أثناء مهمة القيادة.

تعتبر هذه المركبات ذاتية القيادة من المستوى 4 والمستوى 5 (انظر الشرح في هذا الرابط هنا) ، في حين أن السيارة التي تتطلب سائقًا بشريًا للمشاركة في جهد القيادة يتم اعتبارها عادةً في المستوى 2 أو المستوى 3. يتم وصف السيارات التي تشارك في مهمة القيادة بأنها شبه مستقلة ، وتحتوي عادةً على مجموعة متنوعة من الوظائف الإضافية المؤتمتة التي يشار إليها باسم ADAS (أنظمة مساعدة السائق المتقدمة).

لا توجد حتى الآن سيارة ذاتية القيادة حقيقية في المستوى الخامس ، ولا نعرف حتى الآن ما إذا كان من الممكن تحقيق ذلك ، ولا كم من الوقت سيستغرق الوصول إليه.

وفي الوقت نفسه ، تحاول جهود المستوى 4 تدريجياً الحصول على بعض الجاذبية من خلال الخضوع لتجارب طرق عامة ضيقة للغاية وانتقائية ، على الرغم من وجود جدل حول ما إذا كان يجب السماح بهذا الاختبار في حد ذاته (نحن جميعًا حيوانات تجارب حياة أو موت في التجربة التي تجري على طرقنا السريعة والطرق الفرعية ، يدعي البعض ، انظر تغطيتي في هذا الرابط هنا).

نظرًا لأن السيارات شبه المستقلة تتطلب سائقًا بشريًا ، فإن اعتماد هذه الأنواع من السيارات لن يكون مختلفًا بشكل ملحوظ عن قيادة المركبات التقليدية ، لذلك لا يوجد الكثير في حد ذاته لتغطية هذه المواضيع (على الرغم من ذلك ، كما سترى في لحظة ، النقاط التالية تنطبق بشكل عام).

بالنسبة للسيارات شبه المستقلة ، من المهم أن يتم تحذير الجمهور بشأن جانب مزعج ظهر مؤخرًا ، أي أنه على الرغم من هؤلاء السائقين البشر الذين يستمرون في نشر مقاطع فيديو لأنفسهم ينامون على عجلة سيارة من المستوى 2 أو المستوى 3 علينا جميعًا أن نتجنب التضليل حتى نصدق أن السائق يمكنه أن يلفت انتباهه عن مهمة القيادة أثناء قيادة سيارة شبه مستقلة.

أنت الطرف المسؤول عن إجراءات القيادة في السيارة ، بغض النظر عن مقدار الأتمتة التي قد يتم قذفها في المستوى 2 أو المستوى 3.

السيارات ذاتية القيادة ومتلازمة البطاطا الحارة بالذكاء الاصطناعي

بالنسبة للمركبات ذاتية القيادة الحقيقية من المستوى 4 والمستوى 5 ، لن يكون هناك سائق بشري يشارك في مهمة القيادة.

سيكون جميع الركاب من الركاب.

تقوم منظمة العفو الدولية بالقيادة.

أحد الجوانب التي يجب مناقشتها على الفور يستلزم حقيقة أن الذكاء الاصطناعي المتضمن في أنظمة قيادة الذكاء الاصطناعي اليوم ليس واعيًا. بعبارة أخرى ، الذكاء الاصطناعي عبارة عن مجموعة من البرمجة والخوارزميات المستندة إلى الكمبيوتر ، وهو بالتأكيد غير قادر على التفكير بنفس الطريقة التي يستطيع بها البشر.

لماذا هذا التركيز الإضافي على الذكاء الاصطناعي ليس واعيا؟

لأنني أريد أن أؤكد أنه عند مناقشة دور نظام القيادة للذكاء الاصطناعي ، فأنا لا أنسب الصفات البشرية للذكاء الاصطناعي. يرجى العلم أن هناك اتجاهًا مستمرًا وخطيرًا هذه الأيام لتجسيد الذكاء الاصطناعي. من حيث الجوهر ، يخصص الناس ذكاءً شبيهاً بالإنسان إلى الذكاء الاصطناعي اليوم ، على الرغم من الحقيقة التي لا يمكن إنكارها والتي لا جدال فيها وهي عدم وجود مثل هذا الذكاء الاصطناعي حتى الآن.

مع هذا التوضيح ، يمكنك أن تتخيل أن نظام القيادة بالذكاء الاصطناعي لن "يعرف" بطريقة أو بأخرى جوانب القيادة. القيادة وكل ما تتطلبه يجب برمجتها كجزء من أجهزة وبرامج السيارة ذاتية القيادة.

دعونا نتعمق في عدد لا يحصى من الجوانب التي تأتي للعب في هذا الموضوع.

أولاً ، من المهم أن ندرك أنه ليست كل سيارات الذكاء الاصطناعي ذاتية القيادة هي نفسها. تتبنى كل شركة تصنيع سيارات وشركة تقنية ذاتية القيادة نهجها في ابتكار سيارات ذاتية القيادة. على هذا النحو ، من الصعب الإدلاء ببيانات شاملة حول ما ستفعله أو لا تفعله أنظمة القيادة بالذكاء الاصطناعي.

علاوة على ذلك ، عندما يذكر أن نظام القيادة بالذكاء الاصطناعي لا يفعل شيئًا معينًا ، يمكن ، لاحقًا ، تجاوز هذا الأمر من قبل المطورين الذين يقومون في الواقع ببرمجة الكمبيوتر للقيام بهذا الشيء بالذات. خطوة بخطوة ، يتم تحسين أنظمة القيادة بالذكاء الاصطناعي وتوسيعها تدريجياً. قد لا يوجد قيد موجود اليوم في تكرار أو إصدار مستقبلي من النظام.

آمل أن يوفر ذلك مجموعة كافية من المحاذير لإبراز ما أنا على وشك ربطه.

بالنسبة للمركبات ذاتية التحكم بالكامل ، قد لا تكون هناك أي فرصة لحدوث تسليم بين الذكاء الاصطناعي والإنسان ، نظرًا لاحتمال عدم وجود أي إنسان في الحلقة للبدء به. يتطلع العديد من صانعي السيارات ذاتية القيادة اليوم إلى إبعاد السائق البشري تمامًا عن مهمة القيادة. لن تحتوي السيارة حتى على عناصر تحكم في القيادة يسهل على الإنسان الوصول إليها. في هذه الحالة ، لن يتمكن السائق البشري ، إذا كان موجودًا ، من المشاركة في مهمة القيادة نظرًا لأنه يفتقر إلى الوصول إلى أي أدوات تحكم في القيادة.

بالنسبة لبعض المركبات ذاتية القيادة ، لا تزال بعض التصاميم تسمح للإنسان أن يكون في الحلقة ، على الرغم من أن الإنسان لا يجب أن يكون متاحًا أو يشارك في عملية القيادة على الإطلاق. وهكذا يمكن للإنسان أن يشارك في القيادة إذا رغب في ذلك. لا يعتمد الذكاء الاصطناعي في أي وقت على الإنسان لأداء أي من مهام القيادة.

في حالة المركبات شبه المستقلة ، هناك علاقة يدا بيد بين السائق البشري والذكاء الاصطناعي. بالنسبة لبعض التصميمات ، يمكن للسائق البشري أن يتولى أدوات التحكم في القيادة كليًا وبشكل أساسي يمنع الذكاء الاصطناعي من المشاركة في القيادة. إذا كان السائق البشري يرغب في إعادة الذكاء الاصطناعي إلى دور القيادة ، فيمكنه القيام بذلك ، على الرغم من أن هذا يجبر الإنسان أحيانًا على التخلي عن أدوات التحكم في القيادة.

شكل آخر من أشكال العمليات شبه المستقلة يستلزم أن يعمل السائق البشري والذكاء الاصطناعي معًا بطريقة جماعية. الذكاء الاصطناعي يقود والإنسان يقود. إنهم يقودون معا. قد يذعن الذكاء الاصطناعي للإنسان. قد يذعن الإنسان للذكاء الاصطناعي.

في بعض المنعطفات ، قد يتأكد نظام القيادة بالذكاء الاصطناعي من الناحية الحسابية من أن السيارة ذاتية القيادة تتجه إلى موقف لا يمكن تحمله وأن السيارة المستقلة ستتحطم.

جانبا ، يدور بعض النقاد يدعون أن السيارات ذاتية القيادة ستكون غير قابلة للكسر ، وهو محض هراء وشيء شائن وخاطئ لتقوله ، انظر تغطيتي في الرابط هنا.

استمرارًا لسيناريو سيارة ذاتية القيادة تتجه نحو تصادم أو اصطدام سيارة ، قد تتم برمجة نظام القيادة بالذكاء الاصطناعي لتسليم أدوات التحكم في القيادة للسائق البشري. إذا كان هناك وقت كافٍ متاح للسائق البشري لاتخاذ إجراء مراوغ ، فقد يكون هذا بالفعل أمرًا معقولًا ومناسبًا للذكاء الاصطناعي للقيام به.

لكن لنفترض أن الذكاء الاصطناعي يقوم بعملية التسليم بجزء من الثانية المتبقية. وقت رد فعل السائق البشري ليس قريبًا من السرعة الكافية للاستجابة بشكل مناسب. بالإضافة إلى ذلك ، إذا كان الإنسان سريعًا بما فيه الكفاية بمعجزة ، فالاحتمالات هي أنه لا توجد إجراءات مراوغة قابلة للتطبيق يمكن القيام بها مع الوقت المحدود المتبقي قبل الانهيار. هذا عبارة عن مضاعفة: (1) وقت غير كافٍ للسائق البشري لاتخاذ إجراء ، (2) وقت غير كافٍ إذا كان الإجراء ممكنًا من قبل السائق البشري ، يمكن تنفيذ الإجراء في الفترة الزمنية المحدودة المتاحة.

بشكل عام ، هذا مشابه لمناقشتي السابقة حول وضع جرس كرة السلة وآلات المصنع التي كانت تدور حول سيناريو هائج.

دعونا نضيف العنصر الشائن إلى هذا.

لا يرغب صانع سيارات أو شركة تكنولوجيا ذاتية القيادة في التعرض لحوادث سيارات مختلفة تحدث في أسطولهم. تمت برمجة نظام القيادة بالذكاء الاصطناعي لإلقاء السيطرة دائمًا على السائق البشري ، بغض النظر عما إذا كان هناك وقت كافٍ للسائق البشري للقيام بأي شيء حيال المأزق. عندما يحدث حادث سيارة من هذا النوع ، فإن شركة صناعة السيارات أو شركة التكنولوجيا ذاتية القيادة قادرة على الإصرار جهارًا على أن السائق البشري كان في وضع التحكم ، في حين أن الذكاء الاصطناعي لم يكن كذلك.

يبدو أن سجلهم الحافل لأنظمة القيادة بالذكاء الاصطناعي كان ممتازًا.

لم يكن نظام القيادة بالذكاء الاصطناعي "مخطئًا" مرة واحدة في حوادث السيارات هذه. دائمًا ما يكون هؤلاء السائقون البشر المرتبون هم الذين لا يبدو أنهم يبقون أعينهم على الطريق. قد نميل إلى ابتلاع هذا الخطأ ونعتقد أن الذكاء الاصطناعي الدقيق من المحتمل ألا يكون مخطئًا على الإطلاق. قد نميل إلى الاعتقاد (بما أننا نعلم بالتجربة) أن السائقين من البشر قذرون ويرتكبون الكثير من أخطاء القيادة. الاستنتاج المنطقي هو أن السائقين البشريين يجب أن يكونوا الجاني المسؤول ، وأن نظام القيادة بالذكاء الاصطناعي بريء تمامًا.

قبل أن ينزعج بعض المدافعين عن القيادة الذاتية من هذا التوصيف ، دعنا نعترف تمامًا بأن السائق البشري قد يكون مخطئًا جدًا وأنه كان يجب عليهم اتخاذ إجراءات عاجلة ، مثل الاستيلاء على عناصر التحكم في القيادة من الذكاء الاصطناعي. هناك أيضًا احتمال أن يكون السائق البشري قد فعل شيئًا جوهريًا عندما سلم الذكاء الاصطناعي أدوات التحكم في القيادة. إلخ.

كان التركيز هنا على الظروف التي تم فيها اعتبار الذكاء الاصطناعي سائق السيارة ، ثم فجأة وبدون اهتمام يذكر بما يمكن للسائق البشري القيام به ، يقذف البطاطا الساخنة للسائق البشري. وهذا أيضًا سبب قلق الكثيرين بشأن دور القيادة المزدوج للمركبات شبه المستقلة. قد تقول إن هناك عددًا كبيرًا جدًا من السائقين على عجلة القيادة. يبدو أن الهدف هو تسوية الأمر من خلال امتلاك مركبات مستقلة تمامًا لا تحتاج إلى إنسان يقودها والذكاء الاصطناعي يقود السيارة دائمًا.

هذا يطرح سؤال الحلفاء حول ماذا أو من المسؤول عندما يقود الذكاء الاصطناعي ، والذي تناولته عدة مرات في أعمدتي ، مثل الرابط هنا و الرابط هنا.

وفي الختام

نحن بحاجة إلى توخي الحذر عند سماع أو قراءة حوادث السيارات التي تنطوي على مركبات شبه ذاتية القيادة. كن حذرًا من أولئك الذين يحاولون خداعنا بالإعلان عن أن نظام القيادة الذي يعمل بالذكاء الاصطناعي لديه سجل لا تشوبه شائبة. حيلة تواطؤ متلازمة البطاطا الحارة بالذكاء الاصطناعي قد يكون في هذا المزيج.

بالنسبة للشركات التي تحاول أن تكون خادعة بشأن هذه الأمور ، ربما يمكننا أن نبقى قريبين من قلوبنا العبارة الشهيرة لأبراهام لنكولن: "يمكنك أن تخدع كل الناس في بعض الأوقات وبعض الأشخاص طوال الوقت ، لكن لا يمكنك أن تخدع كل الناس في كل وقت ".

لقد حاولت الكشف هنا عن سحر الذكاء الاصطناعي المخفي وراء الشاشة وفي بعض الأحيان وضعه تحت الغطاء ، والذي أوضحته حتى يتمكن المزيد من الأشخاص ولن ينخدع أكثر من مرة.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-employed-by-ai-makers- تحاول على ما يبدو تجنب المساءلة عن أنظمة الحكم الذاتي التي تقرر حياتها /