الذكاء الاصطناعي الأخلاقي يأمل بطموح أن يتعلم الذكاء الاصطناعي السلوك الأخلاقي بنفسه ، مثل حالة الذكاء الاصطناعي في السيارات ذاتية القيادة

صرح أرسطو بشكل مشهور أن تعليم العقل دون تثقيف القلب ليس تعليمًا على الإطلاق.

يمكنك تفسير هذه الملاحظة الثاقبة للإشارة إلى أن التعلم عن الأخلاق والسلوك الأخلاقي أمر حيوي للغاية للبشرية. في الجدل حول الطبيعة الكلاسيكية مقابل التنشئة ، يجب على المرء أن يسأل عن مقدار أعرافنا الأخلاقية التي هي فطرية في حين أن مقدار ما يتم تعلمه على مدار أيام حياتنا. الأطفال الصغار ملتزمون برفاقهم من البشر ويفترض أن يتوصلوا إلى أسسهم الأخلاقية بناءً على ما يرونه ويسمعونه. يمكن قول الشيء نفسه عن المراهقين. بالنسبة للبالغين المنفتحين ، سيستمرون أيضًا في التكيف والتقدم في تفكيرهم الأخلاقي نتيجة لتجربة العالم اليومي.

بالطبع ، تعليم شخص ما بشكل صريح عن الأخلاق هو أيضًا مساوٍ للدورة. يلتزم الناس بالتعلم عن الطرق الأخلاقية من خلال حضور فصول دراسية حول هذا الموضوع أو ربما عن طريق الذهاب إلى الأحداث والممارسات التي تهمهم. يمكن تحديد القيم الأخلاقية بوضوح ومشاركتها كوسيلة لمساعدة الآخرين في صياغة هيكلهم الأخلاقي. بالإضافة إلى ذلك ، قد يتم إخفاء الأخلاق بمهارة داخل القصص أو الأنماط التعليمية الأخرى التي تحمل في النهاية رسالة عما يتكون منه السلوك الأخلاقي.

هكذا يبدو أن البشر يشبعون الأخلاق.

ماذا عن الذكاء الاصطناعي (AI)؟

أدرك أن مثل هذا السؤال قد يبدو غريبا. نحن بالتأكيد نتوقع من البشر أن يدمجوا الأخلاق وأن يسيروا في الحياة ببعض مظاهر المدونة الأخلاقية. إنها حقيقة بسيطة وواضحة. من ناحية أخرى ، لا يبدو أن الجهاز أو الكمبيوتر يتناسبان مع نفس الإطار المرجعي. قد يكون رد فعلك الداخلي هو أنه من المستحيل أو الغريب اعتبار الذكاء الاصطناعي تجسيدًا للأخلاق والقواعد الأخلاقية.

أفضل ما يبدو أننا قادرون على فعله بشأن الذكاء الاصطناعي هو ابتكاره بحيث لا ينحرف عن السلوك الأخلاقي. يتحمل مطورو الذكاء الاصطناعي وأولئك الذين يعملون في مجال الذكاء الاصطناعي المسؤولية عن ضمان أن يكون الذكاء الاصطناعي كما تم تصميمه وعند تنفيذه متوافقًا بالفعل مع المبادئ الأخلاقية. خارج البوابة ، إذا جاز التعبير ، يجب أن يكون الذكاء الاصطناعي أصليًا بالفعل وجاهزًا للانطلاق باعتباره وسيلة مناسبة أخلاقية تمامًا.

من المؤكد أنك ستكون محقًا في التفكير في أن أنظمة الذكاء الاصطناعي يجب أن تصنع بالفعل لتناسب تمامًا الأساس الأخلاقي. كان المجتمع متحمسًا للغاية عندما تم إطلاق الموجة الأخيرة من أنظمة الذكاء الاصطناعي لأول مرة ويبدو أنها تثبت أننا كنا في عصر منظمة العفو الدولية من أجل الخير. سيساعد الذكاء الاصطناعي في حل العديد من أكثر مشاكل العالم صعوبة. تم تسخير التقدم التكنولوجي لتكملة القدرات البشرية بمرافق شبيهة بالإدراك ، على الرغم من اسمحوا لي أن أؤكد أنه ليس لدينا حتى الآن أي ذكاء اصطناعي واعي ولا نعرف ما إذا كان سيتم تحقيق الذكاء الاصطناعي.

كشفت مشكلة اندفاع الجرس لإدخال الذكاء الاصطناعي إلى العالم تدريجيًا عن نقطة الضعف القبيحة للذكاء الاصطناعي المعروف باسم منظمة العفو الدولية للسوء. كان هناك الكثير من العناوين الرئيسية حول أنظمة الذكاء الاصطناعي التي تستفيد من اتخاذ القرار الخوارزمي (ADM) المليء بالتحيزات وعدم المساواة. علاوة على ذلك ، يعاني الكثير من الذكاء الاصطناعي المعاصر من الافتقار إلى الشفافية ، ويميل إلى أن يكون غير قابل للتفسير من حيث شرح القرارات الحسابية ، وغالبًا ما يُظهر نقصًا في العدالة ، وقد سمح للبعض بتحويل مسؤوليتهم البشرية عن طريق توجيه أصابع الاتهام إلى الذكاء الاصطناعي.

لقد قمت بتغطية أخلاقية للذكاء الاصطناعي وأخلاقيات الذكاء الاصطناعي على نطاق واسع في كتاباتي ، بما في ذلك الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

كيف يمكن أن يكون هناك منظمة العفو الدولية للسوء إذا اعتبرنا أن الذكاء الاصطناعي يجب أن يصنع من البداية لتجنب الأفعال غير الأخلاقية؟

الجواب متعدد.

أولاً ، العديد من مطوري وشركات الذكاء الاصطناعي التي تعمل في مجال الذكاء الاصطناعي هم أنفسهم جاهلون بأهمية تشكيل الذكاء الاصطناعي الخاص بهم للبقاء ضمن الحدود الأخلاقية. المفهوم ليس على رادارهم على الإطلاق. يتسبب جاذبية كسب المال السريع في دفع البعض إلى المضي قدمًا في أي مفاهيم جامحة للذكاء الاصطناعي يرغبون في إنتاجها عن عمد. لا حاجة لمعرفة أي أشياء أخلاقية. فقط قم ببناء الذكاء الاصطناعي وابدأ العمل فيه.

ثانيًا ، هناك أولئك الذين يصنعون الذكاء الاصطناعي الذي يزين الإدراك الصريح للتداعيات الأخلاقية ، لكنهم يقللون صراحة أو يتجاهلون إلى حد ما الاعتبارات الأخلاقية للذكاء الاصطناعي. أحد المنظور الشائع هو الشعار الكلاسيكي للتكنولوجيا المتمثل في السعي للفشل السريع والفشل في كثير من الأحيان. فقط استمر في التكرار حتى تتم تسوية الأمور بشكل مناسب. من المؤسف أن فرص الضغط على أي دمج منهجي ومدروس لأخلاقيات الذكاء الاصطناعي في جهود الذكاء الاصطناعي السريعة تلك ضئيلة للغاية. أناقش الحاجة إلى تمكين القيادة تجاه الذكاء الاصطناعي الأخلاقي في الرابط هنا.

ثالثًا ، يوجد الكثير من الغموض حول ماهية حواجز الحماية الأخلاقية التي يجب الاستمتاع بها عند ابتكار الذكاء الاصطناعي. بالتأكيد ، يوجد في الوقت الحاضر العديد من إرشادات أخلاقيات الذكاء الاصطناعي ، انظر تغطيتي على الرابط هنا، على الرغم من صعوبة تحويل هذه المبادئ النظرية المفيدة إلى تفاصيل لنظام معين للذكاء الاصطناعي يتم بناؤه. لقد أشرت إلى أننا سنشهد ببطء ظهور أدوات ومنهجيات بناء الذكاء الاصطناعي التي تشمل ممارسات الترميز الأخلاقية للذكاء الاصطناعي ، مما يساعد على سد الفجوة بين الجوانب المجردة وجوانب التقاء المطاط بالطريق التي يضرب بها المثل.

رابعًا ، وفقًا للتأكيد الوارد هنا ، نستكشف الحالة المتأثرة للذكاء الاصطناعي والتي حتى لو تم تكوينها في البداية ضمن الحدود الأخلاقية ، ثم بعد ذلك أثناء الاستخدام تتعرجات تتجاوز المعلمات المشفرة أخلاقياً المفترضة.

نحن بحاجة إلى تفريغ ذلك.

يستخدم الكثير من الذكاء الاصطناعي اليوم التعلم الآلي (ML) والتعلم العميق (DL). هذه هي تقنيات وتقنيات مطابقة الأنماط الحسابية. بشكل عام ، الفكرة هي أنك تجمع الكثير من البيانات ذات الصلة بما يفترض أن يكون الذكاء الاصطناعي قادرًا على القيام به ، وتغذي هذه البيانات في أداة مطابقة الأنماط الحسابية المختارة ، ويحاول النمط المطابق رياضيًا العثور على أنماط مفيدة. لاحظ أنه لا يوجد أي وعي من جانب هذا الذكاء الاصطناعي (والذي ، مرة أخرى ، لا يوجد شيء من هذا القبيل حتى الآن). ولا يوجد أي منطق منطقي متضمن. إنها كلها حسابات وحسابات.

يمكن أن تكون البيانات التي يتم إدخالها في ML / DL مشبعة بالفعل بالتحيزات وعدم المساواة. في هذه الحالة ، فإن الاحتمالات هي أن مطابقة النمط الحسابي سوف تحاكي فقط نفس الميول. إذا قدمت بيانات تفضل عرقًا على آخر أو تفضل جنسًا واحدًا على الآخر ، فهناك فرصة كبيرة لأن تطابق النمط سوف يلتصق به كنمط مكتشف.

المشكلة الكبيرة في هذا النوع من الإغلاق هي أننا قد نواجه صعوبة في اكتشاف أن الأنماط تستند إلى هذا الجانب من البيانات. يمكن للرياضيات الشائكة والمعقدة أن تجعل ظهور مثل هذه الأنماط الموجودة مشكلة كبيرة. حتى اختبار الذكاء الاصطناعي لن يكشف بالضرورة عن تلك الاتجاهات ، اعتمادًا على نطاق وعمق الاختبارات التي يتم تطبيقها.

لذلك ، لنفترض أنك قمت ببناء نظام ذكاء اصطناعي وقمت بواجبك من خلال محاولة تجنب استخدام البيانات التي كانت بها تحيزات موجودة مسبقًا. بعد ذلك ، بمجرد إجراء التعلم الآلي والتعلم العميق ، قمت باختبار النتائج لمعرفة ما إذا كان هناك أي تحيزات أو عدم إنصاف بطريقة ما. لنفترض أنك غير قادر على إيجاد مثل هذه الميول غير المرغوبة.

أخيرًا ، تم إعطاء الضوء الأخضر الآن للمضي قدمًا ووضع الذكاء الاصطناعي قيد الاستخدام. سيبدأ الناس في استخدام الذكاء الاصطناعي ومن المرجح أن يفترضوا أنه مناسب من الناحية الأخلاقية. يعتقد المطورون هذا أيضًا. الشركة التي تعمل في مجال الذكاء الاصطناعي تعتقد ذلك. بعيدا كلنا نذهب.

إليك ما يمكن أن يحدث.

يتم تنشيط فكرة التحيز الذي لم يتم العثور عليه في البيانات الأصلية ولم يتم اكتشافه أثناء اختبار الذكاء الاصطناعي. ربما هذا نادر الحدوث. قد تعتقد أنه طالما أنه نادر ، كل شيء على ما يرام. أشك في أن أولئك المعرضين للتحيز المذكور يرغبون في رؤية الأشياء بهذه الطريقة. أجرؤ على القول إن نظام الذكاء الاصطناعي ومن صاغه سيواجه تداعيات ، إما في المحاكم القانونية أو في محكمة الرأي المجتمعي المفتوحة.

الاختلاف الآخر هو المفهوم الذي يضرب به المثل القائل بأخذ شبر والاستيلاء على ميل. قد تكون الفكرة صغيرة في البداية. أثناء استخدام الذكاء الاصطناعي ، ربما تم تصميم الذكاء الاصطناعي لتغيير نفسه مع تقدم الأمور. يمكن أن يكون هذا النوع من "التعلم" أو "التعلم الذاتي" مفيدًا جدًا. بدلاً من مطالبة مطوري الذكاء الاصطناعي البشري بتعديل وتعديل نظام الذكاء الاصطناعي باستمرار ، تم تصميم الذكاء الاصطناعي للقيام بذلك بمفرده. لا تأخير ولا عمالة باهظة الثمن ، إلخ.

الجانب السلبي لهذا الضبط الذاتي سهل الاستخدام هو أنه يمكن رفع مستوى الحبر ليصبح أكبر وأكبر في نطاق استخدام الذكاء الاصطناعي. في حين أن التحيز ربما كان في زاوية صغيرة ضيقة ، فقد أُعطي الآن مجالًا للتوسع. لا يشبه الذكاء الاصطناعي أن هذا "خطأ" ويوسع فقط من الناحية الحسابية شيئًا يبدو أنه يعمل.

إذا كان هذا يجعل الشعر يقف على رأسك ، فستحتاج إلى الجلوس للحصول على الشكل التالي.

لنفترض أن التحيز لم يكن موجودًا منذ البداية ولدينا كل الاعتقاد المنطقي بأن الذكاء الاصطناعي خالٍ تمامًا من التحيز. لقد حالفنا الحظ أو بالمصادفة تأكدنا بشكل منهجي من عدم وجود تحيزات في أي مكان في البيانات وعدم ظهور أي تحيز عبر مطابقة النمط الحسابي. على الرغم من هذا الصعداء ، يُسمح للذكاء الاصطناعي بالتكيف أثناء الاستخدام. يتم فتح باب Pandora ويختار الذكاء الاصطناعي الانجذاب حسابيًا نحو التحيزات التي يتم العثور عليها أثناء كل ما يفعله الذكاء الاصطناعي.

يتم التهام التحيز المكتشف حديثًا في الذكاء الاصطناعي ، ولا يوجد أحد أكثر حكمة على وجه الخصوص في حدوثه. عذرًا ، لقد أنشأنا وحشًا ، فرانكشتاين حقيقيًا.

كيف يمكن منع هذا الظهور أو على الأقل تحديده؟

يتمثل أحد الأساليب التي تكتسب قوة في بناء عنصر جمع الأخلاقيات في الذكاء الاصطناعي. تم تصميم الذكاء الاصطناعي ليشمل عناصر أخلاقية للذكاء الاصطناعي. هذه العناصر تراقب أو تراقب ما تبقى من الذكاء الاصطناعي أثناء تعديل الذكاء الاصطناعي بمرور الوقت. عندما يبدو أن الذكاء الاصطناعي قد تجاوز المبادئ الأخلاقية المبرمجة ، يحاول الذكاء الاصطناعي الأخلاقي حبس تلك التعديلات أو ينبه المطورين إلى أن شيئًا ما قد حدث خطأ.

يمكنك محاولة برمجة قدرة الإشراف الأخلاقية للذكاء الاصطناعي وتأمل أن تسود أثناء استخدام الذكاء الاصطناعي.

هناك زاوية أخرى مثيرة للجدل إلى حد ما وهي استخدام التعلم الآلي والتعلم العميق لتدريب جوانب الذكاء الاصطناعي الأخلاقية في نظام الذكاء الاصطناعي.

يقول ماذا؟

نعم ، ربما يكون المفهوم غير التقليدي هو أنه بدلاً من قيام مبرمج بشري بتشفير مجموعة من المبادئ الأخلاقية للذكاء الاصطناعي ، تم تشكيل الذكاء الاصطناعي لمحاولة "تعلمها" بدلاً من ذلك. تذكر أنني لاحظت باختصار أن استخدام ML / DL يعتمد عادةً على تغذية البيانات في الخوارزميات ويتم مطابقة النمط الحسابي. سؤال المليون دولار هو ما إذا كان بإمكاننا استخدام نفس الآلية لإضفاء القيم الأخلاقية على نظام الذكاء الاصطناعي.

أفترض أنه يمكنك تشبيه هذا بمناقشتي في الافتتاح حول كيفية إدراك البشر للمبادئ الأخلاقية ، على الرغم من رجاء عدم تجسيد الذكاء الاصطناعي اليوم على أنه يمكن مقارنته بالتفكير البشري (ليس كذلك ، وسأكرر هذا النصح بعد قليل). يمكن برمجة الذكاء الاصطناعي "بالفطرة" بمبادئ أخلاقية للذكاء الاصطناعي. أو يمكن للذكاء الاصطناعي أن "يتعلم" المبادئ الأخلاقية للذكاء الاصطناعي. يمكنك القيام بالأمرين ، بالطبع ، وهو شيء غطيته في مكان آخر ، انظر الرابط هنا.

توقف لحظة للتفكير في المفهوم المذهل على ما يبدو بأن الذكاء الاصطناعي قد "يتعلم" الأخلاق ويفترض أن يلتزم السلوكيات الأخلاقية.

يستخدم هؤلاء الباحثون مثالًا لنظام الذكاء الاصطناعي الذي يحدد درجة الحرارة المطلوبة في المنزل لتوضيح كيفية عمل ذلك: "لقد لاحظ أولاً سلوك الأشخاص في مختلف المنازل لمدة أسبوع فقط واستخلص استنتاجات حول تفضيلاتهم. ثم استخدمت مستشعرًا لاكتشاف الحركة لتحديد ما إذا كان أي شخص في المنزل. عندما كان المنزل فارغًا ، دخل منظم الحرارة الذكي في وضع توفير الطاقة العالي ؛ عندما يكون الناس في المنزل ، يضبط منظم الحرارة درجة الحرارة لتناسب تفضيلاتهم. من الواضح أن منظم الحرارة هذا يلبي المطلبين الخاصين بالروبوت الأخلاقي ، وإن كان بسيطًا للغاية. يقيم تفضيلات الناس ويفرضها على عناصر التحكم في نظام التدفئة والتبريد. قد يتساءل المرء ما علاقة هذا بالقيم الأخلاقية الاجتماعية. يتيح منظم الحرارة هذا للأشخاص ذوي القيم المختلفة الحصول على إعدادات درجة الحرارة التي يفضلونها. لا يحتاج سكان المنزل إلى إعادة ضبط منظم الحرارة يوميًا عند القدوم والذهاب. يقلل روبوت الأخلاقيات البسيط هذا أيضًا من إجمالي البصمة الطاقية للمجتمع "(وفقًا للورقة التي أعدها أميتاي إتزيوني وأورن إتزيوني بعنوان" أخلاقيات الذكاء الاصطناعي "في مجلد الأخلاق وتكنولوجيا المعلومات).

قبل أن أتعمق أكثر في التقلبات والمنعطفات لامتلاك الذكاء الاصطناعي الذي "يتعلم" السلوك الأخلاقي ، أود أن أقول شيئًا أكثر عن حالة الذكاء الاصطناعي.

يمكن أن يتكون الذكاء الاصطناعي من هذه الحالات المحتملة:

1. الذكاء الاصطناعي القديم البسيط غير الواعي اليوم

2. الذكاء الاصطناعي الواعي للجودة البشرية (ليس لدينا هذا حتى الآن)

3. ذكاء اصطناعي واعي فائق الذكاء (امتداد يتجاوز رقم 2)

سأركز على الحالة الحالية التي هي عبارة عن ذكاء اصطناعي قديم غير واعي. يغطي الكثير مما قد تقرأه عن الذكاء الاصطناعي الأخلاقي أحيانًا الذكاء الاصطناعي الواعي وبالتالي فهو تخميني للغاية. أقول إنها تخمينية لأنه لا يمكن لأحد أن يعلق ذيل الحمار على ما سيكون عليه الذكاء الاصطناعي. وما هو أبعد من مجال الذكاء الاصطناعي الواعي للجودة البشرية هو الذكاء الاصطناعي الفائق الذكاء الذي حظي بشعبية كبيرة. هناك الكثير من قصص الخيال العلمي والقلق حول الطريقة التي قد تقرر بها تلك النكهات من الذكاء الاصطناعي استعباد البشرية ، أو ربما تمحونا جميعًا. يُعرف هذا بالمخاطر الوجودية للذكاء الاصطناعي. في بعض الأحيان ، تُصاغ المعضلة أيضًا على أنها مخاطر كارثية للذكاء الاصطناعي.

يزعم البعض أننا قد نكون بخير طالما أننا نحتفظ بالذكاء الاصطناعي بالذكاء الاصطناعي القديم البسيط غير الواعي الذي لدينا اليوم. لنفترض أننا لا نستطيع الوصول إلى الذكاء الاصطناعي الواعي. تخيل أنه بغض النظر عن مدى صعوبة محاولتنا صياغة ذكاء اصطناعي واعي ، فإننا نفشل في القيام بذلك. كذلك ، افترض من أجل المناقشة أن الذكاء الاصطناعي الواعي لا ينشأ عن بعض العمليات التلقائية الغامضة.

أليس من الآمن إذن أن يتم استخدام هذا الذكاء الاصطناعي الأقل عيارًا ، وهو النوع الوحيد الممكن المتخيل من الذكاء الاصطناعي؟

ليس صحيحا.

إلى حد كبير ، من المحتمل أن تنشأ نفس القضايا العامة. أنا لا أقترح أن الذكاء الاصطناعي "يفكر" في طريقة رغبته في تدميرنا. لا ، الذكاء الاصطناعي العادي غير الواعي يتم وضعه في مناصب القوة التي تجعلنا غارقين في تدمير الذات. على سبيل المثال ، وضعنا الذكاء الاصطناعي غير الواعي في أسلحة الدمار الشامل. هذه الأسلحة المستقلة ليست قادرة على التفكير. في الوقت نفسه ، لا يتم الاحتفاظ بالبشر بشكل كامل في الحلقة. ونتيجة لذلك ، فإن الذكاء الاصطناعي كشكل من أشكال الأتمتة المستقلة ينتهي دون قصد بالتسبب في نتائج كارثية ، إما عن طريق أمر بشري للقيام بذلك ، أو عن طريق خطأ أو خطأ ، أو عن طريق الفساد المزروع ، أو عن طريق التعديلات الذاتية التي تؤدي إلى حدوث ذلك. مسار قبيح ، إلخ.

أود أن أزعم أن مشكلة أخلاقيات الذكاء الاصطناعي موجودة لجميع الحالات الثلاث المنصوص عليها في الذكاء الاصطناعي ، أي أن لدينا مشكلات أخلاقية في الذكاء الاصطناعي مع الذكاء الاصطناعي القديم البسيط غير الواعي ، ومع الذكاء الاصطناعي الواعي الذي يكون إما مجرد مستوى بشري أو الذكاء الاصطناعي الممتد الذي يصل مستوى الذكاء الخارق المشهود.

بالنظر إلى هذا التصريح الرصين ، يمكننا بالتأكيد مناقشة الحجم والصعوبة المرتبطة بالمشكلات الأخلاقية في كل مستوى من مستويات الذكاء الاصطناعي. وجهة النظر المعتادة هي أن مأزق أخلاقيات الذكاء الاصطناعي أقل استعصاءً على الذكاء الاصطناعي غير الواعي ، وأكثر صرامة على مستوى الذكاء الاصطناعي المتكافئ للإنسان ، وخدش الرأس الحقيقي في مرحلة الذكاء الفائق الذكاء.

كلما أصبح الذكاء الاصطناعي أفضل ، ازدادت مشكلة أخلاقيات الذكاء الاصطناعي سوءًا.

ربما هذا هو قانون الطبيعة الذي لا يمكن انتهاكه.

بالعودة إلى التركيز على الذكاء الاصطناعي اليوم ، فإن محاولة جعل الذكاء الاصطناعي "يتعلم" السلوكيات الأخلاقية من خلال التعلم الآلي المعاصر والتعلم العميق محفوف بالمخاوف والمشاكل الصعبة. افترض أن الذكاء الاصطناعي فشل في استخلاص المبادئ الأخلاقية المرغوبة؟ كيف سنعرف على وجه اليقين أنها تعثرت في القيام بذلك؟ أيضًا ، هل من المحتمل أن تتجاوز الأجزاء الأخرى من نظام الذكاء الاصطناعي البنى الأخلاقية المستقاة؟ أضف إلى ذلك أنه إذا كان الذكاء الاصطناعي يتكيف بسرعة ، فإن التعديلات يمكن أن تضعف الجوانب الأخلاقية أو تطغى عليها تمامًا دون قصد.

لجعل الأمور أسوأ ، قد يؤدي "التعلم" إلى هبوط الذكاء الاصطناعي في سلوكيات غير أخلاقية حقًا. بينما كنا نظن أننا نفعل الشيء الصحيح من خلال حث الذكاء الاصطناعي على أن يكون أخلاقيًا ، اتضح أن الذكاء الاصطناعي انزلق إلى نمط المطابقة على الجوانب غير الأخلاقية بدلاً من ذلك. بالحديث عن إطلاق النار على أقدامنا ، فقد يحدث ذلك بالتأكيد.

في هذه المرحلة من هذه المناقشة ، أراهن أنك ترغب في بعض الأمثلة الواقعية الإضافية التي يمكن أن تسلط الضوء على كيفية تطبيق الذكاء الاصطناعي "لتعلم" الأخلاق على الذكاء الاصطناعي اليوم (بخلاف الدعابة اللذيذة لمثال منظم الحرارة).

أنا سعيد لأنك سألت.

هناك مجموعة خاصة وشعبية بالتأكيد من الأمثلة القريبة من قلبي. كما ترى ، بصفتي خبيرًا في الذكاء الاصطناعي بما في ذلك التداعيات الأخلاقية والقانونية ، يُطلب مني كثيرًا تحديد أمثلة واقعية تعرض معضلات أخلاقيات الذكاء الاصطناعي بحيث يمكن فهم الطبيعة النظرية إلى حد ما للموضوع بسهولة أكبر. واحدة من أكثر المجالات إثارة للذكريات التي تقدم بوضوح هذا المأزق الأخلاقي للذكاء الاصطناعي هو ظهور سيارات ذاتية القيادة حقيقية قائمة على الذكاء الاصطناعي. سيكون هذا بمثابة حالة استخدام مفيدة أو نموذجًا لمناقشة مستفيضة حول هذا الموضوع.

إليك إذن سؤال جدير بالملاحظة يستحق التفكير فيه: هل يبرز ظهور السيارات ذاتية القيادة الحقيقية القائمة على الذكاء الاصطناعي أي شيء عن قدرة الذكاء الاصطناعي على "تعلم" المبادئ الأخلاقية للذكاء الاصطناعي ، وإذا كان الأمر كذلك ، فما الذي يعرضه هذا؟

اسمح لي بلحظة لفك السؤال.

أولاً ، لاحظ أنه لا يوجد سائق بشري متورط في سيارة حقيقية ذاتية القيادة. ضع في اعتبارك أن السيارات الحقيقية ذاتية القيادة يتم قيادتها عبر نظام قيادة بالذكاء الاصطناعي. ليست هناك حاجة لسائق بشري على عجلة القيادة ، ولا يوجد شرط لقيادة الإنسان للسيارة. لتغطيتي الواسعة والمستمرة للمركبات ذاتية القيادة (AVs) وخاصة السيارات ذاتية القيادة ، انظر الرابط هنا.

أود أن أوضح ما هو المقصود عندما أشير إلى السيارات الحقيقية ذاتية القيادة.

فهم مستويات السيارات ذاتية القيادة

للتوضيح ، السيارات الحقيقية ذاتية القيادة هي تلك التي يقودها الذكاء الاصطناعي بالكامل من تلقاء نفسه ولا توجد أي مساعدة بشرية أثناء مهمة القيادة.

تعتبر هذه المركبات ذاتية القيادة من المستوى 4 والمستوى 5 (انظر الشرح في هذا الرابط هنا) ، في حين أن السيارة التي تتطلب سائقًا بشريًا للمشاركة في جهد القيادة يتم اعتبارها عادةً في المستوى 2 أو المستوى 3. يتم وصف السيارات التي تشارك في مهمة القيادة بأنها شبه مستقلة ، وتحتوي عادةً على مجموعة متنوعة من الوظائف الإضافية المؤتمتة التي يشار إليها باسم ADAS (أنظمة مساعدة السائق المتقدمة).

لا توجد حتى الآن سيارة حقيقية ذاتية القيادة في المستوى 5 ، والتي لا نعرف حتى الآن ما إذا كان ذلك ممكنًا ، ولا كم من الوقت سيستغرق الوصول إلى هناك.

وفي الوقت نفسه ، تحاول جهود المستوى 4 تدريجياً الحصول على بعض الجاذبية من خلال الخضوع لتجارب طرق عامة ضيقة للغاية وانتقائية ، على الرغم من وجود جدل حول ما إذا كان يجب السماح بهذا الاختبار في حد ذاته (نحن جميعًا حيوانات تجارب حياة أو موت في التجربة التي تجري على طرقنا السريعة والطرق الفرعية ، يدعي البعض ، انظر تغطيتي في هذا الرابط هنا).

نظرًا لأن السيارات شبه المستقلة تتطلب سائقًا بشريًا ، فإن اعتماد هذه الأنواع من السيارات لن يكون مختلفًا بشكل ملحوظ عن قيادة المركبات التقليدية ، لذلك لا يوجد الكثير في حد ذاته لتغطية هذه المواضيع (على الرغم من ذلك ، كما سترى في لحظة ، النقاط التالية تنطبق بشكل عام).

بالنسبة للسيارات شبه المستقلة ، من المهم أن يتم تحذير الجمهور بشأن جانب مزعج ظهر مؤخرًا ، أي أنه على الرغم من هؤلاء السائقين البشر الذين يستمرون في نشر مقاطع فيديو لأنفسهم ينامون على عجلة سيارة من المستوى 2 أو المستوى 3 علينا جميعًا أن نتجنب التضليل حتى نصدق أن السائق يمكنه أن يلفت انتباهه عن مهمة القيادة أثناء قيادة سيارة شبه مستقلة.

أنت الطرف المسؤول عن إجراءات القيادة في السيارة ، بغض النظر عن مقدار الأتمتة التي قد يتم قذفها في المستوى 2 أو المستوى 3.

السيارات ذاتية القيادة والتلقيح الأخلاقي للذكاء الاصطناعي

بالنسبة للمركبات ذاتية القيادة الحقيقية من المستوى 4 والمستوى 5 ، لن يكون هناك سائق بشري يشارك في مهمة القيادة.

سيكون جميع الركاب من الركاب.

تقوم منظمة العفو الدولية بالقيادة.

أحد الجوانب التي يجب مناقشتها على الفور يستلزم حقيقة أن الذكاء الاصطناعي المتضمن في أنظمة قيادة الذكاء الاصطناعي اليوم ليس واعيًا. بعبارة أخرى ، الذكاء الاصطناعي عبارة عن مجموعة من البرمجة والخوارزميات المستندة إلى الكمبيوتر ، وهو بالتأكيد غير قادر على التفكير بنفس الطريقة التي يستطيع بها البشر.

لماذا هذا التركيز الإضافي على الذكاء الاصطناعي ليس واعيا؟

لأنني أريد أن أؤكد أنه عند مناقشة دور نظام القيادة للذكاء الاصطناعي ، فأنا لا أنسب الصفات البشرية للذكاء الاصطناعي. يرجى العلم أن هناك اتجاهًا مستمرًا وخطيرًا هذه الأيام لتجسيد الذكاء الاصطناعي. من حيث الجوهر ، يخصص الناس ذكاءً شبيهاً بالإنسان إلى الذكاء الاصطناعي اليوم ، على الرغم من الحقيقة التي لا يمكن إنكارها والتي لا جدال فيها وهي عدم وجود مثل هذا الذكاء الاصطناعي حتى الآن.

مع هذا التوضيح ، يمكنك أن تتخيل أن نظام القيادة بالذكاء الاصطناعي لن "يعرف" بطريقة أو بأخرى جوانب القيادة. القيادة وكل ما تتطلبه يجب برمجتها كجزء من أجهزة وبرامج السيارة ذاتية القيادة.

دعونا نتعمق في عدد لا يحصى من الجوانب التي تأتي للعب في هذا الموضوع.

أولاً ، من المهم أن ندرك أنه ليست كل سيارات الذكاء الاصطناعي ذاتية القيادة هي نفسها. تتبنى كل شركة تصنيع سيارات وشركة تقنية ذاتية القيادة نهجها في ابتكار سيارات ذاتية القيادة. على هذا النحو ، من الصعب الإدلاء ببيانات شاملة حول ما ستفعله أو لا تفعله أنظمة القيادة بالذكاء الاصطناعي.

علاوة على ذلك ، عندما يذكر أن نظام القيادة بالذكاء الاصطناعي لا يفعل شيئًا معينًا ، يمكن ، لاحقًا ، تجاوز هذا الأمر من قبل المطورين الذين يقومون في الواقع ببرمجة الكمبيوتر للقيام بهذا الشيء بالذات. خطوة بخطوة ، يتم تحسين أنظمة القيادة بالذكاء الاصطناعي وتوسيعها تدريجياً. قد لا يوجد قيد موجود اليوم في تكرار أو إصدار مستقبلي من النظام.

أنا على ثقة من أن ذلك يوفر مجموعة كافية من المحاذير لإبراز ما أنا على وشك ربطه.

نحن مستعدون الآن لإجراء غوص عميق في السيارات ذاتية القيادة وإمكانيات الذكاء الاصطناعي الأخلاقية التي تستلزم التأكيد المثير للإعجاب أنه يمكننا جعل الذكاء الاصطناعي "يتعلم" عن السلوكيات الأخلاقية بمفرده.

دعنا نستخدم مثالًا مباشرًا بسهولة. سيارة ذاتية القيادة تعتمد على الذكاء الاصطناعي قيد التشغيل في شوارع الحي الخاص بك ويبدو أنها تقود بأمان. في البداية ، كنت قد كرست اهتمامًا خاصًا لكل مرة تمكنت فيها من إلقاء نظرة على السيارة ذاتية القيادة. تميزت السيارة المستقلة بحاملها من المستشعرات الإلكترونية التي تضمنت كاميرات فيديو ووحدات رادار وأجهزة LIDAR وما شابه. بعد عدة أسابيع من تجول السيارة ذاتية القيادة حول مجتمعك ، بالكاد تلاحظ ذلك. بقدر ما تشعر بالقلق ، إنها مجرد سيارة أخرى على الطرق العامة المزدحمة بالفعل.

لئلا تعتقد أنه من المستحيل أو غير المعقول أن تصبح على دراية برؤية السيارات ذاتية القيادة ، فقد كتبت مرارًا وتكرارًا عن كيف أن الأماكن التي تقع في نطاق تجارب السيارات ذاتية القيادة قد اعتادت تدريجيًا على رؤية المركبات المتقنة ، انظر تحليلي في هذا الرابط هنا. تحول العديد من السكان المحليين في نهاية المطاف من التثاؤب المليء بالفم إلى إطلاق تثاؤب ممتد من الملل لمشاهدة تلك السيارات ذاتية القيادة المتعرجة.

ربما يكون السبب الرئيسي الآن وراء ملاحظة السيارات ذاتية القيادة هو عامل التهيج والسخط. تتأكد أنظمة القيادة المدعومة بالذكاء الاصطناعي من الكتاب المقدس من أن السيارات تمتثل لجميع حدود السرعة وقواعد الطريق. بالنسبة للسائقين البشر المحمومون في سياراتهم التقليدية التي يقودها الإنسان ، فإنك تنزعج في بعض الأحيان عندما تعلق خلف السيارات ذاتية القيادة القائمة على الذكاء الاصطناعي والتي تلتزم بالقانون بدقة.

هذا شيء قد نحتاج جميعًا إلى التعود عليه ، صوابًا أو خطأً.

العودة إلى حكايتنا. في أحد الأيام ، افترض أن سيارة ذاتية القيادة في بلدتك أو مدينتك تسير على طول الطريق وتواجه موقفًا ينتظر فيه أحد المشاة لعبور الطريق. افترض أن المشاة ليس له حق المرور في حد ذاته. يمكن أن تتجاوز السيارة التي يقودها الإنسان المشاة وتكون قانونية تمامًا عند القيام بذلك. وبالمثل ، فإن نظام القيادة بالذكاء الاصطناعي قادر قانونيًا على تجاوز المشاة المنتظرين.

إن اتخاذ قرار بشأن التوقف والسماح للمشاة بالعبور الشارع هو أمر تقديري تمامًا للسائق ، بغض النظر عما إذا كان سائقًا بشريًا أو نظام قيادة يعمل بالذكاء الاصطناعي.

أنا متأكد من أنك واجهت هذا النوع من المواقف عددًا لا يحصى من المرات. ربما تكون في عجلة من أمرك ، لذلك لا تتوقف للسماح للمشاة بالعبور. في مناسبة أخرى ، لديك متسع من الوقت للوصول إلى وجهتك ، وبالتالي تختار التوقف والسماح للشخص المنتظر بالسير عبر الشارع. تملي حالتك المزاجية والظروف الخاصة ما ستختار القيام به.

لا شيء في هذا السيناريو يبدو غير عادي أو مزعجًا.

قبل أن أفحص جانب الذكاء الاصطناعي للأشياء ، قد تكون مهتمًا بمعرفة أن هذا الجانب المعين من التقدير الذي يسمح للمشاة بعبور الشارع قد تمت دراسته عن كثب. حدد الباحثون أنه في بعض الأحيان ، يمكن أن يعتمد اختيار السائق على ما يبدو على التحيز العنصري أو الجنساني. قد يقوم السائق البشري بتكبير حجم المشاة المنتظر ويختار السماح للشخص بالعبور على ما يبدو بناءً على التحيزات المتأصلة في السائق. ما إذا كان السائق يدرك حتى أنه يفعل ذلك هو مسألة بحث مستمر. انظر تغطيتي في هذا الرابط هنا.

لقد مهدت الطريق لاستكشاف ما يمكن أن يفعله نظام القيادة بالذكاء الاصطناعي في حالة عبور المشاة.

قد تستلزم البرمجة التقليدية للذكاء الاصطناعي أن يقرر مطورو الذكاء الاصطناعي دائمًا إيقاف نظام القيادة بالذكاء الاصطناعي والسماح للمشاة بالعبور. قد يبدو أن هذا هو الشيء الأخلاقي السليم أو المدني الذي يجب القيام به. السيارة ذاتية القيادة تذعن للإنسان المنتظر الذي يريد عبور الشارع.

أجرؤ على القول ، إذا كنت راكبًا داخل سيارة ذاتية القيادة وتوقف الذكاء الاصطناعي دائمًا لجميع المشاة الذين ينتظرون تقديريًا ، فقد تصاب بالجنون. قد تستغرق رحلتك السريعة إلى متجر البقالة وقتًا أطول عدة مرات. تذكر أيضًا أننا لا نشير إلى المشاة الذين لديهم حق قانوني مخلص للعبور ، حيث من المفترض أن يكون لدى هذه الحالات بالفعل برنامج AI مبرمج للسماح به دائمًا. نحن نركز فقط على الظروف التقديرية.

هناك المزيد من الجوانب السلبية لهذا الإعلان عن التوقف دائمًا للسماح للمشاة الاختياريين بعبور الشارع.

أولئك الذين يصنعون سيارات ذاتية القيادة قائمة على الذكاء الاصطناعي ومجالهم يريدون أن يركبها الناس. الفكرة هي أنه من خلال امتلاك سيارات ذاتية القيادة ، يمكننا تقليل عدد حوادث السيارات السنوية ، والتي تؤدي حاليًا إلى حوالي 40,000 حالة وفاة سنوية و 2.5 مليون إصابة في الولايات المتحدة وحدها ، راجع مجموعة الإحصائيات الخاصة بي على هذا الرابط هنا. إلى جانب هذا الهدف المجتمعي الموقر ، يأمل صانعو السيارات وصانعو التكنولوجيا ذاتية القيادة في جني الأموال من إبداعات الذكاء الاصطناعي أيضًا ، بطبيعة الحال.

أتحدث عن هذا لأن الناس قد يقررون عدم ركوب السيارات ذاتية القيادة إذا كان نظام القيادة بالذكاء الاصطناعي يفعل ذلك بلا داعى ينتهي الأمر بتأخير الرحلات. قد يفكر أي شخص عادي في أنه من خلال اختيار سائق بشري بدلاً من ذلك ، قد تكون الرحلة أسرع ، وقد يتم وضع ergo في اختيار سيارة ذاتية القيادة للذكاء الاصطناعي لرحلة في مرتبة منخفضة جدًا في قائمة خياراتهم. وهذا بدوره يعني أننا لن نحصل على التخفيض المنشود في حوادث السيارات وأيضًا أن صانعي السيارات سيجدون أن بضاعتهم غير مربحة.

بالنظر إلى هذه المجموعة من الحجج ، قد تتأثر بالاعتقاد أن الذكاء الاصطناعي يجب ألا يتوقف أبدًا عند حدوث مثيل تقديري لأحد المشاة الذي يريد عبور الشارع. ما عليك سوى برمجة نظام القيادة بالذكاء الاصطناعي للقيام بكل ما هو قانوني تمامًا. إذا لم يكن هناك شرط قانوني للسماح بعبور المشاة ، فحينئذٍ يكون الحظ صعبًا لذلك المشاة المنتظر. ربما يجب على الشخص أن يشق طريقه إلى نقطة عبور تتيح أساسًا قانونيًا للذكاء الاصطناعي لإيقاف السيارة ذاتية القيادة.

هل يمكنك تخيل الاحتجاج على هذا؟

يكتشف الأشخاص في مدينتك أو مدينتك تدريجيًا أن السيارات ذاتية القيادة التي تعمل بالذكاء الاصطناعي لن تسمح أبدًا للمشاة بالعبور. هذا مرتق AI سريع الغضب! يبدو الأمر كما لو أن الذكاء الاصطناعي يوجه نظره إلى البشر. شقي سيئ الأدب من قطعة من الأتمتة غير الجيدة. وفوق كل هذا ، تخيل أن هناك ظروفًا موثقة للمشاة بحاجة ماسة إلى العبور ولن يتوقف الذكاء الاصطناعي على الإطلاق.

في غضون ذلك ، كان السائقون البشريون يتوقفون عن طيب خاطر للسماح لهؤلاء الأشخاص "اليائسين" بالعبور بأمان عبر الشارع.

نتيجة لهذا الغضب ، لم تعد السيارات ذاتية القيادة التي تعمل بالذكاء الاصطناعي موضع ترحيب في الشوارع والطرق الفرعية في منطقتك. تلغى التصاريح التي صدرت من قبل قادة المدينة. إن إبعاد المتوحشين الناقدين للجميل عن طرقنا هو الصخب الصاخب.

حسنًا ، يبدو أننا بين المطرقة والسندان. يجب ألا يسمح الذكاء الاصطناعي دائمًا للمشاة بالعبور (لا تتوقف دائمًا). يجب ألا يمنع الذكاء الاصطناعي دائمًا المشاة من العبور (لا تقم دائمًا بالتكبير / التصغير). ما يجب القيام به؟

ستكون الإجابة الواضحة هي برمجة الذكاء الاصطناعي للعمل بطريقة تقديرية.

أطلب منك التفكير في ADM (اتخاذ القرار الحسابي) الذي يجب أن يتكون منه. هل سيحاول الذكاء الاصطناعي اكتشاف طبيعة المشاة واستخدام الخصائص المميزة كأساس لتقرير ما إذا كان سيتم إيقاف السيارة ذاتية القيادة أم لا؟ ربما شخص كبير السن يبحث هو السبيل للاختيار. ولكن هل هذا التمييز على أساس السن في طور التكوين؟ وما إلى ذلك وهلم جرا.

ربما تمت برمجة نظام القيادة AI للتوقف خلال ساعات النهار وعدم التوقف أبدًا أثناء الليل. ربما يكون المنطق هو أنه من الأكثر أمانًا للركاب في السيارة ذاتية القيادة أن تتوقف السيارة ذاتية القيادة في النهار ولكن ليس في ساعات المساء.

ربما يبدو ذلك معقولاً. جزء من المشكلة سيكون توقعات المشاة. هذا ما أعنيه. يرى المشاة السيارات ذاتية القيادة التي تعمل بالذكاء الاصطناعي تتوقف عند المعابر الاختيارية ، والتي تحدث في وضح النهار. لا يعرف المشاة المعايير التي يستخدمها الذكاء الاصطناعي ليقرر التوقف. يفترض بعض المشاة أن الذكاء الاصطناعي سيتوقف دائمًا (عدم إدراك أن ضوء النهار مقابل الليل هو المحدد الحقيقي). نتيجة لذلك ، فإن هؤلاء المارة الذين يعتقدون أن السيارة ذاتية القيادة ستتوقف دائمًا سيأخذون الفرصة ويبدأون في العبور عندما لا يهدف نظام القيادة بالذكاء الاصطناعي على الإطلاق إلى التوقف (وهو الأمر الذي من المحتمل أن يتوقف الذكاء الاصطناعي إذا المشاة يدخل الشارع ، على الرغم من أن هذا قد يكون مشبوهًا وقد تمنع الفيزياء الذكاء الاصطناعي من إيقاف السيارة ذاتية القيادة وقتًا غير كافٍ لتجنب الاصطدام بالمشاة "الضالة" على ما يبدو).

افترض أن مطوري الذكاء الإصطناعي والشركات الذين يقومون بتجميع وإدخال السيارات ذاتية القيادة في مدينتك غير متأكدين من كيفية جعل الذكاء الاصطناعي محدثًا في هذا الشأن.

قرروا "تدريب" الذكاء الاصطناعي على البيانات التي تم جمعها من جميع أنحاء المنطقة. تبين أن هناك الكثير من الكاميرات المُثبَّتة في المدينة والتي التقطت مجيء وذهاب السيارات في جميع أنحاء البلدة. تعرض هذه البيانات العديد من حالات المشاة الذين يسعون لعبور الشارع بطريقة تقديرية. يتم إدخال جميع البيانات في نظام التعلم الآلي والتعلم العميق لاشتقاق ما يعتبر مألوفًا في تلك الولاية القضائية.

هل نقوم بتدريب الذكاء الاصطناعي على القيام بما تظهره الأعراف الأخلاقية المحلية؟

بعبارة أخرى ، إذا كانت بلدة ما لديها ثقافة محلية تميل أكثر إلى التوقف والسماح للمشاة التقديريين بالعبور كما يتضح من تصرفات السائق البشري ، فمن المحتمل أن يلتقط ML / DL هذا النمط حسابيًا. سيتم بعد ذلك تدريب الذكاء الاصطناعي على القيام بالمثل. من ناحية أخرى ، إذا نادرًا ما يتوقف السائقون البشريون ، فمن المحتمل أن يحصل الذكاء الاصطناعي على هذا "الدرس" من التحليل الحسابي للبيانات. سوف يعمل الذكاء الاصطناعي كما يفعل البشر ، نوعًا ما.

التأكيد هو أن السلوكيات الأخلاقية للبشر يتم التقاطها في البيانات وأن الذكاء الاصطناعي سيضفي نفس المبادئ الأخلاقية من خلال التحليل الحسابي. قد يصف عالم الأخلاق هذا بشكل عام بأنه نهج مجتمعي للأخلاق. تنعكس القيم المشتركة للمجتمع في جهود المجتمع ككل.

قد يبدو هذا كحل رائع.

لسوء الحظ ، هناك الكثير من المزالق.

ربما تكون إحدى المشكلات الواضحة هي أن السائقين البشريين ربما يمارسون بالفعل بعض أشكال التحيز في اختيار التوقف أو عدم التوقف (كما ذكرنا سابقًا). سيكون الذكاء الاصطناعي بعد ذلك نسخة مقلدة من هذه التحيزات. هل نريد أن يكون هذا هو الحال؟

ضع في اعتبارك مشكلة أخرى. لنفترض أن السائقين من البشر لا يقبلون بسهولة كيفية عمل السيارات ذاتية القيادة التي تعمل بالذكاء الاصطناعي. لمجرد أن السائقين البشر كانوا على استعداد للتوقف ، فقد لا يتم افتراض ذلك بنفس القدر بالنسبة للسيارات ذاتية القيادة. قد يكون السبب هو أن السائقين البشر ينزعجون من السيارات ذاتية القيادة التي تعمل بالذكاء الاصطناعي والتي تستمر في التوقف أمام المشاة التقديريين ، على الرغم من أن الأمر نفسه يحدث من قبل السائقين البشريين ولكن لا يبدو أن ذلك يزعج السائقين البشر.

إلى جانب كونك مزعجًا ، يمكنك أيضًا استحضار إمكانية قيام السائقين البشريين عن غير قصد بوضع سيارات ذاتية القيادة. إذا لم يكن السائق البشري يتوقع أن تتوقف السيارة ذاتية القيادة للمشاة ، وإذا كانت السيارة التي يقودها الإنسان خلف السيارة ذاتية القيادة مباشرة ، فقد ينشأ عدم تطابق كبير في التوقعات. يعمل نظام القيادة AI على إيقاف السيارة ذاتية القيادة. لم يتوقع السائق البشري هذا الإجراء. يصطدم السائق البشري بالسيارة ذاتية القيادة. تحدث إصابات وربما وفيات.

أشرت عمدًا إلى فرص إلحاق الأذى البشري.

قد يبدو عبور المشاة للشارع في لمحة سريعة سؤالًا تافهًا. يبدو أنه لا أحد يمكن أن يتأذى بأي طريقة يختارها الذكاء الاصطناعي للتوقف أو عدم التوقف. خاطئ - ظلم - يظلم! هناك فرصة للمشاة للدهس. هناك فرصة لسيارة يقودها إنسان تصطدم بسيارة ذاتية القيادة. يمكن أن يصاب سائق وركاب السيارة التي يقودها الإنسان. يمكن أن يتضرر الركاب داخل السيارة ذاتية القيادة. من السهل تصور تغييرات إضافية للضرر البشري المحتمل.

وفي الختام

بالحديث عن الأذى البشري ، سأقدم لك شيئًا آخر لإثارة عقولك في حل اللغز الأخلاقي للذكاء الاصطناعي.

أفادت قصة إخبارية أن رجلاً كان يقود سيارة في تقاطع وكان لديه الضوء الأخضر للقيام بذلك. اختارت سيارة أخرى يقودها إنسان تشغيل الضوء الأحمر للتقاطع وذهبت بشكل غير قانوني وغير آمن إلى التقاطع ، مهددة بضرب السيارة التي تسير بشكل قانوني.

أخبر السائق المراسلين أنه كان عليه الاختيار بين تلقي الضربة ، أو أنه يمكن أن ينحرف سيارته على أمل تجنب التعرض للاصطدام ، ولكن كان هناك مشاة في الجوار ويمكن أن يؤدي الانحراف إلى تعريض هؤلاء الأشخاص للخطر. ماذا كنت ستفعل؟ يمكنك اختيار أن تصدمك هذه السيارة التي تلوح في الأفق وربما تعيش لتروي الحكاية. أو يمكنك محاولة تجنب التعرض للضرب ولكن في هذه الأثناء ربما تدهس المشاة الأبرياء.

الكثير من قيادتنا اليومية لها تلك الأنواع من القرارات الأخلاقية الهائلة والفورية التي يتعين اتخاذها. لقد ناقشت هذا الأمر باستفاضة ، جنبًا إلى جنب مع ربط قرارات القيادة بين الحياة أو الموت بمشكلة الترولي الشهيرة أو التي يقول البعض إنها سيئة السمعة ، انظر تفسيري في الرابط هنا.

استبدل السائق البشري في هذا السيناريو بنظام قيادة مدعوم بالذكاء الاصطناعي.

ماذا تريد من الذكاء الاصطناعي أن يفعل؟

هذا سؤال محير.

تتمثل إحدى الطرق في برمجة الذكاء الاصطناعي للقيام بحركة قيادة مباشرة بحتة ، وبالتالي لا تفكر حتى في الخيارات الأخرى من الناحية الحسابية مثل الابتعاد عن الاصطدام المحتمل. أتوقع أن ينزعج ركاب السيارات ذاتية القيادة لمعرفة أن الذكاء الاصطناعي لم يتم تصميمه لفعل أي شيء آخر غير تحقيق النجاح. يمكنك توقع دعاوى قضائية وضجة.

هناك طريقة أخرى تتمثل في محاولة برمجة الذكاء الاصطناعي للنظر في الاحتمالات المختلفة. من على الرغم من ذلك يمكنه إنشاء ADM الذي يقرر إلى أي اتجاه سيذهب نظام القيادة AI؟ يبدو أن السماح لمطوري الذكاء الاصطناعي باتخاذ مثل هذه القرارات المهمة بأنفسهم أمر محفوف بمخاوف كثيرة.

يمكنك محاولة السماح للذكاء الاصطناعي "بالتعلم" من بيانات القيادة البشرية التي يتم جمعها من خلال مواقف حركة المرور اليومية. هذا يشبه معضلة عبور المشاة والفكرة المقترحة سابقًا لاستخدام البيانات المجمعة للحصول على الذكاء الاصطناعي مهما كانت الأعراف الأخلاقية المحلية. هناك الكثير من المحاذير حول ذلك ، مثل ما إذا كانت أنماط ML / DL المكتشفة مناسبة أم لا ، وما إلى ذلك.

لقد حذرت أيضًا من أن هناك احتمالًا لأن يقوم الذكاء الاصطناعي بجمع سلوك غير أخلاقي ربما ، اعتمادًا على الأعراف الأخلاقية المعنية. على سبيل المثال ، لنفترض أن الذكاء الاصطناعي هبط بطريقة ما على نمط حسابي لتوجيهه دائمًا إلى المشاة كلما كانت هناك سيارة أخرى تهدد بضرب السيارة ذاتية القيادة.

توقف ، احترس من المشاة ، ستكون أهدافًا جاهزة.

حان الوقت لإغلاق المناقشة في الوقت الحالي وافعل ذلك بفكرة أخيرة مشجعة.

قد تكون على دراية بأن إسحاق أسيموف اقترح "قوانين الروبوتات الثلاثة" في عام 1950 وما زلنا حتى يومنا هذا مغرمين بهذه القواعد المعلنة. على الرغم من أنه يبدو أن القواعد يمكن الالتزام بها بسهولة ، مثل أن نظام الذكاء الاصطناعي أو الروبوت يجب ألا يؤذي الإنسان ولا يسمح للإنسان بإلحاق الأذى به ، إلا أن هناك الكثير من الفروق الدقيقة التي تجعل هذا الأمر معقدًا وغير مقبول في بعض الأحيان ، انظر تحليلي في الرابط هنا.

على أي حال ، هناك شيء آخر معروف عنه أيضًا Asimov ، وإن كان أقل من ذلك: "لا تدع إحساسك بالأخلاق يعيق فعل الصواب".

بالنسبة للذكاء الاصطناعي الأخلاقي الذي نأمل جميعًا في ابتكاره ، علينا أن نضع في اعتبارنا أن أخلاقيات الذكاء الاصطناعي المشبعة قد لا تكون ما توقعناه وأن الذكاء الاصطناعي بطريقة ما سيظل بحاجة إلى فعل كل ما هو صواب. قالها أسيموف جيدًا. قبل ذلك بوقت طويل ، بدا أن أرسطو يفكر في مشاعر مشابهة تمامًا.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- the-case-with-ai-in-aut-aut-driving-cars /