أخلاقيات الذكاء الاصطناعي تتصدى للعقل الخادع الذي يشبه عقلًا واحدًا في الثقافة الأحادية الخوارزمية للذكاء الاصطناعي ، بما في ذلك السيارات ذاتية القيادة

دعنا نلقي نظرة على بعض اللغز المحير.

يقال أن العقول العظيمة تفكر على حد سواء.

لقد سمعت بلا شك هذه العبارة المشهورة المفيدة عدة مرات. أثناء بعض المحادثات الخاملة ، إذا تمكنت أنت وزميلك أو صديقك من الوصول إلى نفس الفكرة في نفس اللحظة بالضبط ، فلا بد أن أحدكم يصرخ بسعادة أن العقول العظيمة تفكر على حد سواء. هذا بلا شك بيان ممتع عنك وعن رفاقك من البشر.

هناك قطعة أخرى من الحكمة الحكيمة يمكننا إضافتها إلى هذا المزيج.

يقال أن الحمقى نادرا ما يختلفون.

أود أن أعيد صياغة هذا القول قليلاً. إن القول المأثور الذي يبدو مكافئًا إلى حد معقول هو أن الحمقى يميلون إلى التفكير على حد سواء. أدرك أنك قد تتجاذب بعض الشيء مع إعادة صياغة الخط الشهير. ومع ذلك ، يبدو دقيقًا نسبيًا أنه إذا كان الحمقى نادرًا ما يختلفون ، يمكنك استنتاج أن الحمقى يميلون في الغالب إلى الانحراف نحو التفكير المماثل. آمل ألا يسبب ذلك الكثير من الحموضة أو الذعر من التغيير المنحرف لقطعة مقدسة من الحكمة.

نحن الآن في لحظة محفوفة بالمخاطر من هذه المعضلة.

لنفترض أننا نوافق علانية على فكرة أن العقول العظيمة تفكر على حد سواء صحيحة بشكل عام ، ونحن في نفس الوقت نؤكد أن الحمقى يميلون إلى التفكير على حد سواء صحيح أيضًا. عندما تصادف مجموعة من الأشخاص الذين يفكرون جميعًا على حد سواء ، يجب أن أطرح عليك سؤالًا بسيطًا.

هل جميعهم عقول عظيمة أم أنهم جميعًا حمقى؟

ييكيس!

وفقًا للقاعدة المتعلقة بالعقول العظيمة ، من المفترض أن يكون لديهم تفكير كبير. من ناحية أخرى ، وفقًا للقاعدة المتعلقة بالحمقى ، يبدو أنهم جميعًا حمقى. يبدو أن لدينا مشكلة. قد تتلعثم في أن هؤلاء المفكرين المتشابهين في التفكير هم على حد سواء ذوي تفكير كبير وأغبياء. هل يمكن أن تكونا كلاكما في نفس الوقت؟ يبدو أنك تحاول استجداء السؤال.

قد تجادل بشدة في أن التفكير على حد سواء لا ينقل أي شيء على الإطلاق عما إذا كان المجتمع يفكر بشكل كبير أو بحماقة. ربما نكون قد قلبنا المنطق رأسًا على عقب دون قصد. أي مجموعة من الأشخاص الذين يفكرون على حد سواء هم مجرد يفكرون على حد سواء. لا يمكنك محاولة تجاوز تشابه تفكيرهم مع تصنيفهم إما على أنهم مجموعة من العقول العظيمة أو العقول الحمقاء. قد تكون عقول مشوشة. قد تكون عقول مقتنعة. من حيث الجوهر ، قد لا يقع التوصيف بالضرورة في ثنائية خاطئة إلى حد ما تتمثل في كونك عظيمًا أو أحمق.

هناك جميع أنواع الأفكار التي ترتبط بالإعدادات التي تتضمن أشخاصًا يمتلكون نفس العقل.

يقال إن المهاتما غاندي قال إن مجموعة صغيرة من الأشخاص العازمين وذوي التفكير المماثل يمكن أن يغيروا مجرى التاريخ. يُظهر هذا بالتأكيد القوة الهائلة لامتلاك عقول متشابهة. حذر أفلاطون من أنه عندما يتعلق الأمر بالعقول المنغلقة ، والتي قد تقترحها أن هناك مجموعة صلبة من الأشخاص ذوي التفكير المماثل ، يمكنك الحصول على هذا: "هذا وحده هو الخوف: العقل المنغلق ، الخيال النائم ، موت الروح ".

إلى أين أذهب بهذه السلسلة من الفضول حول العقول المتشابهة؟

حسنًا ، اتضح أن هناك مخاوف من أن الذكاء الاصطناعي يأخذنا تدريجياً في مسار حتمي وغير مرغوب فيه لوجود خوارزميات ذكاء اصطناعي متشابهة التفكير تحكم أنشطتنا اليومية. يشار إلى هذا باختصار باسم الزراعة الأحادية الخوارزمية AI.

نحن نتجه نحو ظرف يعتمد فيه المجتمع على أنظمة ذكاء اصطناعي منتشرة قد تمتلك نفس القدرات الخوارزمية الأساسية أو تقريبًا نفس قدراتها. بهذا المعنى ، نحن عرضة للتشابه في التفكير على نطاق واسع سيكون موجودًا في جميع أنحاء العالم.

قبل أن أتعمق في هذا الموضوع ، أود أن أوضح على الفور أنني لا ألمح إلى الذكاء الاصطناعي الواعي. كما سأشرح بعد قليل ، ليس لدينا ذكاء اصطناعي واعي اليوم. على الرغم من تلك العناوين الجامحة والواسعة التي تدعي أننا لدينا ذكاء اصطناعي واعي ، فإن هذا ليس هو الحال على الإطلاق ويجب تجاهله تمامًا.

السبب الذي جعلني أؤكد على هذه النقطة المهمة هو أنه عندما أصور الذكاء الاصطناعي على أنه "متشابه في التفكير" لا أريدك أن تقفز إلى استنتاج مفاده أن الذكاء الاصطناعي اليوم مكافئ إلى حد ما للعقل البشري. إنه بالتأكيد لا. من فضلك لا تجعل هذا النوع من الارتباط المجسم. إن استخدامي للصياغة ذات التفكير المماثل يهدف فقط إلى إبراز أن خوارزميات الذكاء الاصطناعي قد تتكون بطريقة تجعلها تعمل بنفس الطريقة. على الرغم من أنهم لا "يفكرون" في أي مظهر من مظاهر ما يمكن أن نفسره على أنه جودة تفكير الإنسان. سأقول المزيد عن هذا بعد قليل هنا.

إن الذكاء الاصطناعي "المتشابه في التفكير" من حيث امتلاك خوارزمية بناء أحادي الثقافة هو شيء يمكننا تقييمه على أنه سيئ وجيد في نفس الوقت. الجانب السيئ للأشياء هو أنه إذا كانت هذه التشابه الشائع الاستخدام والعاملة للذكاء الاصطناعي مليئة بالتحيزات والشوائب التمييزية ، فمن المرجح أن يتم استخدام الذكاء الاصطناعي بخبث على نطاق واسع ونشر هذه الممارسات البغيضة في كل مكان. الجانب الجيد من الأشياء هو أنه إذا تم تصميم الذكاء الاصطناعي بشكل مناسب وتم تنفيذه بدون تحيزات وإدراج تمييزي ، فنحن نأمل أن نجعل الإنصاف متغلغلاً على نطاق واسع. كل هذا له آثار واضحة على أخلاقيات الذكاء الاصطناعي وآثاره الأخلاقية على الذكاء الاصطناعي. لتغطيتي المستمرة والشاملة لأخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي ، انظر الرابط هنا و الرابط هنا.

فيما يلي سبع قواعد أساسية سهلة الاستخدام حول الزراعة الأحادية الخوارزمية للذكاء الاصطناعي:

1) تتكون الزراعة الأحادية الخوارزمية للذكاء الاصطناعي من استخدام نفس الخوارزميات الأساسية أو تقريبًا نفس الخوارزميات الأساسية التي يتم استخدامها بعد ذلك على نطاق واسع لاتخاذ القرارات التي تؤثر على البشر

2) يمكن أن يوفر هذا الذكاء الاصطناعي الاتساق والموثوقية ، على الرغم من أن هذا سيف ذو حدين

3) أحد الجوانب هو أن الذكاء الاصطناعي الذي ينقل التحيزات المعاكسة ينتشر بسهولة ويستخدم مرارًا وتكرارًا بطرق غير مرغوب فيها (هذا أمر سيء)

4) الجانب الآخر هو أن الذكاء الاصطناعي الذي يجسد الإنصاف وغيره من الخصائص المرغوبة بحق يمكن أن ينتشر على نطاق واسع (هذا جيد)

5) هناك نوع معين من نقاط الضعف على مستوى النظام عند وجود تجانس ذكاء اصطناعي من هذا العيار ويمكن تقويضه بشكل كبير من خلال الصدمات التخريبية

6) يمكن أحيانًا تفضيل عدم تجانس الذكاء الاصطناعي ، على الرغم من أن هذا يثير القلق من التناقضات الهائلة التي قد تنشأ

7) نحتاج جميعًا إلى التفكير في الزراعة الأحادية القائمة على خوارزمية الذكاء الاصطناعي ومراقبتها والتعامل معها

قبل الدخول في المزيد من اللحوم والبطاطس حول الاعتبارات البرية والصوفية الكامنة وراء الزراعة الأحادية الخوارزمية للذكاء الاصطناعي ، دعنا نضع بعض الأساسيات الإضافية حول موضوعات متكاملة بعمق. نحن بحاجة إلى الغوص لفترة وجيزة في أخلاقيات الذكاء الاصطناعي وخاصة ظهور التعلم الآلي (ML) والتعلم العميق (DL).

قد تكون مدركًا بشكل غامض أن أحد أعلى الأصوات هذه الأيام في مجال الذكاء الاصطناعي وحتى خارج مجال الذكاء الاصطناعي يتكون من المطالبة بمظهر أشبه بالذكاء الاصطناعي الأخلاقي. دعونا نلقي نظرة على معنى الإشارة إلى أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي. علاوة على ذلك ، سوف نستكشف ما أعنيه عندما أتحدث عن التعلم الآلي والتعلم العميق.

يتكون جزء أو جزء معين من أخلاقيات الذكاء الاصطناعي الذي حظي بالكثير من اهتمام وسائل الإعلام من الذكاء الاصطناعي الذي يُظهر تحيزات وأوجه عدم مساواة غير مرغوب فيها. قد تدرك أنه عندما بدأ العصر الأخير للذكاء الاصطناعي ، كان هناك اندفاع هائل من الحماس لما يسميه البعض الآن منظمة العفو الدولية من أجل الخير. لسوء الحظ ، في أعقاب تلك الإثارة المتدفقة ، بدأنا نشهد منظمة العفو الدولية للسوء. على سبيل المثال ، تم الكشف عن العديد من أنظمة التعرف على الوجه القائمة على الذكاء الاصطناعي على أنها تحتوي على تحيزات عنصرية وتحيزات بين الجنسين ، والتي ناقشتها في الرابط هنا.

جهود للقتال ضد منظمة العفو الدولية للسوء بنشاط جارية. إلى جانب صاخبة السياسات مساعي كبح جماح المخالفات ، هناك أيضًا دافع جوهري نحو تبني أخلاقيات الذكاء الاصطناعي لتصحيح ضعف الذكاء الاصطناعي. الفكرة هي أننا يجب أن نتبنى ونصادق على المبادئ الأخلاقية الرئيسية للذكاء الاصطناعي لتطوير الذكاء الاصطناعي وإدخاله في الميدان لتقويض منظمة العفو الدولية للسوء والتبشير والترويج في الوقت نفسه لما هو مفضل منظمة العفو الدولية من أجل الخير.

فيما يتعلق بمفهوم ذي صلة ، أنا من المدافعين عن محاولة استخدام الذكاء الاصطناعي كجزء من حل مشاكل الذكاء الاصطناعي ، ومكافحة النيران بالنار بهذه الطريقة من التفكير. قد نقوم على سبيل المثال بتضمين المكونات الأخلاقية للذكاء الاصطناعي في نظام ذكاء اصطناعي يراقب كيفية قيام بقية الذكاء الاصطناعي بالأشياء ، وبالتالي من المحتمل أن نكتشف في الوقت الفعلي أي جهود تمييزية ، انظر نقاشي في الرابط هنا. يمكن أن يكون لدينا أيضًا نظام ذكاء اصطناعي منفصل يعمل كنوع من أجهزة مراقبة أخلاقيات الذكاء الاصطناعي. يعمل نظام الذكاء الاصطناعي كمشرف لتتبع واكتشاف متى يدخل ذكاء اصطناعي آخر في الهاوية غير الأخلاقية (انظر تحليلي لهذه القدرات في الرابط هنا).

بعد قليل ، سوف أشارككم بعض المبادئ الشاملة التي تقوم عليها أخلاقيات الذكاء الاصطناعي. هناك الكثير من هذه الأنواع من القوائم التي تطفو هنا وهناك. يمكنك القول أنه لا توجد حتى الآن قائمة فردية للنداء والتوافق العالميين. هذه هي الأخبار المؤسفة. الخبر السار هو أن هناك على الأقل قوائم أخلاقيات الذكاء الاصطناعي متاحة بسهولة وتميل إلى أن تكون متشابهة تمامًا. أخيرًا ، يشير هذا إلى أنه من خلال شكل من أشكال التقارب المنطقي ، فإننا نجد طريقنا نحو قواسم مشتركة عامة لما تتكون منه أخلاقيات الذكاء الاصطناعي.

أولاً ، دعنا نغطي بإيجاز بعض المبادئ الأخلاقية الشاملة للذكاء الاصطناعي لتوضيح ما يجب أن يكون اعتبارًا حيويًا لأي شخص يقوم بصياغة أو استخدام أو استخدام الذكاء الاصطناعي.

على سبيل المثال ، كما صرح الفاتيكان في دعوة روما لأخلاقيات الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • الشفافية: من حيث المبدأ ، يجب أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير
  • إدراجه: يجب أن تؤخذ احتياجات جميع البشر في الاعتبار حتى يستفيد الجميع ، ويمكن لجميع الأفراد توفير أفضل الظروف الممكنة للتعبير عن أنفسهم وتطويرهم.
  • المسئولية: يجب على أولئك الذين يصممون وينشرون استخدام الذكاء الاصطناعي أن يتابعوا المسؤولية والشفافية
  • النزاهة: لا تخلق أو تتصرف على أساس التحيز ، وبالتالي الحفاظ على العدالة والكرامة الإنسانية
  • الموثوقية: يجب أن تكون أنظمة الذكاء الاصطناعي قادرة على العمل بشكل موثوق
  • الأمن والخصوصية: يجب أن تعمل أنظمة الذكاء الاصطناعي بشكل آمن وتحترم خصوصية المستخدمين.

كما صرحت وزارة الدفاع الأمريكية (DoD) في المبادئ الأخلاقية لاستخدام الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • مسؤول: سوف يمارس موظفو وزارة الدفاع مستويات مناسبة من الحكم والرعاية مع الاستمرار في المسؤولية عن تطوير ونشر واستخدام قدرات الذكاء الاصطناعي.
  • العادل: ستتخذ الإدارة خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي.
  • تعقبها: سيتم تطوير ونشر قدرات الذكاء الاصطناعي في الإدارة بحيث يمتلك الموظفون المعنيون فهمًا مناسبًا للتكنولوجيا وعمليات التطوير والأساليب التشغيلية المطبقة على قدرات الذكاء الاصطناعي ، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق ومصادر البيانات وإجراءات التصميم والتوثيق.
  • موثوق: سيكون لإمكانيات الذكاء الاصطناعي في الإدارة استخدامات واضحة ومحددة جيدًا ، وستخضع سلامة وأمن وفعالية هذه القدرات للاختبار والتأكيد ضمن تلك الاستخدامات المحددة عبر دورات حياتها بأكملها.
  • للحكم: ستقوم الإدارة بتصميم وهندسة قدرات الذكاء الاصطناعي للوفاء بالوظائف المقصودة مع امتلاك القدرة على اكتشاف وتجنب العواقب غير المقصودة ، والقدرة على فك أو إلغاء تنشيط الأنظمة المنشورة التي تظهر سلوكًا غير مقصود.

لقد ناقشت أيضًا العديد من التحليلات الجماعية للمبادئ الأخلاقية للذكاء الاصطناعي ، بما في ذلك تغطية مجموعة ابتكرها باحثون قاموا بفحص وتكثيف جوهر العديد من مبادئ أخلاقيات الذكاء الاصطناعي الوطنية والدولية في ورقة بعنوان "المشهد العالمي لإرشادات أخلاقيات الذكاء الاصطناعي" (تم نشره) في الطبيعة) ، وأن تغطيتي تستكشف في الرابط هنا، مما أدى إلى هذه القائمة الأساسية:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

كما قد تخمن بشكل مباشر ، فإن محاولة تحديد التفاصيل التي تقوم عليها هذه المبادئ قد يكون صعبًا للغاية. والأكثر من ذلك ، فإن الجهد المبذول لتحويل هذه المبادئ العريضة إلى شيء ملموس ومفصل تمامًا بما يكفي لاستخدامه عند صياغة أنظمة الذكاء الاصطناعي يعد أيضًا من الصعب كسرها. من السهل بشكل عام القيام ببعض التلويح اليدوي حول ماهية مبادئ أخلاقيات الذكاء الاصطناعي وكيف ينبغي مراعاتها بشكل عام ، في حين أنه وضع أكثر تعقيدًا في ترميز الذكاء الاصطناعي يجب أن يكون المطاط الحقيقي الذي يلبي الطريق.

يجب استخدام مبادئ أخلاقيات الذكاء الاصطناعي من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف. يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. كما ذكرنا سابقًا ، فإن الأمر يتطلب قرية لابتكار واستخدام الذكاء الاصطناعي ، ومن أجل ذلك يجب أن تكون القرية بأكملها على دراية بمبادئ أخلاقيات الذكاء الاصطناعي والالتزام بها.

دعنا نتأكد أيضًا من أننا على نفس الصفحة حول طبيعة الذكاء الاصطناعي اليوم.

لا يوجد أي ذكاء اصطناعي واعي اليوم. ليس لدينا هذا. لا نعرف ما إذا كان الذكاء الاصطناعي الواعي سيكون ممكنًا. لا أحد يستطيع أن يتنبأ بجدارة بما إذا كنا سنحقق ذكاءً اصطناعيًا واعيًا ، ولا ما إذا كان الذكاء الاصطناعي الواعي سينشأ بطريقة ما بأعجوبة تلقائيًا في شكل مستعر أعظم معرفي حسابي (يشار إليه عادةً باسم التفرد ، انظر تغطيتي في الرابط هنا).

نوع الذكاء الاصطناعي الذي أركز عليه يتكون من الذكاء الاصطناعي غير الواعي الذي لدينا اليوم. إذا أردنا التكهن بشدة حساس الذكاء الاصطناعي ، يمكن أن تسير هذه المناقشة في اتجاه مختلف جذريًا. من المفترض أن يكون الذكاء الاصطناعي الواعي ذا جودة بشرية. ستحتاج إلى اعتبار أن الذكاء الاصطناعي الواعي هو المكافئ المعرفي للإنسان. أكثر من ذلك ، نظرًا لأن البعض يتوقع أن يكون لدينا ذكاء اصطناعي فائق الذكاء ، فمن المتصور أن مثل هذا الذكاء الاصطناعي يمكن أن يصبح أكثر ذكاءً من البشر (لاستكشافي للذكاء الاصطناعي الفائق كإمكانية ، انظر التغطية هنا).

دعونا نحافظ على الأمور أكثر واقعية ونفكر في الذكاء الاصطناعي غير الحسابي اليوم.

ندرك أن الذكاء الاصطناعي اليوم غير قادر على "التفكير" بأي شكل من الأشكال على قدم المساواة مع التفكير البشري. عندما تتفاعل مع Alexa أو Siri ، قد تبدو قدرات المحادثة شبيهة بالقدرات البشرية ، لكن الحقيقة هي أنها حسابية وتفتقر إلى الإدراك البشري. استفاد العصر الأخير من الذكاء الاصطناعي بشكل مكثف من التعلم الآلي (ML) والتعلم العميق (DL) ، مما يعزز مطابقة الأنماط الحسابية. وقد أدى ذلك إلى ظهور أنظمة ذكاء اصطناعي تبدو وكأنها ميول شبيهة بالإنسان. وفي الوقت نفسه ، لا يوجد أي ذكاء اصطناعي اليوم يشبه الفطرة السليمة وليس لديه أي من التعجب المعرفي للتفكير البشري القوي.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين يتخذون نمطًا بناءً على القرارات قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق خفية ولكنها مهمة. سيحاول التعلم الآلي أو مطابقة الأنماط الحسابية للتعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة المصممة بالذكاء الاصطناعي في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة في ML / DL من الصعب اكتشاف التحيزات الخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا أكثر تعقيدًا مما قد يبدو. توجد فرصة قوية أنه حتى مع إجراء اختبارات مكثفة نسبيًا ، لا تزال هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

يمكنك إلى حد ما استخدام القول المأثور الشهير أو سيئ السمعة من القمامة في القمامة. الشيء هو ، هذا أقرب إلى التحيزات - التي يتم غرسها بشكل خبيث على أنها تحيزات مغمورة داخل الذكاء الاصطناعي. تصبح عملية اتخاذ القرار الخوارزمية (ADM) للذكاء الاصطناعي بشكل بديهي محملة بعدم المساواة.

غير جيد.

دعنا نعود إلى تركيزنا على الزراعة الأحادية الخوارزمية للذكاء الاصطناعي.

يبدو أننا جميعًا ندرك أنه في عالم اليوم المترابط القائم على الرقم الرقمي ، يمكننا أن نتعرض للكسر من خلال امتلاك جزء صغير جدًا من البيانات الموجودة في قاعدة بيانات ويبدو أنها تذهب أينما ذهبنا. على سبيل المثال ، افترض وجود قاعدة بيانات تحتوي على جزء من البيانات يحتوي على مؤشر على أنك لست أهلاً ائتمانيًا. قد يكون هذا صحيحًا بالنسبة لك أو قد يكون خاطئًا تمامًا. قد تكون على دراية بأن قاعدة البيانات تحتوي على هذه القطعة من المعلومات أو قد لا تكون على دراية بها تمامًا. هذه لقطة كبيرة لكون مليء بالبيانات ونحن جميعًا منغمسون فيه.

يمكن أن تكون قاعدة البيانات التي تحتوي على هذا المؤشر قادرة بسهولة على مشاركة هذا الجانب الحيوي عنك مع قواعد البيانات الأخرى في مكان آخر. في غمضة عين ، يمكن لقواعد البيانات المتصلة إلكترونيًا في جميع أنحاء العالم أن تحمل العلامة المنقولة الآن بأنك لست أهلًا للائتمان. إذا اخترت التقدم بطلب للحصول على قرض ، فالاحتمالات هي أن بعض تطبيقات الموافقة على القرض ستصل إلى إحدى قواعد البيانات هذه وتستعيد العلامة التي تقول إنه سيتم إهمالك. قد تحاول الحصول على قرض أثناء تواجدك في جزء من العالم ويتم رفضك سريعًا. قد يكون السفر إلى منطقة أخرى مفيدًا قليلاً. سوف يطاردك الترابط بين قواعد البيانات بغض النظر عن المسافة التي تسافر إليها.

لحسن الحظ ، هناك العديد من القوانين المتعلقة بالبيانات والخصوصية التي تم سنها تدريجيًا. تختلف القوانين بشكل ملحوظ من بلد إلى آخر. كما يمكن أن تختلف من دولة إلى دولة. ولكن على الأقل هناك وعي بالمخاطر المرتبطة بامتلاك بيانات في قواعد بيانات قادرة على نشر المعلومات عنك بسرعة. الأمل هو أن يكون لديك اللجوء القانوني لمحاولة منع المعلومات الخاطئة أو على الأقل أن تدرك أنها موجودة عنك. انظر تغطيتي في الرابط هنا بشأن عمليات التطفل على الخصوصية والذكاء الاصطناعي.

أعتقد أنه يمكنك القول إن البيانات المتعلقة بك هي نوع يضرب به المثل من لعبة "العلامة ، أنت هي" (حيث نريد أحيانًا أن نكون الشخص الذي تم وضع علامة عليه ، وفي أحيان أخرى نرغب في عدم وضع علامة على هذا النحو).

تأخذ نفسا عميقا.

لنفترض أننا نلوح بعصا سحرية ويمكننا أن نضمن بأعجوبة أن تجانس البيانات عنك لن يحدث. نحن قادرون على جعل المجتمع كله يتحد معًا ووقف هذه الأنواع من الأعمال. قد تفترض أنك لم تعد في خطر من مثل هذه المخاوف.

نأسف للقول ، ستفقد المخاطر التي تفرضها الزراعة الأحادية الخوارزمية للذكاء الاصطناعي.

وإليك السبب.

سنعود إلى مثال محاولة الحصول على قرض. تخيل أنك تذهب إلى أحد المقرضين وأنهم يستخدمون نظام ذكاء اصطناعي يحتوي على خوارزمية معينة سنشير إليها باسم الخوارزمية Y. في حالتك ، عندما تقوم بالتقدم وتقديم التفاصيل الخاصة بك ، تتم كتابة الخوارزمية Y بهذه الطريقة ستحدد بشكل سريع رياضيًا ما إذا كان يجب رفض القرض أم لا. بشكل أساسي ، يمكن لهذه الخوارزمية أن "تقرر" أنك لست جديرًا بالائتمان.

لاحظ أننا نتظاهر في هذه الحالة بأن الذكاء الاصطناعي لم يتواصل مع قاعدة بيانات لمحاولة كسب جدارة الائتمان الخاصة بك. وبالتالي ، لا توجد فرصة لأن يكون الذكاء الاصطناعي قد أجرى عملية رفض بناءً على بعض البيانات التي كانت موجودة في قاعدة بيانات هنا أو هناك. تم الاختيار بالكامل عبر الخوارزمية Y فيما يتعلق بالحسابات المعنية.

يشير الذكاء الاصطناعي إلى رفضك للحصول على القرض. أنا متأكد من أنك ستصاب بخيبة أمل من هذه النتيجة. قد تتجاهل كتفيك وتختار الذهاب إلى مقرض آخر. مرة أخرى ، أنت تعرف بالتأكيد أنه لا توجد قاعدة بيانات تخرجك من الخلاف. في ذهنك ، كل ما عليك فعله هو الاستمرار في المحاولة مع مقرضين مختلفين وستحصل في النهاية على الضوء الأخضر.

عند الذهاب إلى مقرض آخر ، يتم رفضك مرة أخرى. هذا مقلق. جربت مقرضًا آخر ، لكن سرعان ما رفضت. كل محاولة تؤدي ، واحدة تلو الأخرى ، إلى نفس النتيجة المخيفة. أنت غاضب. أنت منزعج بلا نهاية.

ماذا يحدث بحق الجحيم؟

هل تآمر كل هؤلاء المقرضين سراً للتأكد من عدم حصولك على قرض؟

الإجابة المختصرة هي "لا" وسوف نقول إنهم لم يتآمروا في حد ذاتها. بدلاً من ذلك ، استفادوا جميعًا من الخوارزمية Y. لم "يتآمروا" بمعنى التجمع في غرفة خلفية والموافقة على استخدام الخوارزمية Y في الذكاء الاصطناعي الخاص بهم. لم يكن هناك اجتماع على غرار المافيا قال إنهم جميعًا سيستخدمون الخوارزمية Y. كملاحظة جانبية ، يفترض المرء أن هذا يمكن أن يحدث بالفعل ، ولكن من أجل المناقشة ، سنضع هذه البدائل جانبًا في الوقت الحالي .

هناك سبب معقول تمامًا لاستخدام الخوارزمية Y من قبل كل هؤلاء المقرضين المنفصلين والمتميزين. يمكن أن تكون الخوارزمية Y متاحة كمصدر مفتوح. قد يكون مطورو الذكاء الاصطناعي في كل من هؤلاء المقرضين المختلفين قد وصلوا في كل حالة إلى مكتبة مفتوحة المصدر ونسخوا هذا الجزء من الكود إلى نظام الذكاء الاصطناعي الخاص بهم.

كان هذا على الأرجح أسهل وأسرع وسيلة لإنجاز المهمة. لا حاجة لمحاولة ابتكار تلك الخوارزمية Y من البداية. في غضون دقائق قليلة من الوصول عبر الإنترنت ، يكون الترميز جاهزًا بالفعل من أجلك ويكون جاهزًا للاستخدام مباشرة. نسخ و لصق. علاوة على ذلك ، قد تكون قادرًا على تجنب الاضطرار إلى إجراء أي تصحيح لأخطاء الكود. قد يكون افتراضك أن الكود قد تم اختباره جيدًا بالفعل وليس هناك حاجة لإعادة اختراع العجلة.

حسنًا ، لذلك يختار المقرض عند المقرض جميعًا ببراءة استخدام الخوارزمية Y. هناك فرصة قوية أن تصبح الخوارزمية Y تُعرف باسم "المعيار الذهبي" لاستخدامها في التحقق من الجدارة الائتمانية. وهذا سيجعل اعتماد تلك الخوارزمية المعينة أكثر شيوعًا. مطورو الذكاء الاصطناعي لا يوفرون الوقت فقط باستخدامه ، بل يلعبون الأشياء بأمان. كل شخص آخر يقسم أن الخوارزمية قابلة للاستخدام. لماذا تحارب حكمة الجمع؟ قد يبدو من غير الحكمة القيام بذلك.

مرحبًا بكم في عصر الزراعة الأحادية الخوارزمية للذكاء الاصطناعي.

لقد اكتشفنا هنا عبر هذا المثال أنه يمكن استخدام نفس الخوارزمية بسهولة مرارًا وتكرارًا في العديد من أنظمة الذكاء الاصطناعي. لا توجد مؤامرة خاصة حول هذا الموضوع. لا توجد مؤامرة شريرة مخادعة فائقة في متناول اليد. بدلاً من تلك المخططات الحاقدة ، تصبح خوارزمية معينة هي المهيمنة بسبب ما يمكن تصويره على أنه أسباب فاضلة ومفيدة.

في السنوات الماضية ، كانت هناك إمكانية لاستخدام نفس الخوارزميات على نطاق واسع ، على الرغم من الحاجة إلى التغلب على المزيد من العقبات. اليوم ، يتم الوصول إلى استخدام خوارزمية تخزين المحاور بسهولة تقريبًا. المصدر المفتوح أكثر قبولًا مما كان عليه في الأجيال السابقة. وهلم جرا.

مع المثال الوحيد للمقرض الذي كنا نستكشفه ، قد ينتهي بنا الأمر مع اثنين من المقرضين ، أو عشرين مقرضًا ، أو مائتي مقرض ، أو ألفي مقرض ، أو ربما مئات الآلاف من المقرضين الذين يختارون جميعًا استخدام نفس الخوارزمية Y في منظمة العفو الدولية. خوارزمية الذكاء الاصطناعي مؤكدة النجاح. يتم اختياره وترسيخه في الذكاء الاصطناعي في جميع أنحاء العالم.

لا أحد يرفع أي أعلام حمراء. لا يوجد سبب واضح للقيام بذلك. إذا كان هناك أي شيء ، فقد يتم رفع العلم الأحمر عندما يختار بعض المُقرض عدم استخدام الخوارزمية Y. مهلاً ، قد يكون السؤال مثيرًا ، فأنت لا تستخدم الخوارزمية Y. ما الذي يعطي؟ هل تحاول عمدًا أن تفعل شيئًا مخادعًا أو قذرًا؟ احصل على عملك معًا وانضم إلى الجميع.

استقراء هذه الثقافة الأحادية المفاهيمية نفسها لجميع أنواع أنظمة الذكاء الاصطناعي وجميع أنواع الخوارزميات.

وصفت دراسة بحثية الظواهر بهذه الطريقة: "ترافق ظهور الخوارزميات المستخدمة لتشكيل الخيارات المجتمعية مع مخاوف بشأن الزراعة الأحادية - فكرة أن الاختيارات والتفضيلات ستصبح متجانسة في مواجهة التنظيم الحسابي" (جون كلاينبيرجا ومانيش راغافانا ، "الزراعة الأحادية الخوارزمية والرعاية الاجتماعية" PNAS 2021). ويشيرون كذلك: "حتى لو كانت الخوارزميات أكثر دقة على أساس كل حالة على حدة ، فإن العالم الذي يستخدم فيه الجميع نفس الخوارزمية يكون عرضة للفشل المترابط عندما تجد الخوارزمية نفسها في ظروف معاكسة."

يمكننا الآن إعادة النظر بشكل مفيد في مجموعتي السابقة المكونة من سبع قواعد حول الزراعة الأحادية الخوارزمية للذكاء الاصطناعي:

1) تتكون الزراعة الأحادية الخوارزمية للذكاء الاصطناعي من استخدام نفس الخوارزميات الأساسية أو تقريبًا نفس الخوارزميات الأساسية التي يتم استخدامها بعد ذلك على نطاق واسع لاتخاذ القرارات التي تؤثر على البشر

2) يمكن أن يوفر هذا الذكاء الاصطناعي الاتساق والموثوقية ، على الرغم من أن هذا سيف ذو حدين

3) أحد الجوانب هو أن الذكاء الاصطناعي الذي ينقل التحيزات المعاكسة ينتشر بسهولة ويستخدم مرارًا وتكرارًا بطرق غير مرغوب فيها (هذا أمر سيء)

4) الجانب الآخر هو أن الذكاء الاصطناعي الذي يجسد الإنصاف وغيره من الخصائص المرغوبة بحق يمكن أن ينتشر على نطاق واسع (هذا جيد)

5) هناك نوع معين من نقاط الضعف على مستوى النظام عند وجود تجانس ذكاء اصطناعي من هذا العيار ويمكن تقويضه بشكل كبير من خلال الصدمات التخريبية

6) يمكن أحيانًا تفضيل عدم تجانس الذكاء الاصطناعي ، على الرغم من أن هذا يثير القلق من التناقضات الهائلة التي قد تنشأ

7) نحتاج جميعًا إلى التفكير في الزراعة الأحادية القائمة على خوارزمية الذكاء الاصطناعي ومراقبتها والتعامل معها

كما لوحظ في قاعدتي رقم 2 ، هناك بالتأكيد سيف ذو حدين حول الزراعة الأحادية الخوارزمية للذكاء الاصطناعي.

وفقًا لقاعدتي رقم 3 ، يمكن أن ينتهي بك الأمر عند الطرف القصير من العصا. إذا تم رفضك من قبل المُقرض بعد المقرض ، أينما ذهبت ، وإذا كانت الخوارزمية Y تفعل ذلك على أساس التحيز أو أي أساس آخر غير مناسب ، فأنت للأسف ملعون. سيكون لديك الكثير من الوقت الأصعب في محاولة قلب هذا الأمر. في حالة وجود بيانات عنك في قاعدة بيانات ، فمن المحتمل أن يكون لديك بعض اللجوء القانوني وأيضًا الاعتراف العام بما يمكن أن تفعله البيانات السيئة. قلة من الناس ستدرك أن خوارزمية سيئة تتبعك حتى أقاصي الأرض.

وفقًا لقاعدتي رقم 4 ، هناك جانب إيجابي محتمل في الزراعة الأحادية الخوارزمية للذكاء الاصطناعي. افترض أن الخوارزمية Y تمنعك بشكل صحيح من الحصول على قرض. ربما حاولت خداعًا وخبيثًا لخداع الأشياء بالتسوق. نظرًا لاستخدام نفس الخوارزمية Y على نطاق واسع ، فمن غير المرجح أن يحقق تسوقك الذهب. على الرغم من أننا قد لا نحب فكرة الاحتمال الدائم والمشترك لعدالة الخوارزمية (إذا كان هناك شيء من هذا القبيل ، فراجع تحليلي في الرابط هنا) ، يمكننا أن نبتهج عندما ينتشر الشيء الجيد على نطاق واسع.

دعونا بعد ذلك نناقش الصدمات.

في قاعدتي رقم 5 ، أشرت إلى أن هناك مخاوف أساسية من أن الزراعة الأحادية الخوارزمية للذكاء الاصطناعي يمكن أن تتعرض لاضطراب هائل. يمكن تفسير ذلك بسهولة. تخيل أن هناك خطأ برمجيًا في الخوارزمية Y. لم يلاحظه أحد. منذ دهور ، كان يختبئ هناك على مرأى من الجميع. إذا كنت تشك في أن هذا يمكن أن يحدث على الإطلاق ، أي أن الخطأ سيكون في كود مفتوح المصدر ولم يتم العثور عليه مسبقًا ، راجع تغطيتي على الرابط هنا من مثل هذه الحالات.

يظهر الخطأ ويتسبب في أن الخوارزمية Y لم تعد قطعة الكود الممجدة التي اعتقدها الجميع. اعلم أن هذا الخطأ موجود في الآلاف والآلاف من أنظمة الذكاء الاصطناعي. باختصار ، قد يتم مواجهة الخطأ في جميع أنحاء الكوكب ، وسرعان ما نجد أنفسنا نواجه فوضى مروعة. نظرًا لأن الجميع يضعون بيضهم في سلة واحدة ، وبما أن السلة أصبحت منحرفة تمامًا الآن ، فإن الأمر نفسه يحدث في جميع أنحاء العالم.

كارثة ذات أبعاد أسطورية.

من الناحية النظرية ، لم يكن هذا ليحدث بسهولة إذا كان كل من المقرضين يبتكرون خوارزميات الملكية الخاصة بهم. الاحتمالات هي أنه إذا كان لدى أحدهم خطأ ، فلن يفعل الآخرون. في حالة استخدامهم جميعًا للرمز الأساسي نفسه ، فإنهم جميعًا لديهم نفس الخطأ.

مرتبك إذا فعلت ذلك ، وترتقي إذا لم تفعل ذلك.

أنا متأكد من أن البعض منكم يصرخ على أن الأخبار السارة عن الخطأ في إعداد الزراعة الأحادية هي أنه إذا كان هناك إصلاح متاح ، فيمكن لكل شخص ببساطة وضع نفس الإصلاح في مكانه. يبدو أن هذه طريقة مشرقة ومشرقة للنظر في الأمر. نعم ، قد ينجح ذلك. ومع ذلك ، فإن الجوهر هنا هو أن هناك فرصة متزايدة لحدوث اضطراب شامل. حتى لو كان من الأسهل التعامل مع القرار ، فلا تزال تواجه ضخامة الاضطراب بسبب جوانب الثقافة الأحادية.

إلى جانب حالة الخطأ التي قد تسبب صدمة ، يمكننا أن نتوصل إلى الكثير من السيناريوهات الأخرى المقلقة. قد يكون أحدهم محتالًا إلكترونيًا يبتكر طريقة شريرة لاغتصاب خوارزمية شائعة الاستخدام. يمكن أن يكون للفاسق ثروة في أيديهم. يمكنهم الانتقال من الذكاء الاصطناعي إلى الذكاء الاصطناعي ، مما يجعل الذكاء الاصطناعي يفعل شيئًا غادرًا. كل ذلك بسبب استخدام نفس الخوارزمية مرارًا وتكرارًا. يمكن الاستفادة من المقياس الهائل من أجل الخير ويمكن للأسف استغلاله لسوء الحظ.

في هذه المرحلة من هذه المناقشة المهمة ، أراهن أنك ترغب في بعض الأمثلة التوضيحية التي قد تعرض هذا الموضوع. هناك مجموعة خاصة وشعبية بالتأكيد من الأمثلة القريبة من قلبي. كما ترى ، بصفتي خبيرًا في الذكاء الاصطناعي بما في ذلك التداعيات الأخلاقية والقانونية ، يُطلب مني كثيرًا تحديد أمثلة واقعية تعرض معضلات أخلاقيات الذكاء الاصطناعي بحيث يمكن فهم الطبيعة النظرية إلى حد ما للموضوع بسهولة أكبر. واحدة من أكثر المجالات إثارة للذكريات التي تقدم بوضوح هذا المأزق الأخلاقي للذكاء الاصطناعي هو ظهور سيارات ذاتية القيادة حقيقية قائمة على الذكاء الاصطناعي. سيكون هذا بمثابة حالة استخدام مفيدة أو نموذجًا لمناقشة مستفيضة حول هذا الموضوع.

إليك إذن سؤال جدير بالملاحظة يستحق التفكير فيه: هل ظهور السيارات الحقيقية ذاتية القيادة القائمة على الذكاء الاصطناعي يسلط الضوء على أي شيء يتعلق بالثقافة الأحادية الخوارزمية للذكاء الاصطناعي ، وإذا كان الأمر كذلك ، فما الذي يعرضه هذا؟

اسمح لي بلحظة لفك السؤال.

أولاً ، لاحظ أنه لا يوجد سائق بشري متورط في سيارة حقيقية ذاتية القيادة. ضع في اعتبارك أن السيارات الحقيقية ذاتية القيادة يتم قيادتها عبر نظام قيادة بالذكاء الاصطناعي. ليست هناك حاجة لسائق بشري على عجلة القيادة ، ولا يوجد شرط لقيادة الإنسان للسيارة. لتغطيتي الواسعة والمستمرة للمركبات ذاتية القيادة (AVs) وخاصة السيارات ذاتية القيادة ، انظر الرابط هنا.

أود أن أوضح ما هو المقصود عندما أشير إلى السيارات الحقيقية ذاتية القيادة.

فهم مستويات السيارات ذاتية القيادة

للتوضيح ، السيارات الحقيقية ذاتية القيادة هي تلك التي يقود فيها الذكاء الاصطناعي السيارة بالكامل من تلقاء نفسه ولا توجد أي مساعدة بشرية أثناء مهمة القيادة.

تعتبر هذه المركبات ذاتية القيادة من المستوى 4 والمستوى 5 (انظر الشرح في هذا الرابط هنا) ، في حين أن السيارة التي تتطلب سائقًا بشريًا للمشاركة في جهد القيادة يتم اعتبارها عادةً في المستوى 2 أو المستوى 3. يتم وصف السيارات التي تشارك في مهمة القيادة بأنها شبه مستقلة ، وتحتوي عادةً على مجموعة متنوعة من الوظائف الإضافية المؤتمتة التي يشار إليها باسم ADAS (أنظمة مساعدة السائق المتقدمة).

لا توجد حتى الآن سيارة ذاتية القيادة حقيقية في المستوى الخامس ، ولا نعرف حتى الآن ما إذا كان من الممكن تحقيق ذلك ، ولا كم من الوقت سيستغرق الوصول إليه.

وفي الوقت نفسه ، تحاول جهود المستوى 4 تدريجياً الحصول على بعض الجاذبية من خلال الخضوع لتجارب طرق عامة ضيقة للغاية وانتقائية ، على الرغم من وجود جدل حول ما إذا كان يجب السماح بهذا الاختبار في حد ذاته (نحن جميعًا حيوانات تجارب حياة أو موت في التجربة التي تجري على طرقنا السريعة والطرق الفرعية ، يدعي البعض ، انظر تغطيتي في هذا الرابط هنا).

نظرًا لأن السيارات شبه المستقلة تتطلب سائقًا بشريًا ، فإن اعتماد هذه الأنواع من السيارات لن يكون مختلفًا بشكل ملحوظ عن قيادة المركبات التقليدية ، لذلك لا يوجد الكثير في حد ذاته لتغطية هذه المواضيع (على الرغم من ذلك ، كما سترى في لحظة ، النقاط التالية تنطبق بشكل عام).

بالنسبة للسيارات شبه المستقلة ، من المهم أن يتم تحذير الجمهور بشأن جانب مزعج ظهر مؤخرًا ، أي أنه على الرغم من هؤلاء السائقين البشر الذين يستمرون في نشر مقاطع فيديو لأنفسهم ينامون على عجلة سيارة من المستوى 2 أو المستوى 3 علينا جميعًا أن نتجنب التضليل حتى نصدق أن السائق يمكنه أن يلفت انتباهه عن مهمة القيادة أثناء قيادة سيارة شبه مستقلة.

أنت الطرف المسؤول عن إجراءات القيادة في السيارة ، بغض النظر عن مقدار الأتمتة التي قد يتم قذفها في المستوى 2 أو المستوى 3.

السيارات ذاتية القيادة وخوارزمية الذكاء الاصطناعي الأحادية

بالنسبة للمركبات ذاتية القيادة الحقيقية من المستوى 4 والمستوى 5 ، لن يكون هناك سائق بشري يشارك في مهمة القيادة.

سيكون جميع الركاب من الركاب.

تقوم منظمة العفو الدولية بالقيادة.

أحد الجوانب التي يجب مناقشتها على الفور يستلزم حقيقة أن الذكاء الاصطناعي المتضمن في أنظمة قيادة الذكاء الاصطناعي اليوم ليس واعيًا. بعبارة أخرى ، الذكاء الاصطناعي عبارة عن مجموعة من البرمجة والخوارزميات المستندة إلى الكمبيوتر ، وهو بالتأكيد غير قادر على التفكير بنفس الطريقة التي يستطيع بها البشر.

لماذا هذا التركيز الإضافي على الذكاء الاصطناعي ليس واعيا؟

لأنني أريد أن أؤكد أنه عند مناقشة دور نظام القيادة للذكاء الاصطناعي ، فأنا لا أنسب الصفات البشرية للذكاء الاصطناعي. يرجى العلم أن هناك اتجاهًا مستمرًا وخطيرًا هذه الأيام لتجسيد الذكاء الاصطناعي. من حيث الجوهر ، يخصص الناس ذكاءً شبيهاً بالإنسان إلى الذكاء الاصطناعي اليوم ، على الرغم من الحقيقة التي لا يمكن إنكارها والتي لا جدال فيها وهي عدم وجود مثل هذا الذكاء الاصطناعي حتى الآن.

مع هذا التوضيح ، يمكنك أن تتخيل أن نظام القيادة بالذكاء الاصطناعي لن "يعرف" بطريقة أو بأخرى جوانب القيادة. القيادة وكل ما تتطلبه يجب برمجتها كجزء من أجهزة وبرامج السيارة ذاتية القيادة.

دعونا نتعمق في عدد لا يحصى من الجوانب التي تأتي للعب في هذا الموضوع.

أولاً ، من المهم أن ندرك أنه ليست كل سيارات الذكاء الاصطناعي ذاتية القيادة هي نفسها. تتبنى كل شركة تصنيع سيارات وشركة تقنية ذاتية القيادة نهجها في ابتكار سيارات ذاتية القيادة. على هذا النحو ، من الصعب الإدلاء ببيانات شاملة حول ما ستفعله أو لا تفعله أنظمة القيادة بالذكاء الاصطناعي.

علاوة على ذلك ، عندما يذكر أن نظام القيادة بالذكاء الاصطناعي لا يفعل شيئًا معينًا ، يمكن ، لاحقًا ، تجاوز هذا الأمر من قبل المطورين الذين يقومون في الواقع ببرمجة الكمبيوتر للقيام بهذا الشيء بالذات. خطوة بخطوة ، يتم تحسين أنظمة القيادة بالذكاء الاصطناعي وتوسيعها تدريجياً. قد لا يوجد قيد موجود اليوم في تكرار أو إصدار مستقبلي من النظام.

آمل أن يوفر ذلك مجموعة كافية من المحاذير لإبراز ما أنا على وشك ربطه.

سنبدأ بذكر بعض الأسس الحاسمة. يجري ابتكار أنظمة قيادة تعمل بالذكاء الاصطناعي لمحاولة تشغيل السيارات ذاتية القيادة بأمان. تقوم بعض شركات صناعة السيارات وشركات التكنولوجيا ذاتية القيادة بالترميز بطرق احتكارية. يعتمد البعض الآخر على كود مفتوح المصدر.

تخيل أن بعض الخوارزمية Z متاحة في مستودعات مفتوحة المصدر وسهلة الاستخدام في أنظمة القيادة بالذكاء الاصطناعي. تقوم شركة تصنيع سيارات أو شركة تكنولوجيا ذاتية القيادة بدمج الخوارزمية Z في نظام القيادة بالذكاء الاصطناعي. سيتم نسج هذا بشكل متكامل في نظام القيادة AI الخاص بهم.

إذا وضعوا على سبيل المثال عشرات السيارات ذاتية القيادة على الطرق ، فستحتوي كل تلك المركبات ذاتية القيادة على الخوارزمية Z كجزء من البرنامج الموجود على متن الطائرة لنظام القيادة بالذكاء الاصطناعي. تدريجيًا ، بافتراض أن السيارات ذاتية القيادة تسير بأمان ، يزداد حجم الأسطول إلى عشرين سيارة ذاتية القيادة على الطرق. تم اتخاذ قرار بالتكثيف أكثر. وسرعان ما تنتشر ألفي سيارة ذاتية القيادة من هذا الأسطول في الشوارع والطرق السريعة. وهلم جرا.

يستخدم صانع سيارات مختلف أيضًا الخوارزمية Z في نظام القيادة الخاص به. هم أيضًا ينشرون سياراتهم ذاتية القيادة. تم زيادة حجم أسطولهم. سرعان ما أصبح لديهم الآلاف من سياراتهم ذاتية القيادة تتجول هنا جيئة وذهابا.

أنا على ثقة من أنه يمكنك أن ترى إلى أين يتجه هذا.

يمكننا أن نجد أنفسنا في ثقافة أحادية تعتمد على خوارزمية الذكاء الاصطناعي وسط ظهور السيارات ذاتية القيادة القائمة على الذكاء الاصطناعي. قد يكون للعديد من العلامات التجارية ونماذج المركبات المستقلة خوارزمية معينة يتم استخدامها في مكان ما في نظام القيادة بالذكاء الاصطناعي. لم يكن هناك أي تواطؤ في هذا الشأن. لا مؤامرات كبرى في اللعب.

فيما يتعلق بعدد السيارات ذاتية القيادة التي قد نمتلكها يومًا ما على طرقنا ، هناك نقاش ساخن حول هذا الموضوع. نحن نعلم أنه يوجد في الولايات المتحدة وحدها حوالي 250 مليون سيارة يقودها الإنسان اليوم. يقترح البعض أننا سنحتاج إلى حوالي 250 مليون سيارة ذاتية القيادة ، بافتراض أننا في النهاية نتخلص من السيارات التي يقودها الإنسان أو أنه يتم التخلص منها بشكل طبيعي واستبدالها بسيارات ذاتية القيادة.

ليس بهذه السرعة ، بعض الحث. تقضي السيارات التي يقودها الإنسان حوالي 90٪ أو أكثر من وقتها غير مستخدم. بشكل عام ، السيارات التي يقودها الإنسان تجلس متوقفة وتنتظر سائقًا بشريًا يقودها. يمكن للسيارات ذاتية القيادة القائمة على الذكاء الاصطناعي القيادة طوال الوقت تقريبًا. من المفترض أن يكون لديك سيارة ذاتية القيادة تعمل بالذكاء الاصطناعي تعمل على مدار الساعة طوال أيام الأسبوع ، بخلاف الصيانة أو أي وقت تعطل آخر مطلوب.

في هذه الحالة ، لن تحتاج على ما يبدو إلى 250 مليون سيارة ذاتية القيادة لتحل محل سيارة بواحدة مقابل 250 مليون سيارة يقودها الإنسان. ربما يكفي 200 مليون سيارة ذاتية القيادة. ربما 100 مليون. لا أحد يستطيع أن يقول على وجه اليقين. لتقييمي لهذه القضية ، انظر الرابط هنا.

أريد في الوقت الحالي أن أشير إلى أنه يمكن أن يكون لدينا ملايين وملايين من السيارات ذاتية القيادة تتجول في النهاية على طرقنا السريعة والطرق الفرعية. كم منهم سيكون لدينا في نهاية المطاف على وجه التحديد على الطرقات ليس مصدر قلق بالغ الأهمية من أجل هذا الخطاب. سيكون هناك بلا شك عدة ملايين. هذا الحجم بشكل عام مهم بسبب الزراعة الأحادية الخوارزمية للذكاء الاصطناعي وخاصية حجر الزاوية في مواجهة كل من المزايا والعيوب على نطاق واسع.

هذا هو تطور.

بسبب الحظ الغبي الفظيع ، توجد مشكلة خطيرة داخل الخوارزمية Z لم يتمكن أحد من ملاحظتها من قبل. هناك خطأ من شأنه أن يتسبب في انحراف بقية نظام القيادة بالذكاء الاصطناعي.

اخبار سيئة.

بالنسبة لأولئك منكم الذين هم في خضم ابتكار أنظمة قيادة تعمل بالذكاء الاصطناعي ، أدرك أنك لا تحب عادةً هذه الأنواع من سيناريوهات أسوأ الحالات ، وعلى الرغم من أن الفرص ربما تكون ضئيلة ، إلا أنها مع ذلك تستحق المناقشة. لا يمكننا إبقاء رؤوسنا في الرمال. من الأفضل أن تكون عينيك مفتوحتين وتسعى لمنع أو على الأقل تخفيف هذه الأنواع من الكوارث.

من الناحية النظرية ، قد تحاول سيارة ذاتية القيادة بالذكاء الاصطناعي تحتوي على هذا الخطأ أن تصطدم وتحطم أي شيء تقريبًا وكل شيء في متناولها للقيام بذلك. يقوم الذكاء الاصطناعي بعمل ما "تم تصميمه" للقيام به في هذا المكان. سيكون هذا كارثي.

قد يفكر البعض منكم في أنه لمجرد أن إحدى السيارات ذاتية القيادة بالذكاء الاصطناعي قد تصادف الخطأ ، فلن تبدو مشكلة كبيرة في حد ذاتها. أقول ذلك لأنه بمجرد اصطدام السيارة ذاتية القيادة بالذكاء الاصطناعي بشيء مثل شاحنة أو أي شيء آخر ، فمن المحتمل أن تتضرر السيارة نفسها لدرجة أنه لم يعد بإمكان الذكاء الاصطناعي توجيهها بشكل نشط لتنفيذ أي فوضى وتدمير أخرى. إنه ميت في الماء إذا جاز التعبير.

حسنًا ، ضع في اعتبارك عامل القياس المتضمن.

إذا كان هناك الملايين والملايين من السيارات ذاتية القيادة وكلهم يعتمدون على نفس الخوارزمية المضمنة Z ، فقد ينفذون نفس الخطأ بشكل مؤسف.

أعلم وأقر أنه قد يتم إصلاح هذا الخطأ أو التغلب عليه من خلال استخدام تحديث برنامج OTA (Over-The-Air) الموزع إلكترونيًا. كخلفية سريعة ، تدافع الكثير عن مزايا استخدام OTA. عندما تكون هناك حاجة إلى تحديث البرنامج ، فلن تضطر إلى اصطحاب سيارة ذاتية القيادة تعمل بالذكاء الاصطناعي إلى ورشة لتصليح السيارات أو وكيل. يمكن إجراء OTA إلى حد كبير في أي مكان تصادف فيه السيارة ذاتية القيادة (ضمن القيود).

في هذه الأثناء ، حتى نكتشف الخطأ والإصلاح ، وقبل إرساله عبر OTA ، لا تزال السيارات ذاتية القيادة على الطرق في وضع غير مستقر. قد يكون البعض قد واجه الخطأ وانحرف. البعض الآخر على وشك القيام بذلك.

قد نختار الإصرار على أنه يجب إيقاف جميع السيارات ذاتية القيادة في مكانها في الوقت الحالي وعدم استخدامها مرة أخرى حتى يتم بث إصلاح OTA في أنظمة القيادة بالذكاء الاصطناعي. تخيل الاضطراب. افترض أن لدينا عددًا قليلاً جدًا من السيارات التي يقودها البشر. الاحتمالات أيضًا هي أن السيارات ذاتية القيادة لن تكون مزودة بأدوات تحكم بشرية في القيادة. في الأساس ، يمكن أن ينتهي بك الأمر مع 200 مليون سيارة ذاتية القيادة (أو أي رقم) بينما نقوم بإصلاح الخطأ.

إذا أصبح المجتمع معتمداً على السيارات ذاتية القيادة ، فأنت إلى حد كبير قد أغلقت المجتمع من منظور التنقل ، على الأقل حتى يتم التخلص من الخطأ.

الآن سيكون ذلك بمثابة صدمة ضارة وصادمة للنظام ، كما كان.

أظن أن فكرة وجود حشرة كامنة تقوم بأفعال سيئة قد تبدو شبه مستحيلة تخيلها ، على الرغم من أننا في نفس الوقت لا نستطيع استبعاد الاحتمال برمته. هناك احتمالات أخرى ، مثل نقاط الضعف في مجرمي الإنترنت التي قد تكون موجودة. لقد ناقشت على سبيل المثال كيف يمكن لدولة قومية مارقة أن تحاول القيام بعمل شنيع من خلال استغلال نقطة ضعف في نظام قيادة للذكاء الاصطناعي ، انظر نقاشي في الرابط هنا. بالإضافة إلى ذلك ، للحصول على التفاصيل الخاصة بي حول كيفية تنفيذ الاستيلاء الخبيث على السيارات ذاتية القيادة بالذكاء الاصطناعي ، راجع تغطيتي على الرابط هنا.

وفي الختام

تشابه التفكير هو نعمة ونقمة في نفس الوقت.

لاحظنا سابقًا أن غاندي قال إن أولئك الذين لديهم نفس التفكير يمكنهم تحقيق أشياء عظيمة. يمكن للذكاء الاصطناعي "المتشابه في التفكير" أن يحقق أشياء عظيمة. حذرنا أفلاطون من أن العقول المنغلقة يمكن أن تشكل خطرًا كبيرًا. إذا كانت لدينا أنظمة متشابهة التفكير في كل مكان حولنا ، فمن المحتمل أن نواجه مخاطر كامنة من عناصر التخريب غير المقصودة (أو المتعمدة) التي يمكن أن تلحق الضرر ببعضنا أو ربما جميعًا.

نحن بحاجة إلى أن يكون لدينا عقل متفتح بشأن الزراعة الأحادية الخوارزمية للذكاء الاصطناعي. إذا فعلنا الأشياء بشكل صحيح ، فقد نتمكن من تسخير الخير وتجنب الشر.

ولكن فقط إذا كنا محقين في أذهاننا بشأن كل شيء.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/06/19/ai-ethics-confronting-the-insidious-one-like-mind-of-ai-algorithmic-monoculture-including-for- سيارات ذاتية القيادة /