أذهلت أخلاقيات الذكاء الاصطناعي أولئك الذين يميلون لأخلاقيات الذكاء الاصطناعي الذين "يحرضون" على ممارسات الذكاء الاصطناعي الأخلاقية

كان التمليح في الأخبار كثيرًا مؤخرًا.

أنا لا أشير إلى الملح الذي تضعه في طعامك. بدلاً من ذلك ، أنا أتحدث عن "التمليح" المرتبط بممارسة استفزازية ومثيرة للجدل إلى حد كبير مرتبطة بالتفاعل بين العمل والأعمال.

كما ترى ، يستلزم هذا النوع من التمليح الظرف الذي يحاول فيه الشخص أن يوظف في شركة ليبدأ ظاهريًا أو قد يقول البعض إنه يحرض على إنشاء نقابة عمالية فيها. تشير أحدث الحسابات الإخبارية التي تناقش هذه الظاهرة إلى شركات مثل Starbucks و Amazon وغيرها من الشركات المعروفة وحتى الأقل شهرة.

سوف أغطي أولاً أساسيات التمليح ثم سأنتقل إلى موضوع مشابه قد تكون متفاجئًا بشأنه ، أي أنه يبدو أن هناك نوعًا من التمليح يحدث في مجال الذكاء الاصطناعي (AI). هذا له اعتبارات أخلاقيات الذكاء الاصطناعي الحاسمة. للاطلاع على تغطيتي المستمرة والشاملة لأخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي ، انظر الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

الآن ، دعنا ندخل في أساسيات كيفية عمل التمليح عادة.

لنفترض أن الشركة ليس لديها أي نقابات في القوى العاملة لديها. كيف يمكن لنقابة عمالية أن تحصل بطريقة ما على موطئ قدم في تلك الشركة؟ تتمثل إحدى الوسائل في اتخاذ إجراءات خارج الشركة ومحاولة مناشدة العمال أنه ينبغي عليهم الانضمام إلى نقابة. قد يتضمن ذلك عرض لافتات بالقرب من مقر الشركة أو إرسال منشورات للعمال أو استخدام وسائل التواصل الاجتماعي ، وما إلى ذلك.

هذا هو بالتأكيد أسلوب من الخارج إلى الداخل.

وسيلة أخرى يمكن أن تحفز من داخل شرارة قد تجعل الكرة تتدحرج. إذا كان من الممكن تشغيل موظف واحد على الأقل كقائد مشجع لاحتضان نقابة عمالية في الشركة ، فربما يبدأ هذا في نهاية المطاف في تشكيل موكب داخلي من الدعم للانضمام إلى النقابات هناك. حتى لو لم يكن مثل هذا الموظف يعمل كمشجع ، فقد يكون قادرًا بهدوء على حشد الدعم الداخلي بين العمال ويكون قوة خفية نسبيًا داخل المنظمة لمتابعة النقابات.

بهذه الطريقة في التفكير ، قد يفكر الاتحاد العمالي في الطرق التي يمكن من خلالها تنشيط مثل هذا الموظف. قد ينفق الاتحاد طاقة لا نهاية لها للعثور على تلك الإبرة في كومة القش. من بين مئات أو آلاف العاملين في الشركة ، ربما يكون من الصعب القيام بمحاولة اكتشاف ما يسمى بالعاملين المختارين ، على وجه الخصوص ، الذي يفضل النقابات.

سيكون من السهل "اكتشاف" العامل المسبب للشرارة (أو اختراعه ، إذا جاز التعبير).

يقودنا هذا إلى فكرة فويلا التي ربما تجعل الشركة توظف مثل هذا الشخص للقيام بدور يومي في الشركة. في الأساس ، غرس النوع الصحيح من النقابة الذي يحفز الشخص في الشركة. لا تحتاج إلى محاولة مناشدة حشود العمال الذين تم إخبارهم جميعًا من الخارج وبدلاً من ذلك أدخل الشخص المنشط حتى تعرف على وجه اليقين أن شرارتك تعمل هناك.

ثم يسعى العامل المعين حديثًا إلى غرس مصلحة نقابية داخل الشركة ، وفي الوقت نفسه يقوم بأي عمل تم تعيينه للقيام به (معبرًا عما يشار إليه غالبًا باسم "مصلحة حقيقية" في الوظيفة). لاحظ أن الشخص يعمل بنشاط من قبل الشركة ويقوم بنشاط بالعمل المطلوب منه كموظف. في المجال المعتاد للتمليح ، فإنهم ليسوا مجرد عامل مرتبط بالوظيفة غير محدد في النقابات فقط والذي يتم تضمينه في الشركة بالمصادفة.

وقد بشر البعض بهذا النهج.

يحضون على أنه يوفر الوقت والموارد فيما يتعلق بالنقابة التي تسعى إلى إلهام العمال في الشركة للنظر في الانضمام إلى نقابة. عادة ما يكون الموظفون الآخرون أكثر استعدادًا للاستماع إلى الموظف الزميل وتنشيطه. يعتبر النهج البديل المتمثل في محاولة اكتساب قوة جذب من الخارج أقل جاذبية ، حيث يوفر الموظف الزميل حافزًا قويًا للعاملين داخل الشركة مقارنة ببعض "الغرباء" الذين يُنظر إليهم على أنهم في الواقع أكثر من مجرد دفع جدول أعمال غير منخرط وغير مهتم. الغرباء.

ليس الجميع سعداء بنهج التمليح.

غالبًا ما تجادل الشركات بأن هذه ممارسة مخادعة وغير نزيهة. الجشطالت العام لهذا النهج هو أنه يتم وضع جاسوس في وسط الشركة. ليس هذا ما تم تعيين الشخص للقيام به. من المفترض أنه تم توظيفهم للقيام بعملهم المعلن ، بينما بدلاً من ذلك ، يبدو أن كل الخدع المتنوعة تبدو وكأنها غرس شيطاني لحصان طروادة حقيقي.

الدعوى المضادة من قبل النقابات هي أنه إذا كان الشخص يقوم بعمله المعلن ، فلا ضرر ولا خطأ. يفترض ، موظف ، أو يجب أن نقول أي وقت موظف في الشركة ، عادة ما يختار السعي إلى النقابة. هذا الموظف بالذات يحدث أنه يريد القيام بذلك. حقيقة أنهم جاءوا إلى الشركة مع وضع هذه الفكرة في الاعتبار هو مجرد شيء قد يفكر فيه أي موظف تم تعيينه حديثًا.

انتظر لحظة ، سترد الشركات ، هذا شخص ما حسب التصميم أراد أن يأتي إلى الشركة لأغراض إنشاء موطئ قدم نقابي. هذه هي رغبتهم الدافعة. لقد استهزأ الموظف المعين حديثًا بعملية التوظيف واستغل بشكل غير ملائم تطلعاته في البحث عن عمل كذريعة لميزة معينة للنقابة.

يدور هذا الخطاب الساخن ويدور حوله.

ضع في اعتبارك أن هناك عددًا كبيرًا من الاعتبارات القانونية التي تنشأ في هذه الإعدادات. جميع أنواع القواعد واللوائح التي تتعلق على سبيل المثال بقانون علاقات العمل الوطني (NLRA) والمجلس الوطني لعلاقات العمل (NRLB) هي جزء من هذه المناورات. لا أريدك أن يكون لديك انطباع بأن الأمور واضحة على هذه الجبهات. تكثر التعقيدات القانونية العديدة.

يجب أن نفكر أيضًا في مجموعة متنوعة من الاختلافات التي تأتي للعب مع التمليح.

خذ احتمال أن يكون الشخص الذي يرغب في التوظيف مدافعًا صريحًا عن النقابة طوال عملية السعي للحصول على وظيفة في الشركة. قد يظهر هذا الشخص في مقابلة العمل مرتديًا قميصًا أو زيًا آخر يوضح بوضوح أنه مؤيد للنقابة. قد يجلبون أثناء المقابلات أملهم في أن تتبنى الشركة يومًا ما النقابات. إلخ.

في هذه الحالة ، قد يؤكد البعض أن الشركة كانت تعلم ما الذي ستدخل فيه. منذ البداية ، كان لدى الشركة الكثير من المؤشرات حول نوايا الشخص. لا يمكنك بعد ذلك أن تتذمر بعد ذلك إذا تم تعيين الموظف الجديد سيفعل كل ما في وسعه للحصول على النقابة في الباب. لقد أطلقت الشركة نفسها كما كانت ، وأي شيء آخر هو مجرد دموع تمساح.

الرقص على هذا على الرغم من أنه مرة أخرى أكثر تعقيدًا مما يبدو. وفقًا للمشكلات القانونية التي يمكن أن تنشأ ، يمكن لأي شخص مؤهل للحصول على وظيفة أخرى إذا رفضته شركة التوظيف أن يجادل بأنه تم التغاضي عنه عن قصد نتيجة لتحيز الشركة ضد النقابات. مرة أخرى ، تنجذب NRLA و NRLB إلى هذه القضية الفوضوية.

سوف أديرك بسرعة من خلال عدد كبير من الاعتبارات الأخرى التي تنشأ في عالم التمليح. أود أيضًا أن تدرك أن التمليح ليس ظاهرة أمريكية فقط. يمكن أن يحدث في بلدان أخرى أيضًا. بالطبع ، تختلف قوانين وممارسات البلدان اختلافًا كبيرًا ، وبالتالي فإن التمليح إما ليس مفيدًا بشكل خاص أو ربما يكون محظورًا تمامًا في بعض المناطق ، في حين أن طبيعة التمليح قد تتغير بشكل كبير بناءً على الأعراف القانونية والثقافية الخاصة بها ويمكن في الواقع لا يزال لديها الفاعلية.

استشر محامي قانون العمل المحبوب في أي اختصاص قضائي يهمك.

تتضمن بعض العوامل الإضافية حول التمليح ما يلي:

  • الحصول على دفع. في بعض الأحيان يتم الدفع للشخص من قبل النقابة للقيام بمهمة التوظيف في الشركة. قد يتم الدفع لهم بعد ذلك من قبل كل من الشركة والنقابة خلال فترة عملهم في الشركة أو قد لا يتقاضون رواتبهم من قبل النقابة بمجرد تعيينهم من قبل الشركة.
  • الرؤية. أحيانًا يظل الشخص منخفضًا أو يظل هادئًا تمامًا أثناء عملية التوظيف بشأن نواياه النقابية ، بينما في حالات أخرى يكون الشخص صريحًا حول ما ينوي القيام به. إن النهج الذي يبدو في منتصف الطريق هو أن الشخص سيخبر بما يهدف إلى القيام به إذا طُلب منه صراحةً أثناء المقابلات ، وبالتالي يشير ضمنيًا إلى أن الأمر متروك للشركة لاكتشاف هذه النوايا ، وهو عبء تجادل الشركات بأنه يتواطأ بشكل مخادع و سلالات الحدود القانونية.
  • التوقيت. قد يختار الشخص الذي تم تعيينه مرة واحدة الانتظار للقيام بقدراته النقابية. من المحتمل أن ينتظروا أسابيع أو شهور أو حتى سنوات للتنشيط. الاحتمالات على الرغم من أنها ستبدأ على الأرجح بمجرد أن تتأقلم مع الشركة وتؤسس لنفسها موطئ قدم شخصي كموظف في الشركة. إذا بدأوا على الفور ، فقد يؤدي ذلك إلى تقويض محاولتهم أن يُنظر إليهم على أنهم من الداخل ويصورهم على أنهم دخيل أو دخيل.
  • الخطوات المتخذة. في بعض الأحيان ، يعلن الشخص صراحةً داخل الشركة أنه يسعى الآن لاحتضان النقابات ، وهو ما يمكن أن يحدث بعد فترة وجيزة من التوظيف أو يحدث بعد ذلك بفترة قصيرة (وفقًا لإشاري أعلاه حول عامل التوقيت). من ناحية أخرى ، قد يختار الشخص العمل في دور سري ، وإطعام المعلومات للنقابة وعدم لفت الانتباه إلى نفسه. هذا هو في بعض الأحيان اللوم على أنه تمليح الخلد، على الرغم من أن الآخرين قد يؤكدون أن الشخص قد يتعرض بخلاف ذلك لمخاطر داخلية إذا تحدث مباشرة.
  • الحيازة. قد ينتهي الأمر بالشخص الذي يبذل جهدًا في التمليح ليكون قادرًا على الحصول على زخم نقابي جاري (إنهم "مخلصون"). من المحتمل أن يظلوا في الشركة طوال عملية النقابة. ومع ذلك ، في بعض الأحيان يختار مثل هذا الشخص مغادرة الشركة التي تم إطلاق شرارة ويختار الذهاب إلى شركة أخرى لبدء الأنشطة الشرارة من جديد. الجدال حول هذا مكثف. إحدى وجهات النظر هي أن هذا يوضح بوضوح أن الشخص لم يكن في قلبه الوظيفة في الشركة. وجهة النظر المتناقضة هي أنه من المحتمل أن يجدوا أنفسهم في مياه غامضة وربما يتعذر الدفاع عنها من خلال البقاء في الشركة بمجرد أن يكتسب جهد تعزيز النقابة قوة دفع.
  • نتيجة. محاولة التمليح لا تضمن نتيجة معينة. يمكن أن يكون الشخص قد رفع الوعي حول النقابات والجهود جارية ، وقد حدث تمليح ergo "ناجح". النتيجة الأخرى هي أن الشخص غير قادر على الحصول على مثل هذا الجر. ثم يتخلون عن المطاردة ويبقون في الشركة ، وربما ينتظرون فرصة أخرى في وقت لاحق ، أو يغادرون الشركة ويسعون عادةً إلى القيام بالتمليح في شركة أخرى.
  • سالتر المحترف. يعتبر بعض الناس أنفسهم مدافعين أقوياء عن التمليح ويفخرون بأن يكونوا ملاحين ، إذا جاز التعبير. يقومون بالتمليح بشكل متكرر ، ينتقلون من شركة إلى شركة أثناء قيامهم بذلك. سيفعل الآخرون هذا على أساس مرة واحدة ، ربما بسبب تفضيل معين أو لمعرفة ما هو عليه ، ثم يختارون عدم التكرار في مثل هذا الدور. يمكنك بالتأكيد أن تتخيل أنواع الضغوط الشخصية والضغط المحتمل الذي يمكن أن يحدث عندما تكون بقدرة ملحة.

ستكون هذه العوامل كافية في الوقت الحالي لتسليط الضوء على نطاق وديناميكيات التمليح. سأعيد النظر في هذه العوامل في سياق اعتبارات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي.

الجوهر هو أن بعض الأشخاص يسعون للتوظيف في شركة لبدء أو التحريض على إنشاء مبادئ أخلاقيات الذكاء الاصطناعي في الشركة. هذا هو الدافع الأساسي للذهاب إلى العمل في الشركة.

بمعنى من المعاني ، فهم لا يقومون بالتمليح لأغراض النقابات ولكن بدلاً من ذلك "التمليح" لمحاولة الحصول على شركة متجذرة في المبادئ الأخلاقية للذكاء الاصطناعي.

سأقول الكثير عن هذا للحظات.

قبل الدخول في مزيد من اللحوم والبطاطس حول الاعتبارات البرية والصوفية الكامنة وراء التمليح في سياق الذكاء الاصطناعي ، دعنا نضع بعض الأساسيات الإضافية حول الموضوعات الأساسية للغاية. نحن بحاجة إلى الغوص لفترة وجيزة في أخلاقيات الذكاء الاصطناعي وخاصة ظهور التعلم الآلي (ML) والتعلم العميق (DL).

قد تكون مدركًا بشكل غامض أن أحد أعلى الأصوات هذه الأيام في مجال الذكاء الاصطناعي وحتى خارج مجال الذكاء الاصطناعي يتكون من المطالبة بمظهر أشبه بالذكاء الاصطناعي الأخلاقي. دعونا نلقي نظرة على معنى الإشارة إلى أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي. علاوة على ذلك ، سوف نستكشف ما أعنيه عندما أتحدث عن التعلم الآلي والتعلم العميق.

يتكون جزء أو جزء معين من أخلاقيات الذكاء الاصطناعي الذي حظي بالكثير من اهتمام وسائل الإعلام من الذكاء الاصطناعي الذي يُظهر تحيزات وأوجه عدم مساواة غير مرغوب فيها. قد تدرك أنه عندما بدأ العصر الأخير للذكاء الاصطناعي ، كان هناك اندفاع هائل من الحماس لما يسميه البعض الآن منظمة العفو الدولية من أجل الخير. لسوء الحظ ، في أعقاب تلك الإثارة المتدفقة ، بدأنا نشهد منظمة العفو الدولية للسوء. على سبيل المثال ، تم الكشف عن العديد من أنظمة التعرف على الوجه القائمة على الذكاء الاصطناعي على أنها تحتوي على تحيزات عنصرية وتحيزات بين الجنسين ، والتي ناقشتها في الرابط هنا.

جهود للقتال ضد منظمة العفو الدولية للسوء بنشاط جارية. إلى جانب صاخبة السياسات مساعي كبح جماح المخالفات ، هناك أيضًا دافع جوهري نحو تبني أخلاقيات الذكاء الاصطناعي لتصحيح ضعف الذكاء الاصطناعي. الفكرة هي أننا يجب أن نتبنى ونصادق على المبادئ الأخلاقية الرئيسية للذكاء الاصطناعي لتطوير الذكاء الاصطناعي وإدخاله في الميدان لتقويض منظمة العفو الدولية للسوء والتبشير والترويج في الوقت نفسه لما هو مفضل منظمة العفو الدولية من أجل الخير.

فيما يتعلق بمفهوم ذي صلة ، أنا من المدافعين عن محاولة استخدام الذكاء الاصطناعي كجزء من حل مشاكل الذكاء الاصطناعي ، ومكافحة النيران بالنار بهذه الطريقة من التفكير. قد نقوم على سبيل المثال بتضمين المكونات الأخلاقية للذكاء الاصطناعي في نظام ذكاء اصطناعي يراقب كيفية قيام بقية الذكاء الاصطناعي بالأشياء ، وبالتالي من المحتمل أن نكتشف في الوقت الفعلي أي جهود تمييزية ، انظر نقاشي في الرابط هنا. يمكن أن يكون لدينا أيضًا نظام ذكاء اصطناعي منفصل يعمل كنوع من أجهزة مراقبة أخلاقيات الذكاء الاصطناعي. يعمل نظام الذكاء الاصطناعي كمشرف لتتبع واكتشاف متى يدخل ذكاء اصطناعي آخر في الهاوية غير الأخلاقية (انظر تحليلي لهذه القدرات في الرابط هنا).

بعد قليل ، سوف أشارككم بعض المبادئ الشاملة التي تقوم عليها أخلاقيات الذكاء الاصطناعي. هناك الكثير من هذه الأنواع من القوائم التي تطفو هنا وهناك. يمكنك القول أنه لا توجد حتى الآن قائمة فردية للنداء والتوافق العالميين. هذه هي الأخبار المؤسفة. الخبر السار هو أن هناك على الأقل قوائم أخلاقيات الذكاء الاصطناعي متاحة بسهولة وتميل إلى أن تكون متشابهة تمامًا. أخيرًا ، يشير هذا إلى أنه من خلال شكل من أشكال التقارب المنطقي ، فإننا نجد طريقنا نحو قواسم مشتركة عامة لما تتكون منه أخلاقيات الذكاء الاصطناعي.

أولاً ، دعنا نغطي بإيجاز بعض المبادئ الأخلاقية الشاملة للذكاء الاصطناعي لتوضيح ما يجب أن يكون اعتبارًا حيويًا لأي شخص يقوم بصياغة أو استخدام أو استخدام الذكاء الاصطناعي.

على سبيل المثال ، كما صرح الفاتيكان في دعوة روما لأخلاقيات الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • الشفافية: من حيث المبدأ ، يجب أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير
  • إدراجه: يجب أن تؤخذ احتياجات جميع البشر في الاعتبار حتى يستفيد الجميع ، ويمكن لجميع الأفراد توفير أفضل الظروف الممكنة للتعبير عن أنفسهم وتطويرهم.
  • المسئولية: يجب على أولئك الذين يصممون وينشرون استخدام الذكاء الاصطناعي أن يتابعوا المسؤولية والشفافية
  • النزاهة: لا تخلق أو تتصرف على أساس التحيز ، وبالتالي الحفاظ على العدالة والكرامة الإنسانية
  • الموثوقية: يجب أن تكون أنظمة الذكاء الاصطناعي قادرة على العمل بشكل موثوق
  • الأمن والخصوصية: يجب أن تعمل أنظمة الذكاء الاصطناعي بشكل آمن وتحترم خصوصية المستخدمين.

كما صرحت وزارة الدفاع الأمريكية (DoD) في المبادئ الأخلاقية لاستخدام الذكاء الاصطناعي وكما غطيت بالتفصيل في الرابط هنا، هذه هي المبادئ الستة الأساسية لأخلاقيات الذكاء الاصطناعي:

  • مسؤول: سوف يمارس موظفو وزارة الدفاع مستويات مناسبة من الحكم والرعاية مع الاستمرار في المسؤولية عن تطوير ونشر واستخدام قدرات الذكاء الاصطناعي.
  • العادل: ستتخذ الإدارة خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي.
  • تعقبها: سيتم تطوير ونشر قدرات الذكاء الاصطناعي في الإدارة بحيث يمتلك الموظفون المعنيون فهمًا مناسبًا للتكنولوجيا وعمليات التطوير والأساليب التشغيلية المطبقة على قدرات الذكاء الاصطناعي ، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق ومصادر البيانات وإجراءات التصميم والتوثيق.
  • موثوق: سيكون لإمكانيات الذكاء الاصطناعي في الإدارة استخدامات واضحة ومحددة جيدًا ، وستخضع سلامة وأمن وفعالية هذه القدرات للاختبار والتأكيد ضمن تلك الاستخدامات المحددة عبر دورات حياتها بأكملها.
  • للحكم: ستقوم الإدارة بتصميم وهندسة قدرات الذكاء الاصطناعي للوفاء بالوظائف المقصودة مع امتلاك القدرة على اكتشاف وتجنب العواقب غير المقصودة ، والقدرة على فك أو إلغاء تنشيط الأنظمة المنشورة التي تظهر سلوكًا غير مقصود.

لقد ناقشت أيضًا العديد من التحليلات الجماعية للمبادئ الأخلاقية للذكاء الاصطناعي ، بما في ذلك تغطية مجموعة ابتكرها باحثون قاموا بفحص وتكثيف جوهر العديد من مبادئ أخلاقيات الذكاء الاصطناعي الوطنية والدولية في ورقة بعنوان "المشهد العالمي لإرشادات أخلاقيات الذكاء الاصطناعي" (تم نشره) في الطبيعة) ، وأن تغطيتي تستكشف في الرابط هنا، مما أدى إلى هذه القائمة الأساسية:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

كما قد تخمن بشكل مباشر ، فإن محاولة تحديد التفاصيل التي تقوم عليها هذه المبادئ قد يكون صعبًا للغاية. والأكثر من ذلك ، فإن الجهد المبذول لتحويل هذه المبادئ العريضة إلى شيء ملموس ومفصل تمامًا بما يكفي لاستخدامه عند صياغة أنظمة الذكاء الاصطناعي يعد أيضًا من الصعب كسرها. من السهل بشكل عام القيام ببعض التلويح اليدوي حول ماهية مبادئ أخلاقيات الذكاء الاصطناعي وكيف ينبغي مراعاتها بشكل عام ، في حين أنه وضع أكثر تعقيدًا في ترميز الذكاء الاصطناعي يجب أن يكون المطاط الحقيقي الذي يلبي الطريق.

يجب استخدام مبادئ أخلاقيات الذكاء الاصطناعي من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف. يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. كما ذكرنا سابقًا ، فإن الأمر يتطلب قرية لابتكار واستخدام الذكاء الاصطناعي ، ومن أجل ذلك يجب أن تكون القرية بأكملها على دراية بمبادئ أخلاقيات الذكاء الاصطناعي والالتزام بها.

دعنا نتأكد أيضًا من أننا على نفس الصفحة حول طبيعة الذكاء الاصطناعي اليوم.

لا يوجد أي ذكاء اصطناعي واعي اليوم. ليس لدينا هذا. لا نعرف ما إذا كان الذكاء الاصطناعي الواعي سيكون ممكنًا. لا أحد يستطيع أن يتنبأ بجدارة بما إذا كنا سنحقق ذكاءً اصطناعيًا واعيًا ، ولا ما إذا كان الذكاء الاصطناعي الواعي سينشأ بطريقة ما بأعجوبة تلقائيًا في شكل مستعر أعظم معرفي حسابي (يشار إليه عادةً باسم التفرد ، انظر تغطيتي في الرابط هنا).

نوع الذكاء الاصطناعي الذي أركز عليه يتكون من الذكاء الاصطناعي غير الواعي الذي لدينا اليوم. إذا أردنا التكهن بشدة حساس الذكاء الاصطناعي ، يمكن أن تسير هذه المناقشة في اتجاه مختلف جذريًا. من المفترض أن يكون الذكاء الاصطناعي الواعي ذا جودة بشرية. ستحتاج إلى اعتبار أن الذكاء الاصطناعي الواعي هو المكافئ المعرفي للإنسان. أكثر من ذلك ، نظرًا لأن البعض يتوقع أن يكون لدينا ذكاء اصطناعي فائق الذكاء ، فمن المتصور أن مثل هذا الذكاء الاصطناعي يمكن أن يصبح أكثر ذكاءً من البشر (لاستكشافي للذكاء الاصطناعي الفائق كإمكانية ، انظر التغطية هنا).

دعونا نحافظ على الأمور أكثر واقعية ونفكر في الذكاء الاصطناعي غير الحسابي اليوم.

ندرك أن الذكاء الاصطناعي اليوم غير قادر على "التفكير" بأي شكل من الأشكال على قدم المساواة مع التفكير البشري. عندما تتفاعل مع Alexa أو Siri ، قد تبدو قدرات المحادثة شبيهة بالقدرات البشرية ، لكن الحقيقة هي أنها حسابية وتفتقر إلى الإدراك البشري. استفاد العصر الأخير من الذكاء الاصطناعي بشكل مكثف من التعلم الآلي (ML) والتعلم العميق (DL) ، مما يعزز مطابقة الأنماط الحسابية. وقد أدى ذلك إلى ظهور أنظمة ذكاء اصطناعي تبدو وكأنها ميول شبيهة بالإنسان. وفي الوقت نفسه ، لا يوجد أي ذكاء اصطناعي اليوم يشبه الفطرة السليمة وليس لديه أي من التعجب المعرفي للتفكير البشري القوي.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين يتخذون نمطًا بناءً على القرارات قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق خفية ولكنها مهمة. سيحاول التعلم الآلي أو مطابقة الأنماط الحسابية للتعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة المصممة بالذكاء الاصطناعي في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة في ML / DL من الصعب اكتشاف التحيزات الخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا أكثر تعقيدًا مما قد يبدو. توجد فرصة قوية أنه حتى مع إجراء اختبارات مكثفة نسبيًا ، لا تزال هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

يمكنك إلى حد ما استخدام القول المأثور الشهير أو سيئ السمعة من القمامة في القمامة. الشيء هو ، هذا أقرب إلى التحيزات - التي يتم غرسها بشكل خبيث على أنها تحيزات مغمورة داخل الذكاء الاصطناعي. تصبح عملية اتخاذ القرار الخوارزمية (ADM) للذكاء الاصطناعي بشكل بديهي محملة بعدم المساواة.

غير جيد.

دعنا نعود إلى تركيزنا على التمليح في سياق الذكاء الاصطناعي.

أولاً ، نقوم بإزالة أي مظهر من مظاهر عنصر الاتحاد من مصطلحات التمليح وبدلاً من ذلك نستخدم التمليح فقط كنموذج أو نهج معمم كقالب. لذا ، يرجى وضع الجوانب المتعلقة بالاتحاد جانبًا لأغراض مناقشة التمليح المتعلقة بالذكاء الاصطناعي.

ثانيًا ، كما ذكرنا سابقًا ، يستلزم التمليح في سياق الذكاء الاصطناعي هذا أن يسعى بعض الأشخاص إلى الحصول على وظيفة في شركة لبدء أو التحريض على إنشاء مبادئ أخلاقيات الذكاء الاصطناعي في الشركة. هذا هو الدافع الأساسي للذهاب إلى العمل في الشركة.

للتوضيح ، هناك الكثير ممن تم تعيينهم في شركة وهم يدركون بالفعل أن أخلاقيات الذكاء الاصطناعي مهمة. هذا على الرغم من أنه ليس في طليعة أسسهم لمحاولة الحصول على توظيف من قبل شركة معينة ذات اهتمام. في جوهرها ، سيتم توظيفهم للقيام بنوع من وظائف تطوير أو نشر الذكاء الاصطناعي ، والتي من أجلها يجلبون في داخلهم إيمانًا راسخًا بالذكاء الاصطناعي الأخلاقي.

سيعملون بعد ذلك بأفضل ما في وسعهم لبث أو إلهام اعتبارات أخلاقيات الذكاء الاصطناعي في الشركة. جيد بالنسبة لهم. نحن بحاجة إلى المزيد من ذلك كرغبة صادقة من القلب.

لكن هذا ليس التمليح الذي أشرت إليه هنا. تخيل أن شخصًا ما اختار شركة معينة يبدو أنها لا تفعل الكثير إذا كان هناك أي شيء يتعلق بتبني أخلاقيات الذكاء الاصطناعي. يقرر الشخص أنه سيتم تعيينه من قبل تلك الشركة إذا كان بإمكانه القيام بذلك في بعض الوظائف اليومية للذكاء الاصطناعي (أو ربما حتى دور غير متعلق بالذكاء الاصطناعي) ، ومن ثم سيكون تركيزه الأساسي هو تثبيت مبادئ أخلاقيات الذكاء الاصطناعي أو التحريض عليها في شركة. هذا ليس واجب وظيفتهم الأساسي ولا حتى مدرج ضمن واجباتهم الوظيفية (أذكر هذا لأنه ، من الواضح ، إذا تم تعيين شخص ما لإحداث أخلاقيات الذكاء الاصطناعي عن قصد ، فلن يتم "التمليح" بطريقة الدلالة والمظهر هنا).

هذا الشخص لا يهتم بشكل خاص بالوظيفة في حد ذاتها. بالتأكيد ، سيفعلون كل ما تتكون منه الوظيفة ، ويفترض أنهم مؤهلون بشكل مناسب للقيام بذلك. وفي الوقت نفسه ، فإن أجندتهم الحقيقية هي تحفيز الذكاء الاصطناعي الأخلاقي ليصبح جزءًا لا يتجزأ من الشركة. هذه هي المهمة. هذا هو الهدف. الوظيفة نفسها هي مجرد وسيلة أو وسيلة للسماح لهم بالقيام بذلك من الداخل.

قد تقول أنه يمكنهم فعل الشيء نفسه من خارج الشركة. يمكنهم محاولة الضغط على فرق الذكاء الاصطناعي في الشركة للمشاركة بشكل أكبر في أخلاقيات الذكاء الاصطناعي. قد يحاولون عار الشركة للقيام بذلك ، ربما عن طريق النشر على المدونات أو اتخاذ خطوات أخرى. وهلم جرا. الشيء هو أنهم سيظلون دخيلًا ، تمامًا كما أشرنا سابقًا عند مناقشة الفرضية الشاملة للتمليح.

هل الشخص المملح للذكاء الاصطناعي مخادع؟

يتم تذكيرنا مرة أخرى بنفس السؤال المطروح حول سياق اتحاد التمليح. قد يصر الشخص على عدم وجود خداع على الإطلاق. تم تعيينهم للقيام بعمل. إنهم يقومون بالمهمة. يحدث ذلك بالإضافة إلى أنهم مدافعون داخليون عن أخلاقيات الذكاء الاصطناعي ويعملون بقوة لجعل الآخرين يفعلون الشيء نفسه. لا ضرر ولا ضرار.

من المحتمل أيضًا أن يشيروا إلى أنه لا يوجد أي جانب سلبي معين لتحفيزهم الشركة نحو الذكاء الاصطناعي الأخلاقي. في النهاية ، سيساعد هذا الشركة في تجنب الدعاوى القضائية التي قد تنشأ بخلاف ذلك إذا تم إنتاج الذكاء الاصطناعي الذي لا يلتزم بمبادئ أخلاقيات الذكاء الاصطناعي. وبالتالي فإنهم ينقذون الشركة من نفسها. على الرغم من أن الشخص ربما لا يهتم بشكل خاص بأداء الوظيفة التي يقوم بها ، إلا أنه يقوم بالمهمة ويجعل الشركة في الوقت نفسه أكثر حكمة وأمانًا من خلال دفع صاخب نحو الذكاء الاصطناعي الأخلاقي.

انتظر لحظة ، بعض الرد ، هذا الشخص مخادع. يبدو أنهم سيقفزون على متن السفينة بمجرد حدوث احتضان أخلاقيات الذكاء الاصطناعي. قلبهم ليس في الشركة ولا في الوظيفة. إنهم يستخدمون الشركة لتعزيز أجندتهم الخاصة. من المؤكد أن جدول الأعمال يبدو جيدًا بما يكفي ، حيث يسعى إلى وضع الذكاء الاصطناعي الأخلاقي في الاعتبار ، لكن هذا يمكن أن يذهب بعيدًا.

كما ترى ، تذهب الحجة أيضًا إلى أن السعي وراء أخلاقيات الذكاء الاصطناعي قد يصبح مفرط الحماس. إذا جاء الشخص ليبدأ الذكاء الاصطناعي الأخلاقي ، فقد لا ينظر إلى صورة أكبر لما تتعامل معه الشركة بشكل عام. لاستبعاد كل شيء آخر ، قد يتسبب هذا الشخص في تشتيت انتباه الشركة بسبب قصر نظره ولن يكون مستعدًا للسماح بتبني أخلاقيات الذكاء الاصطناعي على أساس منطقي وبوتيرة حكيمة.

قد يصبحون ساخطين مزعجين يتجادلون باستمرار حول مكان تجلس الشركة من حيث مبادئ الذكاء الاصطناعي الأخلاقية. قد يصرف مطورو الذكاء الاصطناعي الآخرون عن طريق الثرثرة أحادية اللحن. من المؤكد أن إدخال أخلاقيات الذكاء الاصطناعي في هذا المزيج أمر منطقي ، على الرغم من أن المسرحيات والاضطرابات المحتملة الأخرى داخل الشركة يمكن أن تعيق تقدم الذكاء الاصطناعي الأخلاقي بدلاً من مساعدته.

ندور حول نفسنا.

يمكننا الآن إعادة النظر في تلك العوامل الإضافية حول التمليح التي قدمتها سابقًا:

  • الحصول على دفع. من المتصور أن يتم الدفع للشخص في البداية من قبل كيان يرغب في الحصول على شركة تتبنى أخلاقيات الذكاء الاصطناعي ، وربما تهدف إلى القيام بذلك بشكل بريء أو ربما بيع مجموعة معينة من أدوات أو ممارسات أخلاقيات الذكاء الاصطناعي للشركة. غير محتمل بشكل عام ، لكن جدير بالذكر.
  • الرؤية. قد لا يتحدث الشخص بشكل خاص عن مهمته التعبدية لأخلاقيات الذكاء الاصطناعي عند خوض عملية التوظيف. في حالات أخرى ، قد يتأكدون من أنها في المقدمة وفي المركز ، بحيث تفهم شركة التوظيف دون أي غموض فيما يتعلق بتركيزهم المخلص. هذا على الرغم من أنه من المرجح أن يتم صياغته كما لو أن أخلاقيات الذكاء الاصطناعي هي مصدر قلق ثانوي وأن الوظيفة هي شاغلهم الأساسي ، وليس العكس.
  • التوقيت. قد يختار الشخص الذي تم تعيينه مرة واحدة الانتظار لإجراء عمليات بدء أخلاقيات الذكاء الاصطناعي الخاصة به. من المحتمل أن ينتظروا أسابيع أو شهور أو حتى سنوات للتنشيط. الاحتمالات على الرغم من أنها ستبدأ على الأرجح بمجرد أن تتأقلم مع الشركة وتؤسس لنفسها موطئ قدم شخصي كموظف في الشركة. إذا بدأوا على الفور ، فقد يؤدي ذلك إلى تقويض محاولتهم أن يُنظر إليهم على أنهم من الداخل ويصورهم على أنهم دخيل أو دخيل.
  • الخطوات المتخذة. في بعض الأحيان ، يعلن الشخص صراحةً داخل الشركة أنه يسعى الآن إلى لفت الانتباه إلى أخلاقيات الذكاء الاصطناعي ، وهو الأمر الذي يمكن أن يحدث بعد فترة وجيزة من تعيينه أو يحدث بعد ذلك بفترة قصيرة (وفقًا لإشاري أعلاه حول عامل التوقيت). من ناحية أخرى ، قد يختار الشخص العمل في دور سري ، والعمل بهدوء داخل الشركة وعدم لفت الانتباه بشكل خاص إلى نفسه. قد يقومون أيضًا بتزويد الصحافة وغيرهم من الغرباء بالمعلومات حول ما يتم حذفه أو إخفاقه في أخلاقيات الذكاء الاصطناعي داخل الشركة.
  • الحيازة. قد ينتهي الأمر بالشخص الذي يبذل جهدًا ملحيًا ليكون قادرًا على الحصول على دفعة أخلاقية للذكاء الاصطناعي. من المحتمل أن يظلوا في الشركة طوال عملية اعتماد الذكاء الاصطناعي الأخلاقي. ومع ذلك ، في بعض الأحيان يختار مثل هذا الشخص مغادرة الشركة التي تم إطلاق شرارة ويختار الذهاب إلى شركة أخرى لبدء الأنشطة الشرارة من جديد. الجدال حول هذا مكثف. إحدى وجهات النظر هي أن هذا يوضح بوضوح أن الشخص لم يكن في قلبه الوظيفة في الشركة. وجهة النظر المتناقضة هي أنه من المحتمل أن يجدوا أنفسهم في مياه غامضة وربما يتعذر الدفاع عنها من خلال البقاء في الشركة إذا تم تصنيفهم الآن على أنهم أصوات عالية أو مثيري الشغب.
  • نتيجة. محاولة التمليح لا تضمن نتيجة معينة. من الممكن أن يكون الشخص قد رفع مستوى الوعي حول الذكاء الاصطناعي الأخلاقي والجهود جارية ، وقد حدث تمليح ergo "ناجح". النتيجة الأخرى هي أن الشخص غير قادر على الحصول على مثل هذا الجر. ثم يتخلون عن المطاردة ويبقون في الشركة ، وربما ينتظرون فرصة أخرى في وقت لاحق ، أو يغادرون الشركة ويسعون عادةً إلى القيام بالتمليح في شركة أخرى.
  • سالتر المحترف. قد يعتبر بعض الناس أنفسهم من المدافعين الأقوياء عن تمليح أخلاقيات الذكاء الاصطناعي ويفخرون بكونهم مخلصين ، إذا جاز التعبير. يقومون بالتمليح بشكل متكرر ، ينتقلون من شركة إلى شركة أثناء قيامهم بذلك. قد يقوم الآخرون بذلك على أساس مرة واحدة ، ربما بسبب تفضيل معين أو لمعرفة ما هو عليه ، ثم يختارون عدم التكرار في مثل هذا الدور. يمكنك بالتأكيد أن تتخيل أنواع الضغوط الشخصية والضغط المحتمل الذي يمكن أن يحدث عندما تكون بقدرة ملحة.

ما إذا كان هذا النوع من التمليح الموجه نحو أخلاقيات الذكاء الاصطناعي سيبقى غير معروف. إذا كانت الشركات بطيئة في تعزيز الذكاء الاصطناعي الأخلاقي ، فقد يتسبب ذلك في قيام علماء أخلاقيات الذكاء الاصطناعي المتحمسين بمحاولات التمليح. قد لا يدركون تمامًا أنهم يقومون بالتمليح. بعبارة أخرى ، يذهب شخص ما إلى الشركة X ويحاول الحصول على قوة دفع لأخلاقيات الذكاء الاصطناعي ، وربما يفعل ذلك ، ويدرك أنه يجب عليه فعل الشيء نفسه في مكان آخر. ثم ينتقلون إلى شركة Y. Rinse وكرر العملية.

مرة أخرى ، ينصب التركيز على أن احتضان أخلاقيات الذكاء الاصطناعي هو أولويتهم القصوى. يعد الحصول على الوظيفة أمرًا ثانويًا أو غير مهم بشكل خاص ، بخلاف القدرة على الدخول والقيام بالجهود الداخلية للتمليح المتعلقة بالذكاء الاصطناعي الأخلاقي.

سأضيف أيضًا أن أولئك الذين يدرسون ويحللون جوانب أخلاقيات الذكاء الاصطناعي لديهم الآن إضافة جديدة إلى حد ما إلى موضوعات مساعي أبحاث الذكاء الاصطناعي الأخلاقية:

  • هل ينبغي التغاضي عن جهود التمليح الخاصة بأخلاقيات الذكاء الاصطناعي هذه أو تجنبها بشكل عام؟
  • ما الذي يدفع أولئك الذين يرغبون في أداء التمليح في سياق الذكاء الاصطناعي هذا؟
  • كيف يجب أن تتفاعل الشركات مع الفعل المتصور لتمليح سياق الذكاء الاصطناعي؟
  • هل ستكون هناك منهجيات مصممة لتشجيع التمليح المرتبط بالذكاء الاصطناعي مثل هذا؟
  • إلخ

إلى حد ما ، هذا هو السبب في أن أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي موضوع بالغ الأهمية. تدفعنا مبادئ أخلاقيات الذكاء الاصطناعي إلى توخي اليقظة. يمكن أن ينشغل تقنيو الذكاء الاصطناعي في بعض الأحيان بالتكنولوجيا ، لا سيما تحسين التكنولوجيا الفائقة. إنهم لا يفكرون بالضرورة في التداعيات المجتمعية الأكبر. إن امتلاك عقلية أخلاقيات الذكاء الاصطناعي والقيام بذلك بشكل متكامل لتطوير الذكاء الاصطناعي وإدارته أمر حيوي لإنتاج الذكاء الاصطناعي المناسب ، بما في ذلك (ربما بشكل مفاجئ أو من المفارقات) تقييم كيفية تبني الشركات لأخلاقيات الذكاء الاصطناعي.

إلى جانب استخدام مبادئ أخلاقيات الذكاء الاصطناعي بشكل عام ، هناك سؤال مماثل عما إذا كان ينبغي أن تكون لدينا قوانين تحكم الاستخدامات المختلفة للذكاء الاصطناعي. يجري تداول قوانين جديدة على المستويات الفيدرالية والولائية والمحلية التي تتعلق بنطاق وطبيعة كيفية ابتكار الذكاء الاصطناعي. إن الجهد المبذول لصياغة وسن مثل هذه القوانين هو جهد تدريجي. تُعد أخلاقيات الذكاء الاصطناعي بمثابة حل مؤقت مدروس ، على أقل تقدير ، ومن المؤكد تقريبًا إلى حد ما أن يتم دمجها بشكل مباشر في تلك القوانين الجديدة.

اعلم أن البعض يجادل بقوة بأننا لسنا بحاجة إلى قوانين جديدة تغطي الذكاء الاصطناعي وأن قوانيننا الحالية كافية. في الواقع ، لقد حذروا من أننا إذا قمنا بسن بعض قوانين الذكاء الاصطناعي هذه ، فسوف نقتل الأوزة الذهبية من خلال تقييد التقدم في الذكاء الاصطناعي الذي يقدم مزايا مجتمعية هائلة.

في هذه المرحلة من هذه المناقشة المهمة ، أراهن أنك ترغب في بعض الأمثلة التوضيحية التي قد تعرض هذا الموضوع. هناك مجموعة خاصة وشعبية بالتأكيد من الأمثلة القريبة من قلبي. كما ترى ، بصفتي خبيرًا في الذكاء الاصطناعي بما في ذلك التداعيات الأخلاقية والقانونية ، يُطلب مني كثيرًا تحديد أمثلة واقعية تعرض معضلات أخلاقيات الذكاء الاصطناعي بحيث يمكن فهم الطبيعة النظرية إلى حد ما للموضوع بسهولة أكبر. واحدة من أكثر المجالات إثارة للذكريات التي تقدم بوضوح هذا المأزق الأخلاقي للذكاء الاصطناعي هو ظهور سيارات ذاتية القيادة حقيقية قائمة على الذكاء الاصطناعي. سيكون هذا بمثابة حالة استخدام مفيدة أو نموذجًا لمناقشة مستفيضة حول هذا الموضوع.

إليك إذن سؤال جدير بالملاحظة يستحق التفكير فيه: هل يبرز ظهور السيارات ذاتية القيادة الحقيقية القائمة على الذكاء الاصطناعي أي شيء يتعلق بالتمليح المرتبط بالذكاء الاصطناعي ، وإذا كان الأمر كذلك ، فما الذي يعرضه هذا؟

اسمح لي بلحظة لفك السؤال.

أولاً ، لاحظ أنه لا يوجد سائق بشري متورط في سيارة حقيقية ذاتية القيادة. ضع في اعتبارك أن السيارات الحقيقية ذاتية القيادة يتم قيادتها عبر نظام قيادة بالذكاء الاصطناعي. ليست هناك حاجة لسائق بشري على عجلة القيادة ، ولا يوجد شرط لقيادة الإنسان للسيارة. لتغطيتي الواسعة والمستمرة للمركبات ذاتية القيادة (AVs) وخاصة السيارات ذاتية القيادة ، انظر الرابط هنا.

أود أن أوضح ما هو المقصود عندما أشير إلى السيارات الحقيقية ذاتية القيادة.

فهم مستويات السيارات ذاتية القيادة

للتوضيح ، السيارات الحقيقية ذاتية القيادة هي تلك التي يقود فيها الذكاء الاصطناعي السيارة بالكامل من تلقاء نفسه ولا توجد أي مساعدة بشرية أثناء مهمة القيادة.

تعتبر هذه المركبات ذاتية القيادة من المستوى 4 والمستوى 5 (انظر الشرح في هذا الرابط هنا) ، في حين أن السيارة التي تتطلب سائقًا بشريًا للمشاركة في جهد القيادة يتم اعتبارها عادةً في المستوى 2 أو المستوى 3. يتم وصف السيارات التي تشارك في مهمة القيادة بأنها شبه مستقلة ، وتحتوي عادةً على مجموعة متنوعة من الوظائف الإضافية المؤتمتة التي يشار إليها باسم ADAS (أنظمة مساعدة السائق المتقدمة).

لا توجد حتى الآن سيارة ذاتية القيادة حقيقية في المستوى الخامس ، ولا نعرف حتى الآن ما إذا كان من الممكن تحقيق ذلك ، ولا كم من الوقت سيستغرق الوصول إليه.

وفي الوقت نفسه ، تحاول جهود المستوى 4 تدريجياً الحصول على بعض الجاذبية من خلال الخضوع لتجارب طرق عامة ضيقة للغاية وانتقائية ، على الرغم من وجود جدل حول ما إذا كان يجب السماح بهذا الاختبار في حد ذاته (نحن جميعًا حيوانات تجارب حياة أو موت في التجربة التي تجري على طرقنا السريعة والطرق الفرعية ، يدعي البعض ، انظر تغطيتي في هذا الرابط هنا).

نظرًا لأن السيارات شبه المستقلة تتطلب سائقًا بشريًا ، فإن اعتماد هذه الأنواع من السيارات لن يكون مختلفًا بشكل ملحوظ عن قيادة المركبات التقليدية ، لذلك لا يوجد الكثير في حد ذاته لتغطية هذه المواضيع (على الرغم من ذلك ، كما سترى في لحظة ، النقاط التالية تنطبق بشكل عام).

بالنسبة للسيارات شبه المستقلة ، من المهم أن يتم تحذير الجمهور بشأن جانب مزعج ظهر مؤخرًا ، أي أنه على الرغم من هؤلاء السائقين البشر الذين يستمرون في نشر مقاطع فيديو لأنفسهم ينامون على عجلة سيارة من المستوى 2 أو المستوى 3 علينا جميعًا أن نتجنب التضليل حتى نصدق أن السائق يمكنه أن يلفت انتباهه عن مهمة القيادة أثناء قيادة سيارة شبه مستقلة.

أنت الطرف المسؤول عن إجراءات القيادة في السيارة ، بغض النظر عن مقدار الأتمتة التي قد يتم قذفها في المستوى 2 أو المستوى 3.

السيارات ذاتية القيادة وتمليح أخلاقيات الذكاء الاصطناعي

بالنسبة للمركبات ذاتية القيادة الحقيقية من المستوى 4 والمستوى 5 ، لن يكون هناك سائق بشري يشارك في مهمة القيادة.

سيكون جميع الركاب من الركاب.

تقوم منظمة العفو الدولية بالقيادة.

أحد الجوانب التي يجب مناقشتها على الفور يستلزم حقيقة أن الذكاء الاصطناعي المتضمن في أنظمة قيادة الذكاء الاصطناعي اليوم ليس واعيًا. بعبارة أخرى ، الذكاء الاصطناعي عبارة عن مجموعة من البرمجة والخوارزميات المستندة إلى الكمبيوتر ، وهو بالتأكيد غير قادر على التفكير بنفس الطريقة التي يستطيع بها البشر.

لماذا هذا التركيز الإضافي على الذكاء الاصطناعي ليس واعيا؟

لأنني أريد أن أؤكد أنه عند مناقشة دور نظام القيادة للذكاء الاصطناعي ، فأنا لا أنسب الصفات البشرية للذكاء الاصطناعي. يرجى العلم أن هناك اتجاهًا مستمرًا وخطيرًا هذه الأيام لتجسيد الذكاء الاصطناعي. من حيث الجوهر ، يخصص الناس ذكاءً شبيهاً بالإنسان إلى الذكاء الاصطناعي اليوم ، على الرغم من الحقيقة التي لا يمكن إنكارها والتي لا جدال فيها وهي عدم وجود مثل هذا الذكاء الاصطناعي حتى الآن.

مع هذا التوضيح ، يمكنك أن تتخيل أن نظام القيادة بالذكاء الاصطناعي لن "يعرف" بطريقة أو بأخرى جوانب القيادة. القيادة وكل ما تتطلبه يجب برمجتها كجزء من أجهزة وبرامج السيارة ذاتية القيادة.

دعونا نتعمق في عدد لا يحصى من الجوانب التي تأتي للعب في هذا الموضوع.

أولاً ، من المهم أن ندرك أنه ليست كل سيارات الذكاء الاصطناعي ذاتية القيادة هي نفسها. تتبنى كل شركة تصنيع سيارات وشركة تقنية ذاتية القيادة نهجها في ابتكار سيارات ذاتية القيادة. على هذا النحو ، من الصعب الإدلاء ببيانات شاملة حول ما ستفعله أو لا تفعله أنظمة القيادة بالذكاء الاصطناعي.

علاوة على ذلك ، عندما يذكر أن نظام القيادة بالذكاء الاصطناعي لا يفعل شيئًا معينًا ، يمكن ، لاحقًا ، تجاوز هذا الأمر من قبل المطورين الذين يقومون في الواقع ببرمجة الكمبيوتر للقيام بهذا الشيء بالذات. خطوة بخطوة ، يتم تحسين أنظمة القيادة بالذكاء الاصطناعي وتوسيعها تدريجياً. قد لا يوجد قيد موجود اليوم في تكرار أو إصدار مستقبلي من النظام.

آمل أن يوفر ذلك مجموعة كافية من المحاذير لإبراز ما أنا على وشك ربطه.

دعنا نرسم سيناريو يعرض حالة التمليح المتعلقة بالذكاء الاصطناعي.

شركة صناعة السيارات التي تسعى جاهدة نحو تطوير سيارات ذاتية القيادة ذاتية القيادة تندفع إلى الأمام في تجارب الطرق العامة. تتعرض الشركة لضغوط كبيرة للقيام بذلك. تتم مراقبتهم من قبل السوق ، وإذا لم يبدوا أنهم في طليعة تطوير السيارات ذاتية القيادة ، فإن سعر سهمهم سيتأثر وفقًا لذلك. بالإضافة إلى ذلك ، فقد استثمروا بالفعل مليارات الدولارات وأصبح المستثمرون ينفد صبرهم لليوم الذي أصبحت فيه الشركة قادرة على الإعلان عن أن سياراتهم ذاتية القيادة جاهزة للاستخدام التجاري اليومي.

يراقب مطور الذكاء الاصطناعي عن كثب من بعيد جهود صانع السيارات. تظهر الحالات المبلغ عنها عن نظام القيادة بالذكاء الاصطناعي بالارتباك أو ارتكاب الأخطاء بشكل متزايد في الأخبار. تشمل الحالات المختلفة الاصطدامات مع السيارات الأخرى ، والتصادم مع راكبي الدراجات ، وغيرها من الحوادث القاسية.

تحاول الشركة عمومًا الحفاظ على هذا الصمت. تحدث مطور الذكاء الاصطناعي بشكل خاص مع بعض المهندسين في الشركة وعلم أن مبادئ أخلاقيات الذكاء الاصطناعي لا تُلقى إلا بالكلام ، في أحسن الأحوال. لتغطيتي لمثل هذه الأمور المتعلقة بالتهرب من الذكاء الاصطناعي الأخلاقي من قبل الشركات ، انظر الرابط هنا.

ما الذي سيفعله مطور الذكاء الاصطناعي هذا؟

يشعرون بأنهم مضطرون لفعل شيء ما.

دعنا نبذل القليل من الجهد ونفكر في مسارين يمكن أن يسلك كل منهما مطور الذكاء الاصطناعي.

يتمثل أحد المسارات في أن مطور الذكاء الاصطناعي ينتقل إلى وسائل الإعلام لمحاولة تسليط الضوء على النقص الواضح في الاهتمام المناسب بمبادئ أخلاقيات الذكاء الاصطناعي من قبل صانع السيارات. ربما يختار هذا المتخصص المعني بالذكاء الاصطناعي كتابة مدونات أو إنشاء مدونات فيديو لتسليط الضوء على هذه المخاوف. الاحتمال الآخر هو أنهم يجعلون عضوًا حالي في فريق الذكاء الاصطناعي نوعًا من المبلغين عن المخالفات ، وهو موضوع غطيته في الرابط هنا.

هذا بالتأكيد نهج خارجي مدروس من قبل مطور الذكاء الاصطناعي هذا.

المسار الآخر هو أن مطور الذكاء الاصطناعي يؤمن في حدسه أنه قد يكون قادرًا على إنجاز المزيد من داخل الشركة. تم ضبط مجموعة مهارات مطور الذكاء الاصطناعي جيدًا في جوانب الذكاء الاصطناعي التي تتضمن السيارات ذاتية القيادة ويمكنهم التقدم بسهولة لوظائف مهندس الذكاء الاصطناعي المنشورة في الشركة. يقرر مطور الذكاء الاصطناعي القيام بذلك. علاوة على ذلك ، يتركز الدافع فقط على جعل صانع السيارات أكثر جدية بشأن الذكاء الاصطناعي الأخلاقي. لا تهم الوظيفة نفسها بشكل خاص لمطور الذكاء الاصطناعي هذا ، بخلاف أنهم سيكونون قادرين الآن على العمل بشكل مقنع من الداخل.

يمكن أن يحصل مطور الذكاء الاصطناعي على الوظيفة لكنه يكتشف بعد ذلك أن هناك مقاومة داخلية هائلة وأن الهدف الجاد للذكاء الاصطناعي الأخلاقي لا طائل من ورائه. يترك الشخص الشركة ويقرر استهداف صانع سيارات آخر قد يكون أكثر استعدادًا لفهم ما يهدف مطور الذكاء الاصطناعي إلى تحقيقه. مرة أخرى ، يفعلون ذلك لتحقيق اعتبارات أخلاقيات الذكاء الاصطناعي بشكل واضح وليس من أجل الدعامة الأساسية لأي وظيفة تتكون منها وظيفة الذكاء الاصطناعي.

وفي الختام

إن فكرة الإشارة إلى هذه الجهود المتعلقة بالذكاء الاصطناعي كشكل من أشكال التمليح لا بد أن تتسبب في إصابة البعض بحرقة من الإفراط في استخدام جزء من المصطلحات أو المفردات المحددة بالفعل. التمليح متجذر إلى حد كبير في أنشطة النقابات المتعلقة بالعمل والأعمال. إن محاولات إثقال الكلمة بهذه الأنواع الأخرى من الأنشطة التي تبدو مشابهة على الرغم من الطبيعة غير المرتبطة تمامًا بالنقابات قد تكون مضللة ومربكة.

لنفترض أننا توصلنا إلى صياغة مختلفة.

الفلفل؟

حسنًا ، لا يبدو أن هذا يستدعي نفس الشعور تمامًا مثل التمليح. ستكون معركة شاقة لمحاولة الحصول على ذلك المنصوص عليه وإدراجه في قاموسنا اليومي للغة.

أيا كان ما توصلنا إليه ، ومهما كانت التسمية أو العبارة التي تبدو مناسبة ، فنحن نعرف شيئًا واحدًا مؤكدًا. لا تزال محاولة إقناع الشركات بتبني أخلاقيات الذكاء الاصطناعي معركة شاقة. نحن بحاجة إلى المحاولة. يجب أن تتم المحاولة بالطرق الصحيحة.

يبدو أنه بغض النظر عن جانب السياج الذي تسقط عليه ، نحتاج إلى أخذ هذا التحذير بحبة ملح مناسبة.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/08/13/ai-ethics-flummoxed-by-those-salting-ai-ethicists-that-instigate-ethical-ai-practices/