إليك سبب وجود علاقة مضطربة بين الشركات بين الحب والكراهية مع مجالس أخلاقيات الذكاء الاصطناعي

هل يجب على شركة ما إنشاء مجلس استشاري لأخلاقيات الذكاء الاصطناعي؟

قد تفاجأ بمعرفة أن هذه ليست إجابة سهلة بنعم أو لا.

قبل الخوض في التعقيدات الكامنة وراء إيجابيات وسلبيات إنشاء مجلس استشاري لأخلاقيات الذكاء الاصطناعي ، دعونا نتأكد من أننا جميعًا على نفس الصفحة فيما يتعلق بما يتكون منه المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي ولماذا ارتفع إلى مستوى العناوين الرئيسية الشهرة.

كما يعلم الجميع ، فإن الذكاء الاصطناعي (AI) والاستخدام العملي للذكاء الاصطناعي لأنشطة الأعمال قد تجاوزا الحد الأقصى كأمر ضروري لشركات العصر الحديث. ستتعرض لضغوط شديدة للتجادل بخلاف ذلك. إلى حد ما ، أدى ضخ الذكاء الاصطناعي إلى تحسين المنتجات والخدمات ، بالإضافة إلى أنه أدى في بعض الأحيان إلى انخفاض التكاليف المرتبطة بتقديم المنتجات والخدمات المذكورة. يمكن أن تُعزى قائمة رائعة من الكفاءات وتعزيز الفعالية إلى التطبيق المعقول والمناسب للذكاء الاصطناعي. باختصار ، يمكن أن تكون إضافة أو زيادة ما تفعله من خلال دمج الذكاء الاصطناعي عرضًا مربحًا للغاية.

هناك أيضا ما نقول دفقة كبيرة الذي يأتي مع إضافة الذكاء الاصطناعي إلى مساعي شركتك.

الشركات بصوت عالٍ وتفخر باستخدامها للذكاء الاصطناعي. إذا حدث ذلك تمامًا لتحسين أدواتك أيضًا ، فهذا رائع. وفي الوقت نفسه ، فإن ادعاءات استخدام الذكاء الاصطناعي تجذب الانتباه بدرجة كافية بحيث يمكنك إلى حد كبير القيام بنفس الأشياء التي فعلتها من قبل ، ومع ذلك يمكنك كسب الكثير من الدولارات أو مقل العيون من خلال إلقاء راية الذكاء الاصطناعي كجزء من استراتيجية عملك والتخلص من: بضائع الباب.

هذه النقطة الأخيرة حول المراوغة في بعض الأحيان حول ما إذا كان يتم استخدام الذكاء الاصطناعي حقًا تجعلنا ندخل إلى ساحة أخلاقيات الذكاء الاصطناعي. هناك كل أنواع الادعاءات الكاذبة الصريحة التي يتم تقديمها حول الذكاء الاصطناعي من قبل الشركات. والأسوأ من ذلك ، ربما ، هو استخدام الذكاء الاصطناعي الذي اتضح أنه ما يسمى بـ منظمة العفو الدولية للسوء.

على سبيل المثال ، لقد قرأت بلا شك عن الحالات العديدة لأنظمة الذكاء الاصطناعي التي تستخدم التعلم الآلي (ML) أو التعلم العميق (DL) التي رسخت التحيزات العرقية والتحيزات بين الجنسين وغيرها من الممارسات التمييزية غير الملائمة. لتغطيتي المستمرة والواسعة لهذه الأمور المتعلقة بالذكاء الاصطناعي المعاكس وظهور دعوات صاخبة لأخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي ، راجع الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

لذلك ، لدينا هذه الدوافع الحامضة مخبأة داخل استخدام الذكاء الاصطناعي الذي يبدو وردية بالكامل من قبل الشركات:

  • ادعاءات جوفاء باستخدام الذكاء الاصطناعي في حين أنه في الواقع لا يوجد ذكاء اصطناعي أو تسريب غير مهم للذكاء الاصطناعي
  • الادعاءات الكاذبة حول استخدام الذكاء الاصطناعي المصممة عمدًا للتضليل
  • التضمين غير المتعمد للذكاء الاصطناعي الذي يتبين أنه يؤدي إلى تحيز غير لائق وتمييزي
  • تم تشكيل الذكاء الاصطناعي عن قصد لنشر التحيزات السيئة والأعمال التمييزية الدنيئة
  • أخرى

كيف تنشأ هذه الأنواع من الممارسات الطائشة أو المشينة في الشركات؟

أحد الأجزاء البارزة في اللغز هو الافتقار إلى الوعي بأخلاقيات الذكاء الاصطناعي.

قد يكون كبار المسؤولين التنفيذيين غير مدركين لمفهوم ابتكار الذكاء الاصطناعي الذي يلتزم بمجموعة من المبادئ الأخلاقية للذكاء الاصطناعي. قد يكون لدى مطوري الذكاء الاصطناعي في مثل هذه الشركة بعض الوعي بالمسألة ، على الرغم من أنهم ربما يكونون على دراية فقط بنظريات أخلاقيات الذكاء الاصطناعي ولا يعرفون كيفية سد الفجوة في مساعي تطوير الذكاء الاصطناعي اليومية. هناك أيضًا ظروف مطوّري الذكاء الاصطناعي الذين يرغبون في تبني أخلاقيات الذكاء الاصطناعي ولكنهم يحصلون بعد ذلك على رد فعل قوي عندما يعتقد المديرون والمديرون التنفيذيون أن هذا سيؤدي إلى إبطاء مشاريع الذكاء الاصطناعي الخاصة بهم وزيادة تكاليف ابتكار الذكاء الاصطناعي.

لا يدرك الكثير من كبار المديرين التنفيذيين أن عدم الالتزام بأخلاقيات الذكاء الاصطناعي من المرجح أن ينتهي بهم الأمر إلى ركلهم والشركة في أعقابهم عند إصدار الذكاء الاصطناعي المليء بالقضايا الشائكة والقبيحة تمامًا. يمكن أن تتعثر الشركة مع وجود ذكاء اصطناعي سيئ في وسطها ، مما يؤدي إلى تقويض سمعة الشركة التي تراكمت لفترة طويلة (مخاطر السمعة). قد يختار العملاء عدم استخدام منتجات الشركة وخدماتها (مخاطر خسارة العملاء). قد يستفيد المنافسون من هذا الفشل (مخاطر تنافسية). وهناك الكثير من المحامين المستعدين لمساعدة أولئك الذين تم تجاوزهم ، بهدف رفع دعاوى قضائية ضخمة ضد الشركات التي سمحت للذكاء الاصطناعي الفاسد بدخول سلع شركاتهم (خطر قانوني).

باختصار ، فإن العائد على الاستثمار (العائد على الاستثمار) من أجل الاستخدام المناسب لأخلاقيات الذكاء الاصطناعي يكاد يكون بالتأكيد أكثر فائدة من مقارنة بالتكاليف النهائية المرتبطة بالجلوس فوق الرائحة الكريهة للذكاء الاصطناعي الذي لا ينبغي ابتكاره أو إطلاقه.

تبين أنه لم يحصل كل شخص على تلك المذكرة ، إذا جاز التعبير.

تكتسب أخلاقيات الذكاء الاصطناعي زخمًا تدريجيًا فقط.

يعتقد البعض أنه حتمًا قد تكون هناك حاجة إلى الذراع الطويلة للقانون لزيادة إلهام تبني مناهج أخلاقية للذكاء الاصطناعي.

إلى جانب استخدام مبادئ أخلاقيات الذكاء الاصطناعي بشكل عام ، هناك سؤال مماثل عما إذا كان ينبغي أن يكون لدينا قوانين مميزة تحكم التطوير والاستخدامات المختلفة للذكاء الاصطناعي. يتم بالفعل تداول قوانين جديدة على المستويات الدولية والفيدرالية والولائية والمحلية التي تتعلق بنطاق وطبيعة كيفية ابتكار الذكاء الاصطناعي. إن الجهد المبذول لصياغة وسن مثل هذه القوانين هو جهد محسوب. تُعد أخلاقيات الذكاء الاصطناعي بمثابة حل مؤقت مدروس ، على أقل تقدير ، ومن المؤكد تقريبًا إلى حد ما أن يتم دمجها بشكل مباشر في تلك القوانين الجديدة.

اعلم أن البعض يجادل بقوة بأننا لسنا بحاجة إلى قوانين جديدة تغطي الذكاء الاصطناعي وأن قوانيننا الحالية كافية. في الواقع ، لقد حذروا من أننا إذا قمنا بسن بعض قوانين الذكاء الاصطناعي هذه ، فسوف نقتل الأوزة الذهبية من خلال تقييد التقدم في الذكاء الاصطناعي الذي يقدم مزايا مجتمعية هائلة. انظر على سبيل المثال تغطية بلدي في الرابط هنا و الرابط هنا.

دعنا نتأكد من أننا جميعًا على نفس الصفحة حول ما تحتويه أساسيات أخلاقيات الذكاء الاصطناعي.

في تغطية عمودي ، ناقشت سابقًا العديد من التحليلات الجماعية لمبادئ أخلاقيات الذكاء الاصطناعي ، مثل هذا التقييم في الرابط هنا، والتي تقدم قائمة مفيدة ومفيدة لمعايير أو خصائص الذكاء الاصطناعي الأخلاقية المتعلقة بأنظمة الذكاء الاصطناعي:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

من المفترض أن يتم استخدام مبادئ أخلاقيات الذكاء الاصطناعي هذه من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف.

يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. يتطلب الأمر قرية لابتكار واستخدام الذكاء الاصطناعي ، ومن أجل ذلك يجب أن تكون القرية بأكملها على دراية بمبادئ أخلاقيات الذكاء الاصطناعي والالتزام بها.

يمكن القيام جزئيًا بوسيلة لمحاولة تقديم والحفاظ على الاهتمام المستمر فيما يتعلق باستخدام مبادئ أخلاقيات الذكاء الاصطناعي من خلال إنشاء مجلس استشاري لأخلاقيات الذكاء الاصطناعي.

سنقوم بعد ذلك بتفكيك جوانب المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي.

مجالس أخلاقيات الذكاء الاصطناعي وكيفية القيام بها بشكل صحيح

يمكن أن تكون الشركات في مراحل مختلفة من تبني الذكاء الاصطناعي ، وبالمثل في مراحل مختلفة من تبني أخلاقيات الذكاء الاصطناعي.

تخيل شركة تريد المضي قدمًا في تبني أخلاقيات الذكاء الاصطناعي ولكنها غير متأكدة من كيفية القيام بذلك. قد يكون السيناريو الآخر هو الشركة التي انخرطت بالفعل في أخلاقيات الذكاء الاصطناعي ولكنها تبدو غير متأكدة مما يجب القيام به لتعزيز هذا الجهد. قد يكون السيناريو الثالث هو الشركة التي تعمل بنشاط على ابتكار واستخدام الذكاء الاصطناعي وقد فعلت الكثير داخليًا لتجسيد أخلاقيات الذكاء الاصطناعي ، على الرغم من أنهم يدركون أن هناك فرصة لفقدهم أفكارًا أخرى ربما بسبب التفكير الجماعي الداخلي.

بالنسبة لأي من هذه السيناريوهات ، قد يكون من الحكمة إنشاء مجلس استشاري لأخلاقيات الذكاء الاصطناعي.

الفكرة واضحة إلى حد ما (حسنًا ، للتوضيح ، الفكرة العامة هي قمة جبل الجليد التي يضرب بها المثل ، والشيطان بالتأكيد في التفاصيل ، كما سنغطيها للحظات).

يتكون المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي عادةً من مستشارين خارجيين يُطلب منهم العمل في مجلس أو لجنة استشارية خاصة للشركة. قد يكون هناك أيضًا بعض المشاركين الداخليين في مجلس الإدارة ، على الرغم من أن الفكرة عادةً هي الحصول على مستشارين من خارج الشركة ويمكن أن يجلب ذلك منظورًا شبه مستقل لما تفعله الشركة.

أقول شبه مستقل نظرًا لوجود بعض صراعات الاستقلال المحتملة التي يمكن أن تنشأ مع الأعضاء المختارين في المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي. إذا كانت الشركة تدفع للمستشارين ، فهذا يثير سؤالًا واضحًا حول ما إذا كان الأعضاء المدفوعون يشعرون بالاعتماد على الشركة للحصول على راتب أو أنهم قد يكونون غير مرتاحين لانتقاد حصان الهدية الذي بحوزتهم. من ناحية أخرى ، فإن الشركات معتادة على الاستفادة من المستشارين الخارجيين المدفوعين لجميع أنواع الآراء المستقلة المدروسة ، لذلك هذا أمر معتاد إلى حد ما ومتوقع على أي حال.

يُطلب عادةً من المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي أن يجتمع بشكل دوري ، إما شخصيًا أو على أساس افتراضي عن بُعد. يتم استخدامها كلوحة صوت من قبل الشركة. الاحتمالات أيضًا أنه يتم تزويد الأعضاء بالعديد من الوثائق والتقارير والمذكرات الداخلية حول الجهود الجارية المتعلقة بالذكاء الاصطناعي في الشركة. قد يُطلب من أعضاء معينين في مجلس مستشار أخلاقيات الذكاء الاصطناعي حضور الاجتماعات الداخلية بما يتناسب مع خبراتهم المحددة. إلخ.

إلى جانب القدرة على رؤية ما يجري مع الذكاء الاصطناعي داخل الشركة وتقديم أعين جديدة ، عادةً ما يلعب المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي دورًا مزدوجًا يتمثل في كونه ممولًا من الخارج إلى الداخل لأحدث تقنيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي. قد لا يكون لدى الموارد الداخلية الوقت الكافي للبحث في ما يحدث خارج الشركة ، ويمكن أن تحصل ergo على وجهات نظر حديثة ومركزة بشكل كبير من أعضاء المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي.

هناك أيضًا استخدامات داخلية إلى خارجية لمجلس استشاري لأخلاقيات الذكاء الاصطناعي.

هذا يمكن أن يكون خادعا.

المفهوم هو أن المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي يتم استخدامه لإعلام العالم الخارجي بما تفعله الشركة عندما يتعلق الأمر بأخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي. يمكن أن يكون هذا مفيدًا كوسيلة لتعزيز سمعة الشركة. قد يُنظر إلى المنتجات والخدمات المليئة بالذكاء الاصطناعي على أنها أكثر جدارة بالثقة بسبب الختم الذهبي للموافقة من المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي. بالإضافة إلى ذلك ، يمكن إضعاف الدعوات الموجهة إلى الشركة للقيام بالمزيد بشأن الذكاء الاصطناعي الأخلاقي إلى حد ما من خلال الإشارة إلى أن مجلسًا استشاريًا لأخلاقيات الذكاء الاصطناعي تستخدمه الشركة بالفعل.

الأسئلة التي عادة ما يتم طرحها على المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي من قبل الشركة التي تستخدم مثل هذه الآلية غالبًا ما تشمل:

  • هل يجب أن تستخدم الشركة الذكاء الاصطناعي لمنتج أو خدمة معينة ، أم أن ذلك يبدو مزعجًا للغاية؟
  • هل تأخذ الشركة في الاعتبار النطاق الكامل لاعتبارات أخلاقيات الذكاء الاصطناعي في جهودها للذكاء الاصطناعي؟
  • هل وقعت الشركة في دائرة التفكير الجماعي وأصبحت غير راغبة أو غير قادرة على رؤية عيوب أخلاقيات الذكاء الاصطناعي المزعجة التي تنتظر هذه الجهود؟
  • ما هي أنواع الأساليب الحديثة لأخلاقيات الذكاء الاصطناعي التي يجب أن تسعى الشركة إلى تبنيها؟
  • هل سيكون من المجدي تقديم إشادة خارجية لجهودنا في مجال أخلاقيات الذكاء الاصطناعي والالتزام بها؟
  • أخرى

من المؤكد أن الانضمام إلى مجلس استشاري لأخلاقيات الذكاء الاصطناعي أمر منطقي ، وكانت الشركات تسير بشكل متزايد على هذا الطريق.

يرجى العلم أن هناك وجهًا آخر لهذه العملة.

على جانب واحد من العملة ، يمكن أن تكون المجالس الاستشارية لأخلاقيات الذكاء الاصطناعي ثاني أفضل شيء بعد تقطيع الخبز. لا تهمل الجانب الآخر من العملة ، أي أنها يمكن أن تكون أيضًا صداعًا هائلاً وقد تندم لأنك انحرفت إلى هذه المنطقة المشبوهة (كما سترى في هذه المناقشة ، يمكن إدارة الجوانب السلبية ، إذا كنت تعرف ما أنت يفعلون).

بدأت الشركات تدرك أنها يمكن أن تجد نفسها في مأزق عندما تختار السير في طريق المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي. يمكنك التأكيد على أن هذه المكائد تشبه إلى حد ما اللعب بالنار. كما ترى ، تعتبر النار عنصرًا قويًا للغاية يمكنك استخدامه لطهي وجبات الطعام ، وحمايتك من الحيوانات المفترسة أثناء تواجدك في البرية ، وتبقيك دافئًا ، وتجلب الضوء ، وتوفر عددًا كبيرًا من الفوائد المفيدة والحيوية.

يمكن أن تتسبب النار أيضًا في حرقك إذا لم تكن قادرًا على التعامل معها جيدًا.

كانت هناك العديد من عناوين الأخبار في الملاحظات الأخيرة التي توضح بوضوح المخاطر المحتملة لوجود مجلس استشاري لأخلاقيات الذكاء الاصطناعي. إذا قرر أحد الأعضاء بشكل موجز أنه لم يعد يعتقد أن الشركة تقوم بالأنشطة الأخلاقية الصحيحة للذكاء الاصطناعي ، فقد يستقيل العضو الساخط في ضجة كبيرة. بافتراض أن الشخص من المحتمل أن يكون معروفًا في مجال الذكاء الاصطناعي أو الصناعة كما يقال ، فإن سفينة القفز الخاصة بهم ستجذب انتباه وسائل الإعلام على نطاق واسع.

الشركة بعد ذلك يجب أن تستمر في الدفاع.

لماذا غادر العضو؟

ما الذي تفعله الشركة بشكل شائن؟

تطلب بعض الشركات من أعضاء المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي التوقيع على اتفاقيات عدم الإفشاء (اتفاقيات عدم الإفصاح) ، والتي ستحمي الشركة على ما يبدو إذا قرر العضو أن يصبح "شريرًا" ويقمم الشركة. لكن المشكلة هي أنه حتى إذا ظل الشخص صامتًا نسبيًا ، فهناك مع ذلك اعتراف محتمل بأنه لم يعد يخدم في المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي. هذا ، في حد ذاته ، سوف يثير جميع أنواع الأسئلة التي تثير الدهشة.

علاوة على ذلك ، حتى في حالة وجود اتفاقية عدم الإفشاء ، سيحاول العضو أحيانًا الالتفاف حول الأحكام. قد يشمل ذلك الإشارة إلى "دراسات الحالة" العامة غير المسماة "دراسات الحالة" لإبراز الشذوذ في أخلاقيات الذكاء الاصطناعي التي يعتقدون أن الشركة كانت تقوم بها بشكل خفي.

قد يكون العضو الساقط وقحًا تمامًا ويخرج مباشرة يسمي مخاوفه بشأن الشركة. ما إذا كان هذا انتهاكًا واضحًا لاتفاقية عدم الإفشاء ربما يكون أقل أهمية إلى حد ما من حقيقة أن الكلمة تنتشر من أجل إثارة مخاوف الذكاء الاصطناعي الأخلاقية. يمكن للشركة التي تحاول مقاضاة العضو لخرق اتفاقية عدم الإفشاء أن تجلب الماء الساخن إلى نفسها بوحشية ، مما يؤدي إلى زيادة الاهتمام بالنزاع ويبدو أنها مبارزة ديفيد ضد جالوت الكلاسيكية (الشركة هي "الوحش" الكبير).

يفترض بعض كبار المسؤولين التنفيذيين أنه يمكنهم ببساطة التوصل إلى تسوية مالية مع أي عضو في المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي يشعر أن الشركة تقوم بأشياء خاطئة بما في ذلك تجاهل أو التقليل من شأن المخاوف التي تم التعبير عنها.

قد لا يكون هذا سهلاً كما يفترض المرء.

في كثير من الأحيان ، يكون الأعضاء متدينين في التفكير الأخلاقي ولن يتراجعوا بسهولة عما يعتبرونه معركة أخلاقية ضد الحق في مواجهة الخطأ. قد يكونون أيضًا مستقرين من الناحية المالية وغير مستعدين لحلاقة مبادئهم الأخلاقية أو قد يكون لديهم وظائف أخرى لم يمسها تركهم المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي.

كما قد يتضح ، أدرك البعض لاحقًا أن المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي سيف ذو حدين. هناك قيمة هائلة ورؤية مهمة يمكن أن تنقلها مثل هذه المجموعة. في نفس الوقت ، أنت تلعب بالنار. قد يكون ذلك بسبب أن أحد الأعضاء أو الأعضاء قرروا أنهم لم يعودوا يعتقدون أن الشركة تقوم بعمل أخلاقي موثوق به في مجال الذكاء الاصطناعي. ظهرت في الأخبار مؤشرات على استقالة مجلس استشاري كامل لأخلاقيات الذكاء الاصطناعي معًا ، دفعة واحدة ، أو وجود بعض الغلبة من الأعضاء الذين يعلنون مغادرتهم.

كن مستعدًا للخير والمشاكل التي يمكن أن تنشأ مع المجالس الاستشارية لأخلاقيات الذكاء الاصطناعي.

بالطبع ، هناك أوقات لا تقوم فيها الشركات في الواقع بالأشياء المناسبة عندما يتعلق الأمر بأخلاقيات الذكاء الاصطناعي.

لذلك ، نأمل ونتوقع أن يتقدم مجلس استشاري لأخلاقيات الذكاء الاصطناعي في تلك الشركة للإعلان عن هذا الأمر ، على الأرجح داخليًا داخل الشركة أولاً. إذا استمرت الشركة في المسار السيئ المتصور ، فسيبدو الأعضاء بالتأكيد ملزمين أخلاقيا (ربما من الناحية القانونية أيضًا) لاتخاذ إجراءات أخرى كما يرون أنها مناسبة (يجب على الأعضاء استشارة محاميهم الشخصي للحصول على أي مشورة قانونية من هذا القبيل). قد تكون هذه هي الطريقة الوحيدة لجعل الشركة تغير طرقها. قد يبدو أن الإجراء الصارم من قبل عضو أو مجموعة من الأعضاء هو الملاذ الأخير الذي يأمل الأعضاء في قلب التيار. بالإضافة إلى ذلك ، من المحتمل ألا يرغب هؤلاء الأعضاء في أن يكونوا جزءًا من شيء يعتقدون بشدة أنه قد ضل طريقه عن أخلاقيات الذكاء الاصطناعي.

طريقة مفيدة للنظر في هذه الاحتمالات هي:

  • الشركة في طريقها إلى الضلال ، ويختار العضو الخروج بسبب عدم وجود امتثال صارم
  • الشركة لا تشرد ، لكن العضو يعتقد أن الشركة هي وبالتالي خرجت بسبب نقص ملحوظ في الامتثال

لن يعرف العالم الخارجي بالضرورة ما إذا كان العضو الذي خرج لديه أساس حسن النية للقلق بشأن الشركة أو ما إذا كان قد يكون نوعًا من الخصوصية أو الانطباع الخاطئ من قبل العضو. هناك أيضًا إمكانية مباشرة إلى حد ما لترك عضو ما المجموعة بسبب التزامات أخرى أو لأسباب شخصية لا علاقة لها بما تفعله الشركة.

الجوهر هو أنه من المهم لأي شركة تتبنى مجلسًا استشاريًا لأخلاقيات الذكاء الاصطناعي أن تفكر بعناية في النطاق الكامل لمراحل دورة الحياة المرتبطة بالمجموعة.

مع كل هذا الحديث عن الجوانب الإشكالية ، لا أريد أن أنقل انطباعًا بأنني أتجنب وجود مجلس استشاري لأخلاقيات الذكاء الاصطناعي. هذه ليست الرسالة. الجوهر الحقيقي هو أن يكون لديك مجلس استشاري لأخلاقيات الذكاء الاصطناعي والتأكد من قيامك بذلك بالطريقة الصحيحة. اجعل ذلك في شعارك العزيزة.

فيما يلي بعض الفوائد التي ذكرناها كثيرًا للمجلس الاستشاري لأخلاقيات الذكاء الاصطناعي:

  • لديك وسيلة لترديد مشاريع الذكاء الاصطناعي والأفكار من مجموعة خاصة شبه مستقلة
  • الاستفادة من الخبرة في أخلاقيات الذكاء الاصطناعي من خارج الشركة
  • تهدف إلى تجنب قهقهات أخلاقيات الذكاء الاصطناعي والكوارث الصريحة من جانب الشركة
  • كن داعمًا للعلاقات العامة للشركة وأنظمة الذكاء الاصطناعي الخاصة بها
  • اندلاع الفكر الجماعي الداخلي حول أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي
  • احصل على نظرة جديدة على ابتكارات الذكاء الاصطناعي وعمليتها
  • تعزيز مكانة ومكانة الشركة
  • تخدم كصوت جامح عندما تكون جهود منظمة العفو الدولية قوية
  • أخرى

فيما يلي الطرق الشائعة التي تؤدي بها الشركات إلى العبث وتقويض مجلسها الاستشاري لأخلاقيات الذكاء الاصطناعي (لا تفعل هذا!):

  • قدم توجيهات غامضة ومربكة فيما يتعلق بالرسالة والغرض
  • لم يتم التشاور معهم إلا بشكل ضئيل وغالبًا ما يكون توقيتهم سيئًا بعد خروج الحصان بالفعل من الحظيرة
  • أبقى في الظلام
  • المعلومات التي تمت تصفيتها من قبل الاحتياطي الفيدرالي بشكل كبير والتي توفر صورة مضللة للأشياء
  • تُستخدم فقط كعرض وليس لأي هدف آخر لإنتاج القيمة
  • لا يجوز القيام بأي مظهر من مظاهر الاستكشاف حول الأمور الداخلية
  • محرومون من الموارد الكافية لأداء عملهم بشكل كافٍ
  • عدم وجود قيادة واضحة داخل المجموعة
  • عدم اهتمام قيادة الشركة بالمجموعة
  • من المتوقع إعطاء موافقة عمياء على كل ما يتم تقديمه
  • عشوائية بالنسبة للأعضاء المختارين
  • تعامل مع القليل من الاحترام ويبدو أنها مجرد علامة اختيار
  • أخرى

هناك مشكلة أخرى محيرة في كثير من الأحيان تتعلق بطبيعة وسلوك مختلف الأعضاء الذين يعملون في المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي ، والتي قد تكون في بعض الأحيان إشكالية بهذه الطرق:

  • قد يكون بعض الأعضاء مجرد مفاهيم لأخلاقيات الذكاء الاصطناعي بدلاً من أن يكونوا على دراية بأخلاقيات الذكاء الاصطناعي كممارسة ، وبالتالي يقدمون رؤى مبسطة للأعمال التجارية.
  • يمكن أن يكون البعض منمقًا عندما يتعلق الأمر بأخلاقيات الذكاء الاصطناعي ويصعب التعامل معهم طوال فترة مشاركتهم
  • يمكن أن يصبح الاقتتال الداخلي مشتتًا كبيرًا للانتباه ، وغالبًا ما يصطدم بالغرور الكبير ، ويؤدي إلى تحول المجموعة إلى حالة اختلال وظيفي
  • قد يكون البعض مشغولاً للغاية ومفرط في الالتزام بحيث يكونون بمعزل عن الجهود الاستشارية لأخلاقيات الذكاء الاصطناعي
  • لدى البعض رأي راسخ لا يتزعزع حول أخلاقيات الذكاء الاصطناعي يتسم بعدم المرونة وغير الواقعي
  • يميل البعض إلى الاعتبارات العاطفية بدلاً من الاعتبارات التحليلية والنظامية الكامنة وراء أخلاقيات الذكاء الاصطناعي
  • يمكن أن يكون مشابهًا للقول المأثور المشهور بأن تكون مثل قطيع من القطط التي لا تركز وتتجول بلا هدف
  • أخرى

يبدو أن بعض الشركات تجمع مجلسًا استشاريًا لأخلاقيات الذكاء الاصطناعي على أساس طوعي إلى حد ما. لا يذهب الفكر نحو الأعضاء ليتم اختيارهم. لا تفكر في ما يقدمه كل منهم إلى الطاولة. لا تفكر في وتيرة الاجتماعات وكيفية عقد الاجتماعات. لا تفكر في إدارة المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي ، كما قيل. إلخ.

بمعنى ما ، من خلال افتقارك إلى الحيلة ، من المحتمل أنك تضع حطام قطار في حالة حركة.

لا تفعل ذلك.

ربما هذه القائمة من الأشياء الصحيحة للقيام بها يبدو الآن واضحًا بالنسبة لك استنادًا إلى الخطاب حتى الآن ، ولكن ربما ستصدم عندما تعرف أن عددًا قليلاً من الشركات يبدو أنها تفهم هذا الأمر بالشكل الصحيح:

  • حدد بوضوح مهمة وغرض المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي
  • تأكد من أن المجموعة ستمنح الاهتمام المناسب على مستوى التنفيذيين الأعلى
  • حدد نوع الأعضاء الأنسب للمجموعة
  • اقترب من الأعضاء المطلوبين وتأكد من ملاءمة المجموعة
  • قم بعمل الترتيبات المناسبة مع الأعضاء المختارين
  • تحديد لوجستيات الاجتماعات ، وتواترها ، وما إلى ذلك.
  • تحديد واجبات الأعضاء والنطاق والعمق
  • توقع الموارد الداخلية اللازمة لمساعدة المجموعة
  • تخصيص موارد كافية للمجموعة نفسها
  • حافظ على المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي نشطًا ومتواصلًا
  • قم بالتخطيط المسبق للتصعيد عند ظهور مخاوف
  • وضح كيف سيتم التعامل مع حالات الطوارئ أو الأزمات
  • قم بتدوير الأعضاء للخارج أو بالداخل حسب الحاجة للحفاظ على المزيج مناسبًا
  • سبق وتوقعت مسارات خروج للأعضاء
  • أخرى

وفي الختام

قبل بضع سنوات ، تم دفع العديد من صانعي السيارات وشركات التكنولوجيا ذاتية القيادة التي تشرع في ابتكار سيارات ذاتية القيادة قائمة على الذكاء الاصطناعي إلى اتخاذ إجراءات لاعتماد مجالس استشارية لأخلاقيات الذكاء الاصطناعي. حتى تلك اللحظة ، بدا أن هناك وعيًا ضئيلًا بوجود مثل هذه المجموعة. كان من المفترض أن التركيز الداخلي على الذكاء الاصطناعي الأخلاقي سيكون كافياً.

لقد ناقشت بإسهاب في عمودي العديد من الهفوات أو عمليات المراقبة المؤسفة لأخلاقيات الذكاء الاصطناعي التي أدت في بعض الأحيان إلى مشاكل في السيارات ذاتية القيادة مثل الحوادث الطفيفة في السيارات ، وتصادم السيارات العلني ، والكوارث الأخرى ، انظر تغطيتي على الرابط هنا. يجب أن تكون أهمية سلامة الذكاء الاصطناعي وما شابه ذلك من وسائل الحماية هي الاعتبار الأول لمن يصنعون المركبات ذاتية القيادة. تساعد المجالس الاستشارية لأخلاقيات الذكاء الاصطناعي في هذا المجال في الحفاظ على سلامة الذكاء الاصطناعي أولوية قصوى.

الطريقة المفضلة للتعبير عن هذا النوع من الوحي حول أخلاقيات الذكاء الاصطناعي هي تشبيه الأمر بالزلازل.

يتعرض سكان كاليفورنيا من وقت لآخر للزلازل ، وأحيانًا الزلازل الضخمة. قد تعتقد أن الاستعداد للزلازل سيكون اعتبارًا دائمًا. ليس كذلك. الدورة تعمل بهذه الطريقة. يحدث زلزال كبير ويتم تذكير الناس باستعدادهم للزلازل. لفترة وجيزة ، هناك اندفاع للقيام بهذه الاستعدادات. بعد فترة ، يتضاءل الانتباه إلى هذا. الاستعدادات تقع على جانب الطريق أو يتم إهمالها بطريقة أخرى. بوم ، زلزال آخر يضرب ، وكل من كان يجب أن يكون مستعدًا قد فوجئوا "على حين غرة" كما لو أنهم لم يدركوا أن زلزالًا يمكن أن يحدث يومًا ما.

غالبًا ما تفعل الشركات الشيء نفسه إلى حد ما بشأن المجالس الاستشارية لأخلاقيات الذكاء الاصطناعي.

إنهم لا يبدأون واحدًا ثم فجأة ، عند حدوث كارثة تتعلق بالذكاء الاصطناعي الخاص بهم ، يتم دفعهم بشكل تفاعلي إلى العمل. لقد بدأوا بشكل واهية مجلسًا استشاريًا لأخلاقيات الذكاء الاصطناعي. إنه يحتوي على العديد من المشكلات التي ذكرتها سابقًا هنا. ينهار المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي. عفوًا ، أدت كارثة جديدة للذكاء الاصطناعي داخل الشركة إلى إعادة تنشيط الحاجة إلى المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي.

اغسل ، اشطف ، وكرر.

تجد الشركات بالتأكيد أن لديهم أحيانًا علاقة حب وكراهية مع جهود المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي. عندما يتعلق الأمر بفعل الأشياء بالطريقة الصحيحة ، يكون الحب في الهواء. عندما يتعلق الأمر بفعل الأشياء بطريقة خاطئة ، فإن الكراهية تنبع بشدة. تأكد من قيامك بما هو ضروري للحفاظ على الحب وتجنب الكراهية عندما يتعلق الأمر بإنشاء وصيانة مجلس استشاري لأخلاقيات الذكاء الاصطناعي.

دعونا نحول هذا إلى علاقة حب-حب.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-having-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/