أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي قد يتم حثهما على إصدار تحذيرات السلامة الإلزامية على جميع أنظمة الذكاء الاصطناعي الحالية والمستقبلية

لا شك أن أنشطتك اليومية تتعرض للقصف بآلاف أو أكثر من التحذيرات الاحترازية من نوع أو آخر.

جرب هذه بالحجم:

  • يجب ارتداء نظارات السلامة في جميع الأوقات
  • الخطر: قريب من المواد الكيميائية الخطرة
  • الجهد العالي - يحفظ
  • تحذير: انتبه لما يحيط بك
  • الأشياء في المرآة أقرب مما تبدو
  • أخرج الطفل قبل الطي (كما هو مذكور في عربات الأطفال)
  • تحذير: تأكد من تجاهل هذه الرسالة

معظم هذه العلامات أو الملصقات سهلة الاستخدام ومدروسة تمامًا والتي تعمل على إبقائنا آمنين وآمنين.

يرجى العلم أنني تسللت إلى بعض "القيم المتطرفة" في القائمة لإثبات بعض النقاط الجديرة بالملاحظة.

على سبيل المثال ، يعتقد بعض الناس أنه من غير المألوف أن تحمل عربات الأطفال ملصقًا يحذرك من عدم طيها بينما لا يزال الطفل جالسًا داخل الأداة. على الرغم من أن العلامة مناسبة بالتأكيد ومفيدة بإخلاص ، إلا أنه يبدو أن الفطرة السليمة الأساسية ستكون كافية بالفعل.

ما هو الشخص الذي لن يدرك بمحض إرادته أنه يحتاج أولاً إلى إزالة الطفل؟

حسنًا ، يؤكد آخرون أن مثل هذه العلامات تخدم غرضًا مهمًا. أولاً ، قد يكون شخص ما غافلاً حقًا عن حاجته إلى إخراج الطفل قبل طي عربة الأطفال. ربما افترض الشخص أن عربة الأطفال مصممة ببراعة لضمان أن عملية الطي لن تضر بالطفل. أو ربما توجد ميزات أمان مدمجة تمنع طيها عندما يكون هناك طفل داخل عربة الأطفال. إلخ.

أيضًا ، يمكن أن يكون الشخص مشتتًا وكان سيطوي عربة الأطفال بلا عقل ، بما يشمل الطفل وكل شيء ، لكن الملصق دفع الشخص لحسن الحظ إلى عدم القيام بذلك (قد يجادل البعض بأنه من غير المحتمل أن يلاحظ مثل هذا الشخص الملصق على أي حال). هناك أيضًا حقيقة أن شخصًا ما قد يقاضي صانع عربة الأطفال إذا لم يكن هذا الملصق موجودًا. يمكنك أن تتخيل واحدة من تلك الدعاوى القضائية الضخمة التي أصيب فيها طفل وقرر الوالد جني مليون دولار لأن عربة الأطفال كانت تفتقر إلى علامة تحذير مثبتة عليها. ستندم شركة عربات الأطفال على عدم إنفاقها القليل من السنتات اللازمة لصنع ولصق علامات التحذير على عربات الأطفال.

ألق نظرة فاحصة أيضًا على آخر رسائل التحذير التي ذكرتها أعلاه.

لقد اخترت وضع رسالة smarmy حول التأكد من تجاهل الرسالة نظرًا لوجود العديد من ملصقات التحذير المزيفة التي يشتريها الأشخاص أو يصنعونها من أجل المتعة فقط هذه الأيام. هذا هو العقل الفلسفي الحقيقي. إذا قرأت التحذير الذي ينص على تجاهل التحذير ، فماذا ستفعل بالضبط بعد قراءة التحذير؟ لقد قرأتها بالفعل ، لذا فهي ظاهريًا في ذهنك. بالتأكيد ، يمكنك تجاهله ، ولكن مرة أخرى ، لا يتم إخطارك على الإطلاق بما من المفترض أن تتجاهله. تدور هذه النكتة.

بطبيعة الحال ، لا تكون ملصقات التحذير الحسنة النية عادةً ذات طبيعة مزحة أو روح الدعابة.

من المفترض أن نتعامل مع التحذيرات بجدية تامة.

عادة ، إذا فشلت في الالتزام بتحذير مدون ، فإنك تفعل ذلك على مخاطرة شخصية جسيمة. ومن الممكن أيضًا أنه إذا لم تلتزم بالتحذير وتمتثل له ، فمن المحتمل أن تعرض الآخرين لخطر لا داعي له أيضًا. ضع في اعتبارك فعل قيادة السيارة. في اللحظة التي تكون فيها خلف عجلة القيادة ، يمكن لأفعالك كسائق أن تؤذي نفسك ، بالإضافة إلى أنه يمكن أن تؤذي الركاب ، ويمكن أن تؤذي الآخرين مثل الأشخاص في السيارات الأخرى أو المشاة القريبين. وبهذا المعنى ، فإن التحذير ليس فقط لمصلحتك ، بل من المحتمل أن يكون لصالح الآخرين أيضًا.

لماذا أقوم بتغطية جوانب التحذيرات والملصقات التحذيرية هذه؟

لأن البعض يؤكد بشدة أننا بحاجة إلى إشارات تحذيرية وتحذيرية على الذكاء الاصطناعي (AI) اليوم.

في الواقع ، الفكرة هي وضع مثل هذه التسميات على الذكاء الاصطناعي اليوم والذكاء الاصطناعي المستقبلي أيضًا. الكل في الكل ، كل الذكاء الاصطناعي سينتهي به الأمر إلى وجود شكل أو متغير من تحذير أو مؤشر تحذيري مرتبط به.

فكرة جيدة أم فكرة سيئة؟

عملي أم غير عملي؟

دعنا نمضي قدمًا ونفكّك المفهوم ونرى ما يمكننا فعله منه.

أود أولاً وضع بعض الأسس الأساسية حول الذكاء الاصطناعي وخاصةً أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي ، وذلك للتأكد من أن موضوع تحذيرات الذكاء الاصطناعي سيكون مناسبًا للسياق. لأولئك منكم المهتمين عمومًا بالذكاء الاصطناعي الأخلاقي وأيضًا قانون الذكاء الاصطناعي ، راجع تغطيتي الشاملة والمستمرة في الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

الوعي المتزايد بالذكاء الاصطناعي الأخلاقي وكذلك قانون الذكاء الاصطناعي

كان يُنظر إلى العصر الحديث للذكاء الاصطناعي في البداية على أنه كذلك منظمة العفو الدولية من أجل الخير، مما يعني أنه يمكننا استخدام الذكاء الاصطناعي لتحسين البشرية. في أعقاب منظمة العفو الدولية من أجل الخير جاء الإدراك بأننا منغمسون أيضًا في ذلك منظمة العفو الدولية للسوء. وهذا يشمل الذكاء الاصطناعي الذي تم ابتكاره أو تغييره ذاتيًا إلى كونه تمييزيًا واتخاذ خيارات حسابية تضفي تحيزات لا داعي لها. في بعض الأحيان يتم بناء الذكاء الاصطناعي بهذه الطريقة ، بينما في حالات أخرى ينحرف إلى تلك المنطقة غير المرغوبة.

أريد أن أتأكد تمامًا من أننا على نفس الصفحة حول طبيعة الذكاء الاصطناعي اليوم.

لا يوجد أي ذكاء اصطناعي واعي اليوم. ليس لدينا هذا. لا نعرف ما إذا كان الذكاء الاصطناعي الواعي سيكون ممكنًا. لا أحد يستطيع أن يتنبأ بجدارة بما إذا كنا سنحقق ذكاءً اصطناعيًا واعيًا ، ولا ما إذا كان الذكاء الاصطناعي الواعي سينشأ بطريقة ما بأعجوبة تلقائيًا في شكل مستعر أعظم معرفي حسابي (يشار إليه عادةً باسم التفرد ، انظر تغطيتي في الرابط هنا).

نوع الذكاء الاصطناعي الذي أركز عليه يتكون من الذكاء الاصطناعي غير الواعي الذي لدينا اليوم. إذا أردنا التكهن بشدة حول الذكاء الاصطناعي الواعي ، يمكن أن تسير هذه المناقشة في اتجاه مختلف جذريًا. من المفترض أن يكون الذكاء الاصطناعي الواعي ذا جودة بشرية. ستحتاج إلى اعتبار أن الذكاء الاصطناعي الواعي هو المكافئ المعرفي للإنسان. أكثر من ذلك ، نظرًا لأن البعض يتوقع أن يكون لدينا ذكاء اصطناعي فائق الذكاء ، فمن المتصور أن مثل هذا الذكاء الاصطناعي يمكن أن يصبح أكثر ذكاءً من البشر (لاستكشافي للذكاء الاصطناعي الفائق كإمكانية ، انظر التغطية هنا).

أود أن أقترح بشدة أن نبقي الأمور على الأرض وأن ننظر في الذكاء الاصطناعي غير الحسابي اليوم.

ندرك أن الذكاء الاصطناعي اليوم غير قادر على "التفكير" بأي شكل من الأشكال على قدم المساواة مع التفكير البشري. عندما تتفاعل مع Alexa أو Siri ، قد تبدو قدرات المحادثة شبيهة بالقدرات البشرية ، لكن الحقيقة هي أنها حسابية وتفتقر إلى الإدراك البشري. استفاد العصر الأخير من الذكاء الاصطناعي بشكل مكثف من التعلم الآلي (ML) والتعلم العميق (DL) ، مما يعزز مطابقة الأنماط الحسابية. وقد أدى ذلك إلى ظهور أنظمة ذكاء اصطناعي تبدو وكأنها ميول شبيهة بالإنسان. وفي الوقت نفسه ، لا يوجد أي ذكاء اصطناعي اليوم يشبه الفطرة السليمة وليس لديه أي من التعجب المعرفي للتفكير البشري القوي.

كن حذرًا جدًا من تجسيد الذكاء الاصطناعي اليوم.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين يتخذون نمطًا بناءً على القرارات قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق خفية ولكنها مهمة. سيحاول التعلم الآلي أو مطابقة الأنماط الحسابية للتعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة المصممة بالذكاء الاصطناعي في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة في ML / DL من الصعب اكتشاف التحيزات المخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا الأمر أصعب مما قد يبدو. توجد فرصة قوية أنه حتى مع إجراء اختبارات مكثفة نسبيًا ، لا تزال هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

يمكنك إلى حد ما استخدام القول المأثور الشهير أو سيئ السمعة من القمامة في القمامة. الشيء هو ، هذا أقرب إلى التحيزات - التي يتم غرسها بشكل خبيث على أنها تحيزات مغمورة داخل الذكاء الاصطناعي. تصبح عملية اتخاذ القرار الخوارزمية (ADM) للذكاء الاصطناعي بشكل بديهي محملة بعدم المساواة.

غير جيد.

كل هذا له آثار ملحوظة على أخلاقيات الذكاء الاصطناعي ويوفر نافذة مفيدة للدروس المستفادة (حتى قبل أن تحدث جميع الدروس) عندما يتعلق الأمر بمحاولة تشريع الذكاء الاصطناعي.

إلى جانب استخدام مبادئ أخلاقيات الذكاء الاصطناعي بشكل عام ، هناك سؤال مماثل عما إذا كان ينبغي أن تكون لدينا قوانين تحكم الاستخدامات المختلفة للذكاء الاصطناعي. يجري تداول قوانين جديدة على المستويات الفيدرالية والولائية والمحلية التي تتعلق بنطاق وطبيعة كيفية ابتكار الذكاء الاصطناعي. إن الجهد المبذول لصياغة وسن مثل هذه القوانين هو جهد تدريجي. تُعد أخلاقيات الذكاء الاصطناعي بمثابة حل مؤقت مدروس ، على أقل تقدير ، ومن المؤكد تقريبًا إلى حد ما أن يتم دمجها بشكل مباشر في تلك القوانين الجديدة.

اعلم أن البعض يجادل بقوة بأننا لسنا بحاجة إلى قوانين جديدة تغطي الذكاء الاصطناعي وأن قوانيننا الحالية كافية. لقد حذروا من أننا إذا قمنا بسن بعض قوانين الذكاء الاصطناعي هذه ، فسوف نقتل الأوزة الذهبية من خلال تضييق الخناق على التطورات في الذكاء الاصطناعي التي تقدم مزايا مجتمعية هائلة.

في الأعمدة السابقة ، قمت بتغطية مختلف الجهود الوطنية والدولية لصياغة وسن القوانين المنظمة للذكاء الاصطناعي ، انظر الرابط هنا، فمثلا. لقد قمت أيضًا بتغطية مختلف المبادئ والمبادئ التوجيهية لأخلاقيات الذكاء الاصطناعي التي حددتها الدول المختلفة واعتمدتها ، بما في ذلك على سبيل المثال جهود الأمم المتحدة مثل مجموعة اليونسكو لأخلاقيات الذكاء الاصطناعي التي اعتمدتها ما يقرب من 200 دولة ، انظر الرابط هنا.

فيما يلي قائمة مفيدة ومفيدة لمعايير أو خصائص الذكاء الاصطناعي الأخلاقية المتعلقة بأنظمة الذكاء الاصطناعي التي قمت باستكشافها عن كثب سابقًا:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

من المفترض أن يتم استخدام مبادئ أخلاقيات الذكاء الاصطناعي هذه من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف.

يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. كما تم التأكيد سابقًا في هذا المستند ، يتطلب الأمر من القرية ابتكار واستخدام الذكاء الاصطناعي ، ومن أجل ذلك يجب أن تكون القرية بأكملها على دراية بمبادئ أخلاقيات الذكاء الاصطناعي والالتزام بها.

لقد قمت مؤخرًا بفحص ملف منظمة العفو الدولية شرعة الحقوق وهو العنوان الرسمي للوثيقة الرسمية للحكومة الأمريكية بعنوان "مخطط قانون حقوق الذكاء الاصطناعي: جعل الأنظمة المؤتمتة تعمل لصالح الشعب الأمريكي" التي كانت نتيجة جهد استمر لمدة عام من قبل مكتب سياسة العلوم والتكنولوجيا (OSTP ). OSTP هو كيان فيدرالي يعمل على تقديم المشورة للرئيس الأمريكي والمكتب التنفيذي الأمريكي بشأن مختلف الجوانب التكنولوجية والعلمية والهندسية ذات الأهمية الوطنية. وبهذا المعنى ، يمكنك القول إن وثيقة حقوق الذكاء الاصطناعي هذه هي وثيقة وافق عليها البيت الأبيض الأمريكي الحالي وأيدها.

في شرعة حقوق الذكاء الاصطناعي ، هناك خمس فئات أساسية:

  • أنظمة آمنة وفعالة
  • حماية التمييز الحسابي
  • خصوصية البيانات
  • إشعار وشرح
  • البدائل البشرية والاعتبار والرجوع

لقد راجعت بعناية هذه المبادئ ، انظر الرابط هنا.

الآن بعد أن وضعت أساسًا مفيدًا لهذه الموضوعات ذات الصلة بأخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي ، نحن على استعداد للقفز إلى الموضوع المثير حول ما إذا كان يجب أن يكون للذكاء الاصطناعي ملصقات تحذيرية أم لا.

احصل على استعداد لرحلة إعلامية مفتوحة للعين.

وضع علامات التحذير على الذكاء الاصطناعي كوسيلة لحماية الجنس البشري

هناك ضجة متزايدة على قدم وساق مفادها أن الذكاء الاصطناعي ربما يجب أن يأتي بتحذير من نوع ما.

على سبيل المثال ، في مقال حديث في معهد ماساتشوستس للتكنولوجيا تكنولوجي ريفيو التي ناقشت الاهتمام المتزايد بإجراء عمليات تدقيق للذكاء الاصطناعي ، نشأت فكرة تقديم إشارات تحذير: "يشير نمو عمليات التدقيق هذه إلى أننا قد نرى يومًا ما تحذيرات على غرار علب السجائر من أن أنظمة الذكاء الاصطناعي يمكن أن تضر بصحتك وسلامتك. تخضع القطاعات الأخرى ، مثل المواد الكيميائية والأغذية ، لعمليات تدقيق منتظمة للتأكد من أن المنتجات آمنة للاستخدام. هل يمكن أن يصبح شيء من هذا القبيل هو القاعدة في الذكاء الاصطناعي؟ " (معهد ماساتشوستس للتكنولوجيا تكنولوجي ريفيو، ميليسا هيكيلا ، 24 أكتوبر 2022).

دعنا نتحدث قليلاً بشكل عام حول العلامات التحذيرية والتحذيرية.

نحن جميعًا على دراية عامة بالعلامات التحذيرية والتحذيرية على العديد من المنتجات والخدمات ذات الطبيعة اليومية. في بعض الأحيان ، ينص القانون على علامات الأمان على أنها مطلوبة ، بينما في حالات أخرى هناك تقدير لاستخدام مثل هذه العلامات. بالإضافة إلى ذلك ، يتم توحيد بعض علامات الأمان ، مثل تحديدها وفقًا لمعيار ANSI Z535 ومعيار OSHA 1910.14. تغطي هذه المعايير جوانب مثل صياغة العلامة والألوان والخطوط المستخدمة وشكل العلامة وتفاصيل أخرى مختلفة.

من المنطقي أن يكون لديك معايير لمثل هذه العلامات التحذيرية. عندما ترى مثل هذه العلامة ، إذا كانت تفي بالمعايير المنصوص عليها ، فمن المرجح أن تعتقد أن العلامة شرعية ، بالإضافة إلى أنك تتطلب معالجة معرفية أقل لتحليل العلامة وفهمها. بالنسبة للإشارات التي لا تمثل نهجًا موحدًا ، غالبًا ما يتعين عليك حساب ما تخبرك به العلامة عقليًا ، وربما تضيع وقتًا ثمينًا لاتخاذ إجراء أو قد تخطئ تمامًا في الحكم على العلامة ولا تفهم التحذير الموجود بشكل صحيح.

يمكن أن توجد مجموعة من هذه العلامات ، والتي غالبًا ما يتم تصنيفها إلى حد ما على النحو التالي:

  • علامة الخطر: القلق الأكبر ودلالة على وجود خطر مباشر مع عواقب وخيمة محتملة
  • علامة التحذير: تشير إلى وجود خطر أقل من "خطر" ولكنه لا يزال شديد الخطورة
  • علامة تحذير: تشير إلى خطر محتمل أقل من "تحذير" ولكنه لا يزال جديًا بالفعل
  • علامة الإخطار: تشير إلى تنبيه إعلامي أقل من "الحذر" ولكنه لا يزال ينطوي على جوانب مثيرة للقلق

بالنظر إلى الخلفية السابقة حول التحذيرات والإشارات التحذيرية ، يمكننا المضي قدمًا ومحاولة تطبيق هذا السياق على استخدام الذكاء الاصطناعي.

أولاً ، من المحتمل أن نتفق بطريقة ما على أن لافتات الذكاء الاصطناعي قد تكون في نطاق شدة مماثل لما هو معتاد مع العلامات اليومية ، مثل:

  • AI علامة الخطر: الذكاء الاصطناعي هو مصدر القلق الأكبر ومؤشر على وجود خطر مباشر مع عواقب وخيمة محتملة
  • علامة تحذير منظمة العفو الدولية: يشير الذكاء الاصطناعي إلى وجود خطر أقل من "خطر" ولكنه لا يزال خطيرًا للغاية
  • علامة تحذيرية لمنظمة العفو الدولية: يشير الذكاء الاصطناعي إلى خطر محتمل أقل من "تحذير" ولكنه لا يزال جديًا بالفعل
  • علامة إعلام منظمة العفو الدولية: يشير الذكاء الاصطناعي إلى تنبيه إعلامي أقل من "الحذر" ولكنه لا يزال ينطوي على جوانب مثيرة للقلق

الجوهر هو أنه لن يكون كل الذكاء الاصطناعي مصدر قلق مقلق بنفس القدر. يمكن أن يكون للذكاء الاصطناعي مخاطر هائلة أو ينطوي فقط على مخاطر هامشية. وفقًا لذلك ، يجب أن تعكس اللافتات أيهما. إذا تم عرض جميع تحذيرات الذكاء الاصطناعي أو الإشارات التحذيرية ببساطة على أنها من نفس العيار ، فمن المفترض أننا لن نعرف أو ندرك ما إذا كان يتعين علينا القلق الشديد أو القلق البسيط بشأن الذكاء الاصطناعي. قد يؤدي استخدام مخطط صياغة مُصنَّف إلى تسهيل الحياة عند رؤية إشارات التحذير المتعلقة بالذكاء الاصطناعي وتفسيرها.

قد تتساءل ما الذي ستقوله العلامات أيضًا من حيث تفاصيل الرسالة التي سيتم نقلها.

من المؤكد أن هذه مسألة يصعب معالجتها. إن إمكانيات الذكاء الاصطناعي للقيام بأشياء تعتبر غير آمنة أو مقلقة ستكون كبيرة للغاية ، تكاد لا تنتهي. هل يمكننا تلخيصها في بعض المجموعات الروتينية التي يتم توضيحها في بضع كلمات فقط؟ أم أننا سنضطر إلى السماح بنهج أكثر حرية لكيفية صياغة الصياغة؟

سأتركك تفكر في هذا السؤال المفتوح.

عند المضي قدمًا ، نميل إلى رؤية علامات تحذير منشورة على الأشياء. إن نظام الذكاء الاصطناعي ليس بالضرورة "كائنًا" بنفس معنى وضع العلامات المعتاد. وهذا يثير تساؤلاً حول المكان الذي سيتم فيه تقديم إشارات التحذير الخاصة بالذكاء الاصطناعي.

قد يكون ذلك عندما تقوم بتشغيل تطبيق على الهاتف الذكي الخاص بك أنه إذا كان يستخدم AI ، فستظهر رسالة تحتوي على التحذير المتعلق بالذكاء الاصطناعي. سينبهك التطبيق إلى الاستخدام الأساسي للذكاء الاصطناعي. قد تكون هذه رسالة منبثقة أو قد يتم تقديمها بعدة طرق بصرية وحتى سمعية.

هناك أيضًا حالة استخدامك لخدمة مدعومة من قبل الذكاء الاصطناعي ، على الرغم من أنك قد لا تتفاعل بشكل مباشر مع الذكاء الاصطناعي. على سبيل المثال ، يمكن أن تجري محادثة مع وكيل بشري حول الحصول على رهن عقاري ، حيث يكون الوكيل بصمت وراء الكواليس باستخدام نظام الذكاء الاصطناعي لتوجيه جهوده.

وبالتالي ، يجب أن نتوقع أن تكون إشارات التحذير الخاصة بالذكاء الاصطناعي موجودة في كل من حالات استخدام الذكاء الاصطناعي ، مثل:

  • الذكاء الاصطناعي الخاص بالمنتج: يجب أن يكون للذكاء الاصطناعي كمنتج إشارات تحذيرية أو تحذيرية صريحة للذكاء الاصطناعي
  • الذكاء الاصطناعي الموجه نحو الخدمة: يجب أن يكون للذكاء الاصطناعي كخدمة (بشكل مباشر أو غير مباشر) إشارات تحذيرية أو تحذيرية للذكاء الاصطناعي

من المؤكد أن المشككين سوف يسارعون إلى اقتراح أن علامة تحذير الذكاء الاصطناعي قد يتم إخفاءها بشكل مخادع من قبل صانع التطبيق بحيث لا يكون التنبيه ملحوظًا بشكل خاص. ربما يظهر التحذير لفترة وجيزة ولا تلاحظ حقًا أنه تم عرضه. هناك حيلة مخادعة أخرى تتمثل في إخراج نوع من اللعبة منه ، مما يؤدي على ما يبدو إلى تقويض جدية التنبيه وتهدئة الناس للاعتقاد بأن التحذير غير منطقي.

نعم ، يمكنك أن تراهن إلى حد كبير على أن أي إشارات تحذير متعلقة بالذكاء الاصطناعي سيتم خداعها واستخدامها بطرق لا تندرج ضمن روح وقصد الرسائل التحذيرية التي من المفترض أن تنقلها.

تتوافق كل هذه الشكوك مع ما إذا كنا سنستخدم أخلاقيات الذكاء الاصطناعي باعتبارها "قوانين ناعمة" لمحاولة المضي قدمًا في التحذيرات والتنبيهات المتعلقة بالذكاء الاصطناعي ، أو ما إذا كنا سنستخدم "القوانين الصارمة" بما في ذلك القوانين التي تم سنها بدعم من المحكمة. من الناحية النظرية ، فإن دفع القانون غير الملزم سيسمح بمظهر أكبر للتلاعب بالمسألة ، في حين أن القوانين الموجودة في الكتب ستأتي مع إمكانية إنفاذ الحكومة وتؤدي إلى مزيد من الصرامة.

مصدر قلق آخر هو ما إذا كانت لافتات الذكاء الاصطناعي ستحدث أي فرق على أي حال.

تميل الكثير من الأبحاث حول سلوك المستهلك إلى إظهار نتائج مشوشة عندما يتعلق الأمر بتوفير ملصقات تحذيرية للمستهلكين. أحيانًا تكون التحذيرات فعالة ، وأحيانًا لا تكون كذلك. دعنا نطبق بعضًا من هذا البحث على سياق الذكاء الاصطناعي.

ضع في اعتبارك هذه الجوانب:

  • كشف: هل سيلاحظ أولئك الذين يستخدمون الذكاء الاصطناعي الذي يحتوي على علامة تحذير قابلة للتطبيق لمنظمة العفو الدولية أو يكتشفون أن العلامة تظهر لهم (بافتراض حدوث مثل هذه اللافتات)؟
  • الفهم: بالنسبة لأولئك الذين لاحظوا ، هل سيفهمون أو يفهمون ما تحاول علامة تحذير الذكاء الاصطناعي أن تقترحه عليهم؟
  • عمل: بالنسبة لأولئك الذين يقومون بهذه القفزة الذهنية ، هل ستدفعهم علامة تحذير الذكاء الاصطناعي إلى اتخاذ إجراءات أو تعمل بطريقة أخرى على توجيه سلوكهم وفقًا لذلك؟

يمكنك توقع أنه في حالة زيادة الزخم لوجود إشارات تحذير للذكاء الاصطناعي ، فإن الباحثين سيدرسون الأمر عن كثب. الفكرة هي المساعدة في توضيح الظروف التي تكون فيها التحذيرات مفيدة ومتى لا تكون كذلك. وهذا بدوره يتعلق بالتصميم والشكل والمضمون. قد نتوقع أيضًا أن يحتاج الجمهور عمومًا إلى تثقيفه أو إعلامه بظهور إشارات التحذير والتحذيرات الخاصة بالذكاء الاصطناعي حتى يعتادوا عليها.

هناك الكثير من التقلبات والانعطافات التي يجب مراعاتها.

هل يجب أن يظهر تحذير الذكاء الاصطناعي أو الإشارة التحذيرية فقط في بداية التطبيق قيد الاستخدام؟ ربما لا تكون نقطة البداية كافية بحد ذاتها. قد يعتقد الشخص للوهلة الأولى أن التطبيق يقوم بتشغيله بأمان من خلال استخدام تحذير ، وبالتالي لا يولي الكثير من الاهتمام للتحذير. بمجرد أن يكون الشخص في منتصف الطريق لاستخدام التطبيق ، ربما يكون هناك ما يبرر تحذير إضافي. في هذا المنعطف ، يكون الشخص أكثر وعيًا بما يقوم به التطبيق وقد يكون قد نسي بالفعل رسالة التحذير المشار إليها سابقًا.

قد يحدث تحذير أو تحذير AI بعد ذلك:

  • قبل بدء التطبيق ومثلما هو على وشك استدعاء التطبيق
  • يتم تقديمه بمجرد بدء تشغيل التطبيق وعند نقطة البداية فقط
  • يظهر في البداية ومرة ​​أخرى في منتصف الطريق
  • تظهر عدة مرات أثناء استخدام الذكاء الاصطناعي
  • يُعطى في نهاية استخدام التطبيق
  • قدم بعد الخروج من التطبيق وربما حتى بعد دقائق أو ساعات أو أيام
  • إلخ

هل تعتقد أن الشخص الذي يستخدم الذكاء الاصطناعي يحتاج إلى تأكيد أو إقرار أي تحذيرات أو إشارات تحذيرية من هذا القبيل؟

قد يصر البعض على وجوب مطالبة الشخص بالاعتراف برؤية التحذيرات. من المحتمل أن يؤدي هذا إلى منع أولئك الذين قد يدّعون عدم وجود أي رسالة تحذير. قد يؤدي ذلك أيضًا إلى أن يأخذ الأشخاص الرسائل بجدية أكبر ، نظرًا لأنه يُطلب منهم تأكيد أنهم لاحظوا إشارة التحذير.

هذا سؤال صعب عليك.

وينبغي من جميع هل يتعين على الذكاء الاصطناعي تقديم تحذير أو مؤشر أمان؟

قد تجادل بأن نعم ، يجب أن يمتلك كل الذكاء الاصطناعي هذا. حتى لو كان الذكاء الاصطناعي يمثل خطرًا هامشيًا على السلامة ، فلا يزال يجب أن يحتوي على شكل من أشكال علامات التحذير ، ربما مجرد إشعار أو مؤشر إعلامي. قد يجادل آخرون في هذا الخلاف. كانوا يجادلون بأنك تسير في البحر. ليس كل الذكاء الاصطناعي يحتاج إلى هذا. علاوة على ذلك ، إذا أجبرت كل الذكاء الاصطناعي على امتلاكه ، فسوف تضعف الغرض. سيصاب الناس بالخدر عند رؤية مؤشرات التحذير. سيصبح النهج بأكمله مهزلة.

من ناحية أخرى ، ضع في اعتبارك ما قد يقوله صانعو الذكاء الاصطناعي.

قد تكون إحدى وجهات النظر أن هذا سيكون بمثابة ألم في "أنت تعرف ما الذي يجب عليك وضعه في مكانه الصحيح". قد يكون الاضطرار إلى تغيير جميع أنظمة الذكاء الاصطناعي الخاصة بك وإضافة هذه الميزة مكلفًا. قد تكون إضافته على أساس المضي قدمًا أقل تكلفة ، على الرغم من وجود تكلفة مرتبطة بتضمين هذا المخصص.

الضبابية هي شكوى أخرى محتملة. ما نوع الرسالة التي يجب عرضها؟ إذا لم تكن هناك أي معايير ، فهذا يعني أن صانعي الذكاء الاصطناعي سيحتاجون إلى صياغة شيء جديد. لا يقتصر الأمر على هذه التكلفة الإضافية فحسب ، بل ربما يفتح الباب أمام رفع دعوى قضائية. يمكنك أن تتخيل أن صانع الذكاء الاصطناعي قد يتم نقله إلى مهمة أن تحذيرهم لم يكن جيدًا مثل بعض أنظمة الذكاء الاصطناعي الأخرى. سينتهي الأمر بالمحامين إلى تكوين حزمة من الارتباك الناتج.

هناك أيضًا مخاوف من أن يخاف الناس بلا داع من رسائل الأمان هذه.

قد يرى صانع الذكاء الاصطناعي انخفاضًا حادًا في عدد المستخدمين بسبب رسالة أمان تهدف فقط إلى توفير تحذير إعلامي. لن يعرف الناس ماذا يفعلون بالرسالة. إذا لم يروا مثل هذه الرسائل من قبل ، فقد يصابون بالفزع على الفور ويتجنبون استخدام الذكاء الاصطناعي دون داع.

أذكر هذه الجوانب لأن البعض يعلن بالفعل أنه "لا يمكن أن يؤذي" البدء في تضمين تحذيرات الذكاء الاصطناعي أو رسائل السلامة. بالنسبة لهم ، الفكرة مثالية مثل فطيرة التفاح. لا يمكن لأحد أن يدحض بجدية الفوائد المترتبة على طلب السلامة أو التحذيرات المتعلقة بالذكاء الاصطناعي دائمًا. لكن بالطبع ، هذه ليست طريقة واقعية للتفكير في الأمر.

يمكنك حتى أن تذهب إلى أبعد من ذلك وتزعم أن رسائل تحذير الذكاء الاصطناعي يمكن أن تنتج شكلاً من أشكال الهستيريا الجماعية. إذا بدأنا فجأة في إجبار أنظمة الذكاء الاصطناعي على الحصول على مثل هذه الرسائل ، فقد يسيء الناس فهم النية. كما ترى ، هناك الكثير من التحذيرات بأننا نواجه أزمة وجودية للذكاء الاصطناعي ، حيث سيسيطر الذكاء الاصطناعي على العالم ويمحو الجنس البشري ، انظر الرابط هنا لتحليلي لتلك الأنواع من المطالبات.

قد يؤدي استخدام رسالة تحذير الذكاء الاصطناعي إلى "إلهام" بعض الناس للاعتقاد بأن النهاية قريبة. وإلا لماذا تظهر الرسائل الآن؟ بالتأكيد ، هذا مؤشر على أن الذكاء الاصطناعي يستعد أخيرًا ليصبح أسيادنا القمعيين.

نوع من النتائج القاتمة اليائسة لمحاولة فعل الشيء الصحيح من خلال توعية الجمهور بكيفية غرس الذكاء الاصطناعي بقدرات تمييزية أو غيرها منظمة العفو الدولية للسوء النواحي.

وفي الختام

قال الشاعر الأمريكي الشهير جيمس راسل لويل ذات مرة: "شوكة واحدة من الخبرة تستحق كل هذه البرية للتحذير".

أطرح الملاحظة السامية لإبداء بعض التعليقات الختامية حول مسألة تحذيرات الذكاء الاصطناعي أو رسائل السلامة.

من المحتمل أنه حتى يكون لدينا إدراك واسع إلى حد ما لقيام الذكاء الاصطناعي بأفعال سيئة ، فلن يكون هناك الكثير من الصخب لرسائل التحذير المتعلقة بالذكاء الاصطناعي. قد يتم الثناء على صانعي الذكاء الاصطناعي الذين يختارون القيام بذلك طواعية ، على الرغم من أنهم قد يجدون أنفسهم أيضًا عن غير قصد يتعرضون لمضايقات غير عادلة. قد يلاحقهم بعض النقاد للاستفادة من الذكاء الاصطناعي الذي يبدو أنه يحتاج إلى تحذيرات ، في البداية ، وفي الوقت نفسه يتجاهلون إدراك أنهم كانوا يحاولون الذهاب أولاً وأن جميع صانعي الذكاء الاصطناعي الآخرين يتخلفون عن الركب.

مرتبك إذا فعلت ذلك ، ربما لم تكن مرتبكًا إذا لم تفعل ذلك.

هناك اعتبار آخر يتعامل مع تحويل ما يبدو أنه فكرة مفاهيمية لطيفة إلى ممارسة عملية ومفيدة. من السهل أن تلوح بيديك وتصرخ بشكل غامض للرياح بأن الذكاء الاصطناعي يجب أن يكون لديه رسائل تحذير وأمان. يأتي الجزء الصعب عند اتخاذ قرار بشأن ماهية تلك الرسائل ، ومتى وأين ينبغي تقديمها ، وما إذا كانت تكلفتها تجني فوائد كافية أو إلى أي درجة ، وما إلى ذلك.

سنقوم هنا بإعطاء جيمس راسل لويل الكلمة الأخيرة (شاعريًا) حول هذا الموضوع في الوقت الحالي: "الإبداع ليس اكتشافًا لشيء ما ، بل صنع شيء منه بعد اكتشافه".

أعتقد أن الوقت قد حان لنشمر عن سواعدنا ونبدأ العمل على هذا. وهذا ليس مجرد تحذير ، إنه عمل.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- تحذيرات بشأن ذكاء إصطناعي موجود ومستقبلي جميعًا /