أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي يزنان الطرق الرئيسية لتنفيذ قانون حقوق الذكاء الاصطناعي الذي تم إصداره مؤخرًا ، بما في ذلك وبشكل مذهل استخدام الذكاء الاصطناعي تمامًا

ليس هناك شك في أننا بحاجة إلى مخططات في حياتنا اليومية.

إذا كنت ستبني منزل الأحلام الذي طال تصوره لك ، فمن الحكمة أن تضع مخططًا قابلاً للاستخدام أولاً.

يعرض المخطط بطريقة ملموسة وموثقة أي منظور بصري واسع العين قد يكون مغلقًا في رأسك. سيتمكن أولئك الذين سيتم استدعاؤهم لبناء مسكنك العزيز عليهم الرجوع إلى المخطط وتوضيح تفاصيل كيفية إنجاز المهمة. المخططات سهلة الاستخدام. لا بد أن يكون عدم وجود مخطط عمل إشكاليًا للتعامل مع أي نوع من الأعمال الروتينية المعقدة أو المشروع.

دعونا نحول هذا التكريم العاطفي إلى حد ما ولكنه حقيقي إلى المخططات إلى عالم الذكاء الاصطناعي (AI).

قد يكون أولئك الذين هم منخرطون بشكل جوهري في الذكاء الاصطناعي مدركين بشكل غامض أن سياسة مهمة موجهة نحو السياسة مخطط تم إصداره مؤخرًا في الولايات المتحدة ويتعلق بشكل واضح بمستقبل الذكاء الاصطناعي. المعروف بشكل غير رسمي باسم منظمة العفو الدولية شرعة الحقوق، العنوان الرسمي للورقة البيضاء المعلن عنها هو "مخطط قانون حقوق الذكاء الاصطناعي: جعل الأنظمة المؤتمتة تعمل لصالح الشعب الأمريكي" ومتاح بسهولة عبر الإنترنت.

الوثيقة هي نتيجة لجهد استمر لمدة عام ودراسة واعية من قبل مكتب سياسة العلوم والتكنولوجيا (OSTP). OSTP هو كيان فيدرالي تأسس في منتصف السبعينيات ويعمل على تقديم المشورة للرئيس الأمريكي والمكتب التنفيذي للولايات المتحدة بشأن مختلف الجوانب التكنولوجية والعلمية والهندسية ذات الأهمية الوطنية. وبهذا المعنى ، يمكنك القول إن وثيقة حقوق الذكاء الاصطناعي هذه هي وثيقة وافق عليها البيت الأبيض الأمريكي الحالي وأيدها.

تصوّر وثيقة حقوق منظمة العفو الدولية حقوق الانسان التي يجب أن تحظى بها البشرية فيما يتعلق بظهور الذكاء الاصطناعي في حياتنا اليومية. أؤكد على هذه النقطة المهمة لأن بعض الناس كانوا في حيرة من أمرهم في البداية لأن هذا ربما كان نوعًا من الاعتراف بأن الذكاء الاصطناعي يتمتع بشخصية قانونية وأن هذا كان سلسلة من الحقوق للذكاء الاصطناعي والروبوتات التي تشبه البشر. كلا ، لسنا هناك بعد. كما سترى بعد قليل ، لسنا قريبين من الذكاء الاصطناعي الواعي في أي مكان ، على الرغم من عناوين البانر التي يبدو أنها تخبرنا بخلاف ذلك.

حسنًا ، هل نحتاج إذن إلى مخطط يوضح حقوق الإنسان في عصر الذكاء الاصطناعي؟

نعم ، نحن نفعل ذلك بكل تأكيد.

ستحتاج تقريبًا إلى أن تكون مغلقًا في كهف وأن تكون غائبًا عن الوصول إلى الإنترنت حتى لا تعرف أن الذكاء الاصطناعي يتعدى بالفعل وبشكل متزايد على حقوقنا. كان يُنظر إلى العصر الحديث للذكاء الاصطناعي في البداية على أنه كذلك منظمة العفو الدولية من أجل الخير، مما يعني أنه يمكننا استخدام الذكاء الاصطناعي لتحسين البشرية. في أعقاب منظمة العفو الدولية من أجل الخير جاء الإدراك بأننا منغمسون أيضًا في ذلك منظمة العفو الدولية للسوء. وهذا يشمل الذكاء الاصطناعي الذي تم ابتكاره أو تغييره ذاتيًا إلى كونه تمييزيًا واتخاذ خيارات حسابية تضفي تحيزات لا داعي لها. في بعض الأحيان يتم بناء الذكاء الاصطناعي بهذه الطريقة ، بينما في حالات أخرى ينحرف إلى تلك المنطقة غير المرغوبة.

للحصول على تغطية وتحليل مستمرة وشاملة لقانون الذكاء الاصطناعي وأخلاقيات الذكاء الاصطناعي وغيرها من الاتجاهات التكنولوجية والمجتمعية الرئيسية للذكاء الاصطناعي ، انظر الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

تفريغ وثيقة حقوق الذكاء الاصطناعي

لقد ناقشت سابقًا قانون حقوق الذكاء الاصطناعي وسأقدم ملخصًا سريعًا هنا.

جانباً ، إذا كنت ترغب في معرفة إيجابيات وسلبيات قانون حقوق الذكاء الاصطناعي الذي تم إصداره مؤخرًا ، فقد قمت بتفصيل تحليلي في منشور في فقيه، انظر الرابط هنا. فقيه هو موقع إلكتروني بارز للأخبار والتعليقات القانونية ، والمعروف على نطاق واسع بأنه خدمة إخبارية قانونية حائزة على جوائز يدعمها فريق عالمي من مراسلي طلاب القانون والمحررين والمعلقين والمراسلين ومطوري المحتوى ، ويقع مقره الرئيسي في كلية جامعة بيتسبرغ في Law في بيتسبرغ ، حيث بدأ منذ أكثر من 25 عامًا. اهتف إلى الفريق المتميز والعمل الدؤوب في فقيه.

في شرعة حقوق الذكاء الاصطناعي ، هناك خمس فئات أساسية:

  • أنظمة آمنة وفعالة
  • حماية التمييز الحسابي
  • خصوصية البيانات
  • إشعار وشرح
  • البدائل البشرية والاعتبار والرجوع

لاحظ أنني لم أقم بترقيمهم من واحد إلى خمسة لأن القيام بذلك قد يعني أنهم في تسلسل معين أو أن أحد الحقوق يبدو أكثر أهمية من الآخر. سوف نفترض أن كل واحدة من مزاياها الخاصة. إنهم جميعًا يستحقون التقدير بشكل متساوٍ.

كدلالة موجزة على ما يتكون منه كل واحد ، إليك مقتطف من الورقة البيضاء الرسمية:

  • أنظمة آمنة وفعالة: يجب أن تكون محميًا من الأنظمة غير الآمنة أو غير الفعالة. يجب تطوير الأنظمة المؤتمتة بالتشاور من مختلف المجتمعات وأصحاب المصلحة وخبراء المجال لتحديد المخاوف والمخاطر والتأثيرات المحتملة للنظام ".
  • حماية التمييز الحسابي: "يجب ألا تواجه تمييزًا من خلال الخوارزميات ، ويجب استخدام الأنظمة وتصميمها بطريقة عادلة. يحدث التمييز الخوارزمي عندما تساهم الأنظمة الآلية في معالجة مختلفة غير مبررة أو تأثيرات مزعجة للأشخاص على أساس العرق واللون والعرق والجنس (بما في ذلك الحمل والولادة والحالات الطبية ذات الصلة والهوية الجنسية وحالة ثنائيي الجنس والتوجه الجنسي) والدين والعمر أو الأصل القومي أو الإعاقة أو حالة المحاربين القدامى أو المعلومات الجينية أو أي تصنيف آخر يحميها القانون ".
  • خصوصية البيانات: "يجب أن تكون محميًا من ممارسات البيانات المسيئة من خلال وسائل الحماية المضمنة ويجب أن يكون لديك وكالة حول كيفية استخدام البيانات المتعلقة بك. يجب أن تكون محميًا من انتهاكات الخصوصية من خلال خيارات التصميم التي تضمن تضمين هذه الحماية بشكل افتراضي ، بما في ذلك التأكد من أن جمع البيانات يتوافق مع التوقعات المعقولة وأنه يتم جمع البيانات الضرورية للغاية للسياق المحدد فقط ".
  • إشعار وشرح: "يجب أن تعلم أنه يتم استخدام نظام آلي وأن تفهم كيف ولماذا يساهم في النتائج التي تؤثر عليك. يجب على المصممين والمطورين والناشرين للأنظمة الآلية توفير وثائق بلغة بسيطة يمكن الوصول إليها بشكل عام بما في ذلك أوصاف واضحة لأداء النظام بشكل عام والدور الذي تلعبه الأتمتة ، ولاحظ أن هذه الأنظمة قيد الاستخدام ، والفرد أو المؤسسة المسؤولة عن النظام ، وتفسيرات نتائج واضحة وفي الوقت المناسب ويمكن الوصول إليها ".
  • البدائل البشرية ، الاعتبارات ، والرجوع: "يجب أن تكون قادرًا على إلغاء الاشتراك ، عند الاقتضاء ، والوصول إلى شخص يمكنه التفكير بسرعة في المشكلات التي تواجهها ومعالجتها. يجب أن تكون قادرًا على إلغاء الاشتراك في الأنظمة الآلية لصالح بديل بشري ، عند الاقتضاء ".

بشكل عام ، هذه جوانب من حقوق الإنسان التي تم التلاعب بها لفترة طويلة في سياق أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي ، انظر تغطيتي مثل في الرابط هنا. يبدو أن الورقة البيضاء لا تسحب الأرنب بطريقة سحرية من القبعة بالنسبة لبعض الحقوق المكتشفة أو المكتشفة حديثًا والتي لم يتم توضيحها حتى الآن في سياق عصر الذكاء الاصطناعي.

حسنا.

يمكنك التأكيد على أن تجميعها في مجموعة رسمية ومعبأة بدقة يوفر خدمة حيوية. بالإضافة إلى ذلك ، عن طريق الدهن على أنه مشهود له منظمة العفو الدولية شرعة الحقوق، هذا يضع الأمر برمته بشكل علني وباقتدار في وعي المجال العام. إنه يدمج عددًا كبيرًا من المناقشات المتباينة الموجودة في مجموعة فردية يمكن الآن الترويج لها ونقلها عبر جميع أنواع أصحاب المصلحة.

اسمحوا لي أن أقدم هذه القائمة من ردود الفعل الإيجابية على وثيقة حقوق الذكاء الاصطناعي المعلنة:

  • يوفر تجميعًا أساسيًا لمبادئ حجر الأساس
  • يعمل كمخطط أو أساس للبناء عليه
  • بمثابة نداء مسموع للعمل
  • يثير الاهتمام ويظهر أن هذه اعتبارات جادة
  • يجمع بين العديد من المناقشات المتباينة
  • يشعل ويساهم في جهود تبني الذكاء الاصطناعي الأخلاقي
  • ستسهم بلا شك في إنشاء قوانين الذكاء الاصطناعي
  • أخرى

نحتاج أيضًا إلى النظر في ردود الفعل غير المواتية ، مع الأخذ في الاعتبار أن هناك الكثير من العمل الذي يتعين القيام به وأن هذه مجرد بداية رحلة طويلة على الطريق الشاق لإدارة الذكاء الاصطناعي.

على هذا النحو ، قاسية إلى حد ما أو يجب أن نقول إن الانتقادات البناءة الموجهة إلى وثيقة حقوق الذكاء الاصطناعي تشمل:

  • غير قابل للتنفيذ قانونًا وغير ملزم تمامًا
  • استشارية فقط ولا تعتبر سياسة حكومية
  • أقل شمولية مقارنة بالأعمال المنشورة الأخرى
  • يتكون بشكل أساسي من مفاهيم واسعة ويفتقر إلى تفاصيل التنفيذ
  • سيكون من الصعب التحول إلى قوانين عملية قابلة للتطبيق
  • يبدو صامتًا بشأن القضية التي تلوح في الأفق وهي احتمال حظر الذكاء الاصطناعي في بعض السياقات
  • يعترف هامشيًا بمزايا استخدام الذكاء الاصطناعي المصمم جيدًا
  • أخرى

لعل أبرز التعليقات اللاذعة قد ركزت على حقيقة أن وثيقة حقوق منظمة العفو الدولية هذه ليست قابلة للتنفيذ قانونًا ، وبالتالي فهي لا تحمل أي صدى عندما يتعلق الأمر بإنشاء أهداف واضحة المعالم. قال البعض إنه على الرغم من أن الورقة البيضاء مفيدة ومشجعة ، إلا أنها تفتقر بالتأكيد إلى الأسنان. إنهم يتساءلون عما يمكن أن يأتي من مجموعة من التعاليم الأنيقة التي يُقال أن تكون مجوفة.

سأتناول هذه الملاحظات اللاذعة بعد قليل.

وفي الوقت نفسه ، ينص الكتاب الأبيض بإسهاب على القيود المفروضة على وثيقة حقوق الذكاء الاصطناعي هذه:

  • "مخطط قانون حقوق الذكاء الاصطناعي غير ملزم ولا يشكل سياسة حكومة الولايات المتحدة. وهو لا يلغي أو يعدل أو يوجه تفسيرًا لأي قانون أو لائحة أو سياسة أو صك دولي موجود. لا يشكل توجيهًا ملزمًا للجمهور أو للوكالات الفيدرالية ، وبالتالي لا يتطلب الامتثال للمبادئ الموضحة هنا. كما أنها لا تحدد موقف حكومة الولايات المتحدة في أي مفاوضات دولية. قد لا يفي اعتماد هذه المبادئ بمتطلبات القوانين أو اللوائح أو السياسات أو الصكوك الدولية القائمة ، أو متطلبات الوكالات الفيدرالية التي تطبقها. لا تهدف هذه المبادئ إلى حظر أو تقييد أي نشاط قانوني لوكالة حكومية ، بما في ذلك أنشطة إنفاذ القانون أو الأمن القومي أو الاستخبارات "(وفقًا للكتاب الأبيض) ، ولا تحظر هذه المبادئ أو تقيدها.

بالنسبة لأولئك الذين سارعوا إلى تقويض قانون حقوق الذكاء الاصطناعي باعتباره غير ملزم قانونًا ، فلنقم ببعض التجربة الفكرية حول هذا الادعاء اللاذع. لنفترض أن الكتاب الأبيض قد تم إصداره وكان يتمتع بالقوة الكاملة للقانون. أجرؤ على القول إن النتيجة ستكون كارثية إلى حد ما ، على الأقل لدرجة الاستجابات القانونية والمجتمعية للإعلان.

سيكون المشرعون في ذراعي لأن الجهود لم تتخذ العمليات المعيارية والإجراءات القانونية في تجميع مثل هذه القوانين. سوف تغضب الشركات ، عن حق ، من ظهور قوانين جديدة دون إخطار أو وعي كافٍ بماهية تلك القوانين. كل أنواع الذعر والغضب ستنجم.

ليست طريقة جيدة للانجذاب نحو ترسيخ حقوق الإنسان في عصر الذكاء الاصطناعي.

تذكر أنني قد بدأت هذه المناقشة في وقت سابق بإثارة قيمة وحيوية المخططات.

تخيل أن شخصًا ما تخطى خطوة صياغة المخططات وقفز على الفور إلى بناء منزل أحلامك. ما رأيك سيبدو المنزل؟ يبدو رهانًا جيدًا أن المنزل لن يتطابق بشكل خاص مع ما يدور في ذهنك. قد يكون المنزل الناتج في حالة فوضى تامة.

الجوهر هو أننا نحتاج إلى مخططات ولدينا الآن مخطط من أجل المضي قدمًا في اكتشاف قوانين الذكاء الاصطناعي الحكيمة وتمكين عمليات تبني الذكاء الاصطناعي الأخلاقية.

لذلك أود أن أتطرق إلى الطرق التي يمكن من خلالها تحويل مخطط وثيقة حقوق الذكاء الاصطناعي هذا إلى منزل ، كما كان. كيف سنستخدم المخطط؟ ما هي الخطوات التالية المناسبة؟ هل يمكن أن يكون هذا المخطط كافياً أم يحتاج إلى مزيد من اللحم على العظام؟

قبل أن ننتقل إلى هذه الأمور الضخمة ، أود أن أتأكد أولاً من أننا جميعًا على نفس الصفحة حول طبيعة الذكاء الاصطناعي وما تتكون منه حالة اليوم.

ضبط السجل مباشرة حول الذكاء الاصطناعي اليوم

أود أن أدلي ببيان مؤكد للغاية.

هل أنت مستعد؟

لا يوجد أي ذكاء اصطناعي واعي اليوم.

ليس لدينا هذا. لا نعرف ما إذا كان الذكاء الاصطناعي الواعي سيكون ممكنًا. لا أحد يستطيع أن يتنبأ بجدارة بما إذا كنا سنحقق ذكاءً اصطناعيًا واعيًا ، ولا ما إذا كان الذكاء الاصطناعي الواعي سينشأ بطريقة ما بأعجوبة تلقائيًا في شكل مستعر أعظم معرفي حسابي (يُشار إليه عادةً باسم التفرد ، انظر تغطيتي على الموقع) الرابط هنا).

نوع الذكاء الاصطناعي الذي أركز عليه يتكون من الذكاء الاصطناعي غير الواعي الذي لدينا اليوم. إذا أردنا التكهن بشدة حول الذكاء الاصطناعي الواعي ، يمكن أن تسير هذه المناقشة في اتجاه مختلف جذريًا. من المفترض أن يكون الذكاء الاصطناعي الواعي ذا جودة بشرية. ستحتاج إلى اعتبار أن الذكاء الاصطناعي الواعي هو المكافئ المعرفي للإنسان. أكثر من ذلك ، نظرًا لأن البعض يتوقع أن يكون لدينا ذكاء اصطناعي فائق الذكاء ، فمن المتصور أن مثل هذا الذكاء الاصطناعي يمكن أن يصبح أكثر ذكاءً من البشر (لاستكشافي للذكاء الاصطناعي الفائق كإمكانية ، انظر التغطية هنا).

أود أن أقترح بشدة أن نبقي الأمور على الأرض وأن ننظر في الذكاء الاصطناعي غير الحسابي اليوم.

ندرك أن الذكاء الاصطناعي اليوم غير قادر على "التفكير" بأي شكل من الأشكال على قدم المساواة مع التفكير البشري. عندما تتفاعل مع Alexa أو Siri ، قد تبدو قدرات المحادثة شبيهة بالقدرات البشرية ، لكن الحقيقة هي أنها حسابية وتفتقر إلى الإدراك البشري. استفاد العصر الأخير من الذكاء الاصطناعي بشكل مكثف من التعلم الآلي (ML) والتعلم العميق (DL) ، مما يعزز مطابقة الأنماط الحسابية. وقد أدى ذلك إلى ظهور أنظمة ذكاء اصطناعي تبدو وكأنها ميول شبيهة بالإنسان. وفي الوقت نفسه ، لا يوجد أي ذكاء اصطناعي اليوم يشبه الفطرة السليمة وليس لديه أي من التعجب المعرفي للتفكير البشري القوي.

كن حذرًا جدًا من تجسيد الذكاء الاصطناعي اليوم.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين يتخذون نمطًا بناءً على القرارات قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق خفية ولكنها مهمة. سيحاول التعلم الآلي أو مطابقة الأنماط الحسابية للتعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة المصممة بالذكاء الاصطناعي في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة في ML / DL من الصعب اكتشاف التحيزات المخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا الأمر أصعب مما قد يبدو. توجد فرصة قوية أنه حتى مع إجراء اختبارات مكثفة نسبيًا ، لا تزال هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

يمكنك إلى حد ما استخدام القول المأثور الشهير أو سيئ السمعة من القمامة في القمامة. الشيء هو ، هذا أقرب إلى التحيزات - التي يتم غرسها بشكل خبيث على أنها تحيزات مغمورة داخل الذكاء الاصطناعي. تصبح عملية اتخاذ القرار الخوارزمية (ADM) للذكاء الاصطناعي بشكل بديهي محملة بعدم المساواة.

غير جيد.

كل هذا له آثار ملحوظة على أخلاقيات الذكاء الاصطناعي ويوفر نافذة مفيدة للدروس المستفادة (حتى قبل أن تحدث جميع الدروس) عندما يتعلق الأمر بمحاولة تشريع الذكاء الاصطناعي.

إلى جانب استخدام مبادئ أخلاقيات الذكاء الاصطناعي بشكل عام ، هناك سؤال مماثل عما إذا كان ينبغي أن تكون لدينا قوانين تحكم الاستخدامات المختلفة للذكاء الاصطناعي. يجري تداول قوانين جديدة على المستويات الفيدرالية والولائية والمحلية التي تتعلق بنطاق وطبيعة كيفية ابتكار الذكاء الاصطناعي. إن الجهد المبذول لصياغة وسن مثل هذه القوانين هو جهد تدريجي. تُعد أخلاقيات الذكاء الاصطناعي بمثابة حل مؤقت مدروس ، على أقل تقدير ، ومن المؤكد تقريبًا إلى حد ما أن يتم دمجها بشكل مباشر في تلك القوانين الجديدة.

اعلم أن البعض يجادل بقوة بأننا لسنا بحاجة إلى قوانين جديدة تغطي الذكاء الاصطناعي وأن قوانيننا الحالية كافية. لقد حذروا من أننا إذا قمنا بسن بعض قوانين الذكاء الاصطناعي هذه ، فسوف نقتل الأوزة الذهبية من خلال تضييق الخناق على التطورات في الذكاء الاصطناعي التي تقدم مزايا مجتمعية هائلة.

في الأعمدة السابقة ، قمت بتغطية مختلف الجهود الوطنية والدولية لصياغة وسن القوانين المنظمة للذكاء الاصطناعي ، انظر الرابط هنا، فمثلا. لقد قمت أيضًا بتغطية مختلف المبادئ والمبادئ التوجيهية لأخلاقيات الذكاء الاصطناعي التي حددتها الدول المختلفة واعتمدتها ، بما في ذلك على سبيل المثال جهود الأمم المتحدة مثل مجموعة اليونسكو لأخلاقيات الذكاء الاصطناعي التي اعتمدتها ما يقرب من 200 دولة ، انظر الرابط هنا.

فيما يلي قائمة مفيدة ومفيدة لمعايير أو خصائص الذكاء الاصطناعي الأخلاقية المتعلقة بأنظمة الذكاء الاصطناعي التي قمت باستكشافها عن كثب سابقًا:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

من المفترض أن يتم استخدام مبادئ أخلاقيات الذكاء الاصطناعي هذه من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف.

يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. كما تم التأكيد سابقًا في هذا المستند ، يتطلب الأمر من القرية ابتكار واستخدام الذكاء الاصطناعي ، ومن أجل ذلك يجب أن تكون القرية بأكملها على دراية بمبادئ أخلاقيات الذكاء الاصطناعي والالتزام بها.

الآن بعد أن وضعت أساسًا مفيدًا ، نحن مستعدون للتعمق أكثر في قانون حقوق الذكاء الاصطناعي.

أربع طرق أساسية لتنفيذ ميثاق حقوق الذكاء الاصطناعي

يسلمك شخص ما مخططًا ويخبرك أن تبدأ العمل.

ماذا تفعل؟

في حالة وثيقة حقوق الذكاء الاصطناعي كمخطط ، ضع في اعتبارك هذه الخطوات الأربع الأساسية للمضي قدمًا:

  • بمثابة مدخلات نحو صياغة قوانين الذكاء الاصطناعي: استخدم المخطط للمساعدة في صياغة قوانين الذكاء الاصطناعي ، ونأمل أن يتم ذلك على أساس متسق على المستوى الفيدرالي ومستوى الولاية والمستوى المحلي (ربما يساعد الجهود القانونية الدولية للذكاء الاصطناعي أيضًا).
  • المساعدة في تبني أخلاقيات الذكاء الاصطناعي على نطاق أوسع: استخدم المخطط لتعزيز صيغ أخلاقيات الذكاء الاصطناعي (يشار إليها أحيانًا باسم "القوانين غير الملزمة" مقارنة "بالقوانين الصارمة" الملزمة قانونًا) ، والقيام بذلك لإلهام وتوجيه الشركات والأفراد والكيانات الحكومية وغيرهم من الفئات المستهدفة نحو قواعد أخلاقية أفضل وأكثر اتساقًا نتائج الذكاء الاصطناعي.
  • تشكيل أنشطة تطوير الذكاء الاصطناعي: استخدم المخطط لتحفيز إنشاء منهجيات تطوير الذكاء الاصطناعي وجوانب التدريب ، والقيام بذلك لمحاولة جعل مطوري الذكاء الاصطناعي وأولئك الذين يعملون في مجال الذكاء الاصطناعي أو يستخدمون الذكاء الاصطناعي أكثر إدراكًا لكيفية ابتكار الذكاء الاصطناعي وفقًا لمبادئ أخلاقيات الذكاء الاصطناعي المرغوبة وفي انتظار من سن قوانين الذكاء الاصطناعي الوشيكة.
  • تحفيز ظهور الذكاء الاصطناعي للمساعدة في التحكم في الذكاء الاصطناعي: استخدم المخطط لابتكار ذكاء اصطناعي سيُستخدم لمحاولة الفحص والتوازن ضد الذكاء الاصطناعي الآخر الذي قد ينحرف إلى المنطقة غير المرغوبة. هذه واحدة من وجهات النظر العيانية التي يمكننا من خلالها استخدام الشيء نفسه الذي نجده مقلقًا ظاهريًا أيضًا (ومن المفارقات ، قد يقول المرء) للمساعدة في حمايتنا.

لقد ناقشت كل خطوة من تلك الخطوات الأربع المذكورة أعلاه خلال منشورات العمود الخاصة بي.

بالنسبة لهذه المناقشة الواردة هنا ، أود التركيز على الخطوة الرابعة المدرجة ، وهي أن قانون حقوق الذكاء الاصطناعي يمكن أن يكون بمثابة حافز لظهور الذكاء الاصطناعي للمساعدة في التحكم في الذكاء الاصطناعي. هذه خطوة صادمة أو مفاجئة إلى حد ما بالنسبة للكثيرين الذين لم يدخلوا بالكامل بعد في عالم تقدم الذكاء الاصطناعي.

اسمح لي بالتفصيل.

تشبيه بسيط سيفي بالغرض. لقد اعتدنا جميعًا هذه الأيام على انتهاكات الأمن السيبراني واختراقات المتسللين. في كل يوم تقريبًا نسمع عن بعض الثغرات الأخيرة في أجهزة الكمبيوتر لدينا أو نتأثر بها والتي ستسمح للأشرار الأشرار بانتزاع بياناتنا أو وضع قطعة غادرة من برامج الفدية على أجهزة الكمبيوتر المحمولة الخاصة بنا.

تتمثل إحدى وسائل مكافحة تلك المحاولات الخسيسة في استخدام برامج متخصصة تحاول منع عمليات الاقتحام تلك. يكاد يكون من المؤكد أن لديك حزمة برامج مكافحة الفيروسات على جهاز الكمبيوتر الخاص بك في المنزل أو العمل. من المحتمل أن يكون هناك شيء مشابه على هاتفك الذكي ، سواء كنت تدرك أنه موجود هناك أم لا.

نقطتي هي أنه في بعض الأحيان تحتاج إلى محاربة النار بالنار (انظر تغطيتي لهذا ، على سبيل المثال في الرابط هنا و الرابط هنا).

في حالة الذكاء الاصطناعي الذي يهبط في عالم verboten منظمة العفو الدولية للسوء، يمكننا السعي لاستخدامها منظمة العفو الدولية من أجل الخير الذي يتعامل مع هذا الخبيث منظمة العفو الدولية للسوء. هذا بالطبع ليس علاج معجزة. كما تعلم ، هناك مناورة القط والفأر المستمرة بين الأشرار الذين يسعون لاقتحام أجهزة الكمبيوتر لدينا والتقدم المحرز في حماية الأمن السيبراني. إنها لعبة لا نهاية لها تقريبًا.

يمكننا استخدام الذكاء الاصطناعي لمحاولة التعامل مع الذكاء الاصطناعي الذي سلك طريقًا محظورًا. القيام بذلك سوف يساعد. لن تكون حلاً سحريًا بشكل خاص لأن الذكاء الاصطناعي الضار المستهدف سيتم تصميمه بشكل شبه مؤكد لتجنب أي حماية من هذا القبيل. سيكون هذا هو القط والفأر المستمر للذكاء الاصطناعي مقابل الذكاء الاصطناعي.

على أي حال ، فإن الذكاء الاصطناعي الذي نستخدمه لحماية أنفسنا سيوفر قدراً من الحماية ضد الذكاء الاصطناعي السيئ. وبالتالي ، نحتاج بلا شك إلى ابتكار ذكاء اصطناعي يمكنه حمايتنا أو حمايتنا. ويجب أن نسعى أيضًا إلى صياغة الذكاء الاصطناعي الوقائي للتكيف مع تعديل الذكاء الاصطناعي السيئ. سيكون هناك مظهر شرس للقط والفأر بسرعة البرق.

لا يستمتع الجميع بهذا التوسيع لدور الذكاء الاصطناعي.

أولئك الذين ينظرون بالفعل إلى الذكاء الاصطناعي على أنه تكتل متجانس غير متبلور ، سيصابون بالقشعريرة والكوابيس في هذه المناورة المزيفة بين الذكاء الاصطناعي والذكاء الاصطناعي. إذا حاولنا وضع النار في مواجهة النار ، فربما نقوم فقط بإشعال حريق أكبر. سيصبح الذكاء الاصطناعي شعلة هائلة ، لم نعد نتحكم فيها وسنختار استعباد البشرية أو مسحنا من الكوكب. عندما يتعلق الأمر بمناقشة الذكاء الاصطناعي باعتباره خطرًا وجوديًا ، فإننا عادة ما نقود إلى الاعتقاد بأن كل الذكاء الاصطناعي سوف يجتمع معًا ، انظر نقاشي حول هذه القضايا في الرابط هنا. كما ترون ، قيل لنا أن كل قطعة من الذكاء الاصطناعي ستمسك بإخوانها الذكاء الاصطناعي وتصبح أسرة واحدة كبيرة من أفرلورد.

هذا هو السيناريو المروع والمثير للقلق بالتأكيد للذكاء الاصطناعي الواعي باعتباره مافيا سلسة للجميع مقابل واحد وواحد للجميع.

على الرغم من أنك مرحب بك بحرية لتقديم مثل هذه التخمينات فيما يتعلق بأن هذا قد يحدث يومًا ما ، فأنا أؤكد لك أنه في الوقت الحالي ، يتكون الذكاء الاصطناعي الذي لدينا اليوم من شاحنات محملة ببرامج الذكاء الاصطناعي المتباينة المنفصلة والتي ليس لها طريقة معينة للتآمر مع بعضها البعض.

بعد قولي هذا ، أنا متأكد من أن أولئك الذين يؤمنون بشدة بنظريات مؤامرة الذكاء الاصطناعي سيصرون على أنني قلت هذا عمدًا لإخفاء الحقيقة. آها! ربما أتقاضى راتبي من منظمة العفو الدولية اليوم التي تخطط بالفعل للاستحواذ الكبير على الذكاء الاصطناعي (نعم ، سأستحم بالثروات بمجرد حكم منظمة العفو الدولية). أو ، وأنا بالتأكيد لا أؤيد هذه الزاوية الأخرى ، ربما أكون غير مدرك بشكل أعمى لكيفية قيام الذكاء الاصطناعي بالتخطيط سرًا وراء ظهورنا. أعتقد أنه سيتعين علينا الانتظار ومعرفة ما إذا كنت جزءًا من انقلاب الذكاء الاصطناعي أو منظمة العفو الدولية المظلمة (أوه ، هذا مؤلم).

بالعودة إلى الاعتبارات الأرضية ، دعنا نستكشف بإيجاز كيف يمكن استخدام الذكاء الاصطناعي المعاصر للمساعدة في تنفيذ قانون حقوق الذكاء الاصطناعي. سأشير بشكل ملائم ومختصر إلى هذا على أنه منظمة العفو الدولية جيدة.

سنستخدم الأحجار الأساسية الخمسة المنصوص عليها في وثيقة حقوق الذكاء الاصطناعي:

  • ذكاء اصطناعي جيد للترويج أنظمة آمنة وفعالة: عندما تخضع لنظام الذكاء الاصطناعي أو تستخدمه ، يحاول الذكاء الاصطناعي الجيد معرفة ما إذا كان الذكاء الاصطناعي المستخدم غير آمن أو غير فعال. عند هذا الاكتشاف ، قد ينبهك الذكاء الاصطناعي الجيد أو يتخذ إجراءات أخرى بما في ذلك حظر الذكاء الاصطناعي السيئ.
  • ذكاء اصطناعي جيد للتزويد حماية التمييز الحسابي: أثناء استخدام نظام ذكاء اصطناعي قد يحتوي على خوارزميات تمييزية ، فإن ملف منظمة العفو الدولية جيدة يحاول التأكد مما إذا كانت هناك حماية غير كافية لك ويسعى إلى تحديد ما إذا كانت التحيزات غير المبررة موجودة بالفعل في الذكاء الاصطناعي المستخدم. يمكن للذكاء الاصطناعي الجيد إبلاغك وإبلاغك تلقائيًا عن الذكاء الاصطناعي الآخر للسلطات المختلفة وفقًا لما تنص عليه قوانين الذكاء الاصطناعي والمتطلبات القانونية.
  • ذكاء اصطناعي جيد للحفظ خصوصية البيانات: يحاول هذا النوع من الذكاء الاصطناعي الجيد حمايتك من غزوات خصوصية البيانات. عندما يسعى ذكاء اصطناعي آخر إلى طلب بيانات ربما لا تكون مطلوبة حقًا منك ، فإن الذكاء الاصطناعي الجيد سيجعلك على دراية بإجراء التجاوز. يمكن للذكاء الاصطناعي الجيد أيضًا إخفاء بياناتك بطريقة تحافظ على حقوق خصوصية البيانات الخاصة بك عند تقديمها إلى الذكاء الاصطناعي الآخر. إلخ.
  • ذكاء اصطناعي جيد للتأسيس إشعار وشرح: من المحتمل أن نواجه جميعًا أنظمة ذكاء اصطناعي تفتقر بشدة إلى توفير الإخطارات المناسبة والمناسبة والتي تفشل للأسف في تقديم تفسير مناسب لأفعالها. يمكن للذكاء الاصطناعي الجيد محاولة تفسير أو استجواب الذكاء الاصطناعي الآخر ، والقيام بذلك لتحديد الإخطارات والتفسيرات التي كان ينبغي تقديمها. حتى إذا لم يكن ذلك ممكنًا في حالة معينة ، فإن الذكاء الاصطناعي الجيد سوف ينبهك على الأقل إلى إخفاقات الذكاء الاصطناعي الآخر ، وربما يبلغ السلطات المعينة بالذكاء الاصطناعي بناءً على قوانين الذكاء الاصطناعي المنصوص عليها والمتطلبات القانونية.
  • ذكاء اصطناعي جيد للعرض البدائل البشرية والاعتبارات والاحتياطات: لنفترض أنك تستخدم نظامًا للذكاء الاصطناعي ويبدو أن الذكاء الاصطناعي لا يصل إلى مستوى المهمة المطروحة. قد لا تدرك أن الأمور تزداد سوءًا ، أو قد تكون حذرًا إلى حد ما وغير متأكد مما يجب عليك فعله حيال الموقف. في مثل هذه الحالة ، سوف يقوم الذكاء الاصطناعي الجيد بفحص ما يفعله الذكاء الاصطناعي الآخر بصمت ويمكن أن يحذرك من المخاوف الحيوية بشأن ذلك الذكاء الاصطناعي. ستتم مطالبتك بعد ذلك بطلب بديل بشري للذكاء الاصطناعي (أو يمكن للذكاء الاصطناعي الجيد القيام بذلك نيابة عنك).

لفهم كيفية هذا النوع من منظمة العفو الدولية جيدة يمكن تطويره وإدراجه في الميدان ، راجع كتابي المشهور وذو التصنيف العالي للذكاء الاصطناعي (يشرفني أن أقول إنه قد تم تسجيله على أنه "العشرة الأوائل") حول ما كنت أشير إليه عمومًا بملائكة حراس الذكاء الاصطناعي ، انظر الرابط هنا.

وفي الختام

انا اعلم بماذا تفكر. إذا كان لدينا ذكاء اصطناعي جيد مصمم لحمايتنا ، افترض أن الذكاء الاصطناعي الجيد قد تعرض للتلف ليصبح ذكاءً اصطناعيًا سيئًا. يبدو أن العبارة اللاتينية الشهيرة أو سيئة السمعة وثيقة الصلة بهذا الاحتمال: حضانة Quis custodiet ipsos؟

وتنسب هذه العبارة إلى الشاعر الروماني جوفينال ويمكن العثور عليها في عمله المعنون هجاء، ويمكن ترجمتها بشكل فضفاض على أنها تعني من سيحرس أو يراقب الحراس أنفسهم. العديد من الأفلام والبرامج التلفزيونية مثل ستار تريك لقد استفادوا من هذا الخط مرارًا وتكرارًا.

هذا بالتأكيد لأنه نقطة ممتازة.

من المؤكد أن أي قوانين للذكاء الاصطناعي يتم سنها يجب أن تشمل كلاً من الذكاء الاصطناعي السيئ وحتى الذكاء الاصطناعي الجيد الذي يفسد. لهذا السبب سيكون من الضروري كتابة قوانين ذكية وشاملة للذكاء الاصطناعي. سيجد المشرعون الذين يحاولون فقط إلقاء المحامين العشوائيين على الحائط ويأملون أن يتمسك بالقوانين المتعلقة بالذكاء الاصطناعي أنهم يفقدون الهدف بشكل كبير.

لسنا بحاجة لذلك.

ليس لدينا الوقت ولا يمكننا تحمل النفقات المجتمعية للتعامل مع قوانين الذكاء الاصطناعي غير المصممة بشكل كافٍ. لقد أشرت إلى أنه للأسف في بعض الأحيان نشهد قوانين جديدة متعلقة بالذكاء الاصطناعي سيئة الصياغة ومليئة بجميع أنواع الأمراض القانونية ، انظر على سبيل المثال تحليلي الاستقصائي لقانون تدقيق تحيزات الذكاء الاصطناعي لمدينة نيويورك (NYC) في الرابط هنا.

دعونا نتأكد من أننا نستخدم بشكل مناسب مخطط ميثاق حقوق الذكاء الاصطناعي الذي لدينا الآن فيما يتعلق بالذكاء الاصطناعي. إذا تجاهلنا المخطط ، فقد خسرنا قدرتنا على تصعيد لعبتنا. إذا طبقنا المخطط بشكل خاطئ ، فاحرجنا على اغتصابنا أساسًا مفيدًا.

قال الشاعر الروماني المحترم جوفينال شيئًا آخر يمكننا الاستفادة منه في هذا الظرف: أنيما سانا في كوربور سانو.

بشكل عام ، يُترجم هذا إلى التأكيد على أنه من الحكمة أن يكون لديك عقل سليم أو سليم وجسم سليم أو سليم. هذا يسمح لنا بتحمل أي نوع من الكدح ، وفقًا لجوفينال ، وسيكون بالتأكيد الطريق الوحيد لحياة السلام أو الفضيلة.

حان الوقت لاستخدام العقل السليم والجسم السليم للتأكد من أننا نضمن للبشرية الحفاظ على حقوق الإنسان الخاصة بنا وتعزيزها بقوة في العالم الناشئ للذكاء الاصطناعي في كل مكان وفي بعض الأحيان غير المرغوب فيه. هذه نصيحة جيدة من الرومان يجب علينا الالتزام بها في اندفاع اليوم وسط عصر الذكاء الاصطناعي ومستقبل مليء بشكل حاسم بالذكاء الاصطناعي الجيد والسيئ.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- فاتورة الحقوق-بما في ذلك-و-مذهل-عن طريق-استخدام-الذكاء الاصطناعي- صراحة /