غرس التفكير القانوني في الذكاء الاصطناعي يمكن أن يحقق بذكاء محاذاة القيمة البشرية كما تقول أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي

في عمود اليوم ، سأقوم بحياكة عدد لا يحصى من الموضوعات المتعلقة بالذكاء الاصطناعي التي تبدو متباينة في نسيج واحد منسوج بشكل جيد.

هل أنت مستعد؟

تخيل أنك تستخدم تطبيقًا مدعومًا بالذكاء الاصطناعي يساعدك أثناء قيامك ببعض المهام المهمة. ربما تكون المسألة مالية أو قد تكون متعلقة بالصحة. الجوهر هو أنك تعتمد على الذكاء الاصطناعي للقيام بالشيء الصحيح والأداء بطريقة آمنة وسليمة مفترضة.

لنفترض أن الذكاء الاصطناعي ينحرف إلى منطقة غير أخلاقية.

قد لا تدرك أن الذكاء الاصطناعي يفعل ذلك.

على سبيل المثال ، يمكن أن يعتمد الذكاء الاصطناعي على عوامل تمييزية خفية محتملة مثل العرق أو الجنس ، على الرغم من أنه قد لا يكون لديك أي وسيلة قابلة للتطبيق لتمييز الاستخدام غير المرغوب فيه. ها أنت ، بمفردك ، تحصل على النهاية القصيرة للعصا عبر ذكاء اصطناعي تم تصميمه منذ البداية بطريقة إشكالية أو تمكّن من التوجه نحو الخطر الأخلاقي المشبوه والحدود (سأقول المزيد عن هذا في لحظة).

ما الذي يمكنك فعله أو ما الذي يمكن فعله بشأن الذكاء الاصطناعي الذي يختار السير في مسار غير أخلاقي؟

إلى جانب محاولة إنشاء الذكاء الاصطناعي مسبقًا بحيث لا يقوم بهذا النوع من الإجراءات الخبيثة ، فقد سبق لي أن أوضحت أيضًا أن هناك اهتمامًا متزايدًا بتضمين فحص أخلاقيات الذكاء الاصطناعي عنصر في المستنقع المزدهر في الغرب المتوحش ، أي شيء يذهب أنظمة الذكاء الاصطناعي التي يتم طرحها في السوق. الفكرة هي أنه لمحاولة منع تطبيق مشبع بالذكاء الاصطناعي من الانتقال إلى مجال من الأبعاد الأخلاقية ، يمكننا استخدام ذكاء اصطناعي إضافي لإجراء فحص وتوازن. قد يكون هذا الذكاء الاصطناعي الإضافي خارج تطبيق AI المستهدف أو يمكن أن يكون مكونًا مضمنًا أو مزروعًا مباشرة في الذكاء الاصطناعي الذي نريد إجراء بعض التدقيق عليه.

كما ذكرت من قبل ، انظر الرابط هنا: "هناك اتجاه ناشئ مؤخرًا يتمثل في محاولة بناء حواجز حماية أخلاقية في الذكاء الاصطناعي والتي ستلتقطها بينما يبدأ باقي نظام الذكاء الاصطناعي في تجاوز الحدود الأخلاقية المحددة مسبقًا. بمعنى ما ، الهدف هو استخدام الذكاء الاصطناعي نفسه لمنع نفسه من الانحراف أخلاقياً. يمكنك القول إننا نهدف إلى جعل الذكاء الاصطناعي يشفي نفسه "(لانس إليوت ،" صياغة الذكاء الاصطناعي الأخلاقي الذي يراقب الذكاء الاصطناعي غير الأخلاقي ويحاول ردع الذكاء الاصطناعي السيئ من التصرف "، الشرق الأوسط، 28 مارس 2022).

قد تجد أيضًا اهتمامًا ذا صلة بكتابي روبوتات الوصي بالذكاء الاصطناعي، يُشار إليها أحيانًا باسم الملائكة الحارس ، والتي تغطي الأسس التقنية لهذا المدقق المزدوج المتطور داخل الذكاء الاصطناعي ، انظر الرابط هنا.

خلاصة القول هي أن لحم الخنزير المقدد الخاص بك قد يتم حفظه لحسن الحظ عن طريق استخدام عنصر قياس أخلاقيات التحقق المزدوج من الذكاء الاصطناعي والذي تم ابتكاره وزرعه في تطبيق AI الذي تستخدمه. ولكن هل سيكون ذلك كافيًا لولي الأمر للتأكد حقًا من أن الذكاء الاصطناعي لا يثقل كاهلك تمامًا ويغامر في الدخول في أرضية ضارة؟

كما ترى ، يمكن لتطبيق AI أن يعمل ظاهريًا غير شرعي الأفعال.

إن امتلاك ذكاء اصطناعي يدخل منطقة رمادية مما نعتبره سلوكيات أخلاقية أو غير أخلاقية أمرًا واحدًا. السلوك المقلق بنفس القدر والقلق المحتمل المتفاقم يستلزم الذكاء الاصطناعي الذي يقفز سمكة القرش كما كان وينزل في الظلام الرديء للأعمال غير القانونية الصريحة.

الذكاء الاصطناعي غير القانوني سيء. إن السماح للذكاء الاصطناعي غير القانوني بالذهاب دون رقابة هو أمر سيء. يشعر بعض الباحثين القانونيين بقلق صريح من أن ظهور الذكاء الاصطناعي وانتشاره سيقوضان تدريجيًا وبشكل مرعب ما يشبه سلطة القانون، راجع تحليلي في الرابط هنا.

انتظر لحظة ، ربما تقول.

قد تميل إلى التفكير في أن مطوري الذكاء الاصطناعي سيفعلون ذلك أبدا برنامج الذكاء الاصطناعي الخاص بهم ليتعارض مع القانون. لا يمكن تصوره. فقط الأشرار الأشرار هم من يفعلون ذلك (وبالمناسبة ، ضع في اعتبارك أن هناك أولئك الذين يبتكرون ويستخدمون الذكاء الاصطناعي عن قصد لأغراض شريرة ، وهو مجال اهتمام متزايد للمجرمين وغيرهم ممن يرغبون في استخدام الذكاء الاصطناعي في أنشطة شائنة).

عذرًا ، ولكن من قبيل التمني أن نفترض أن جميع مطوري الذكاء الاصطناعي غير الأشرار سوف يتأكدون بشدة من أن الذكاء الاصطناعي الخاص بهم ملتزم تمامًا بالقانون. يمكن أن يكون الذكاء الاصطناعي يتكيف ويتجول في نشاط غير قانوني. بالطبع ، هناك أيضًا احتمال أن مطوري الذكاء الاصطناعي إما أرادوا أن يتصرف الذكاء الاصطناعي بشكل غير قانوني أو أنهم لم يكونوا على دراية بما يشكل أفعالًا غير قانونية مقابل أفعال قانونية عندما كانوا يصنعون الذكاء الاصطناعي (نعم ، هذا ممكن تمامًا ، أي أن يمكن أن يجهل فريق الذكاء الاصطناعي المتجه إلى الأسفل والمزود بالتكنولوجيا الكاملة الخدع القانونية للذكاء الاصطناعي الخاص بهم ، وهو أمر غير مبرر ومع ذلك يحدث بوتيرة تنذر بالخطر).

ما الذى يمكن فعله حيال ذلك؟

مرة أخرى ، إلى جانب محاولة التأكد من أن الذكاء الاصطناعي خارج البوابة صارم وقانوني ، فإن الطريقة الإضافية لاكتساب القوة تتضمن تضمين أو زرع مكون AI يقوم بفحص مزدوج قانوني لبقية تطبيق AI. يجلس هذا الذكاء الاصطناعي الإضافي بهدوء وغالبًا ما يكون غير معلن ، وهو يراقب بقية الذكاء الاصطناعي لمحاولة تمييز ما إذا كان الذكاء الاصطناعي سيتجاوز حدود القيود القانونية أو التنظيمية المفروضة.

لدينا الآن نوعان من الفحص المزدوج للذكاء الاصطناعي والتي من المحتمل أن تكون مضمنة في تطبيق AI:

  • المدقق المزدوج لأخلاقيات الذكاء الاصطناعي: في الوقت الفعلي ، يقوم هذا المكون أو الوظيفة الإضافية للذكاء الاصطناعي بتقييم بقية الذكاء الاصطناعي للسلوكيات الأخلاقية وغير الأخلاقية التي يعرضها الذكاء الاصطناعي
  • المدقق المزدوج القانوني لمنظمة العفو الدولية: في الوقت الفعلي ، يقوم هذا المكون أو الوظيفة الإضافية للذكاء الاصطناعي بتقييم بقية الذكاء الاصطناعي للتأكد من البقاء ضمن أحجار الأساس القانونية والقبض على الأنشطة غير القانونية الناشئة من قبل الذكاء الاصطناعي

للتوضيح ، هذه مفاهيم جديدة نسبيًا وعلى هذا النحو ، قد يكون الذكاء الاصطناعي الذي تستخدمه اليوم في أي من هذه الظروف الحالية:

  • ذكاء اصطناعي لا يحتوي على أداة تحقق مزدوجة على الإطلاق
  • ذكاء اصطناعي يحتوي على مدقق مزدوج لأخلاقيات الذكاء الاصطناعي ولكن لا يوجد مدقق مزدوج آخر
  • ذكاء اصطناعي يحتوي على مدقق مزدوج للذكاء الاصطناعي ولكن لا يحتوي على مدقق مزدوج آخر
  • يحتوي الذكاء الاصطناعي على مدقق مزدوج لأخلاقيات الذكاء الاصطناعي ومدقق مزدوج قانوني للذكاء الاصطناعي
  • أخرى

هناك بعض الجوانب الصعبة بشكل ملحوظ لوجود كل من المدقق المزدوج لأخلاقيات الذكاء الاصطناعي والمدقق المزدوج للذكاء الاصطناعي الذي يعمل جنبًا إلى جنب في أحد تطبيقات الذكاء الاصطناعي كأخ وأخت قريبين. هذا نوع من الازدواجية يمكن أن يكون تنسيقه أصعب مما قد تفترض (أعتقد أننا جميعًا نعلم أن الإخوة والأخوات يمكن أن يكون لديهم أقوى الروابط ، على الرغم من أنه يمكنهم أيضًا القتال مثل الدواجن من وقت لآخر ومعارضتهم بشدة الآراء).

لقد ناقشت بإسهاب هذا النوع من الشاقة ثنائية: تحدث ازدواجية مهملة في الذكاء الاصطناعي من أجل الصالح الاجتماعي تنطوي على عدم شمول كل من دور الوكالة الأخلاقية المصطنعة والتفكير القانوني المصطنع في أنظمة الذكاء الاصطناعي المتقدمة. تميل الجهود التي يبذلها باحثو الذكاء الاصطناعي ومطورو الذكاء الاصطناعي إلى التركيز على كيفية صياغة عوامل أخلاقية مصطنعة وتضمينها لتوجيه عملية صنع القرار الأخلاقي عندما يعمل نظام الذكاء الاصطناعي في هذا المجال ولكن لم يركز أيضًا على استخدام قدرات التفكير القانوني الاصطناعي. ، وهو أمر ضروري أيضًا لتحقيق نتائج أخلاقية وقانونية قوية "(لانس إليوت ،" الثنائية المهملة للوكالة الأخلاقية الاصطناعية والاستدلال القانوني الاصطناعي في الذكاء الاصطناعي من أجل الصالح الاجتماعي "، المؤتمر السنوي لـ CRCS بجامعة هارفارد لعام 2020 ، مركز هارفارد للبحوث وجمعية الحساب)

إذا كنت ترغب في التفكير في سبب وجود توتر بين المدقق المزدوج لأخلاقيات الذكاء الاصطناعي والمدقق المزدوج القانوني للذكاء الاصطناعي ، فقد تجد هذا الاقتباس الملحوظ للجدارة المفاهيمية المنحرفة للعقل: "قد يسمح القانون بعمل معين ، حتى لو كان هذا العمل غير أخلاقي. وقد يحظر القانون فعلًا ، على الرغم من أن هذا الفعل مسموح به أخلاقياً ، أو حتى مطلوبًا أخلاقياً "(Shelly Kagan ، حدود الأخلاق، <span class=”notranslate”>1985</span>).

دعنا نحول تركيزنا قليلاً ونرى كيف تتوافق هذه المدققات المزدوجة مع موضوع AI آخر يخضع للتدقيق الشديد ، وهو منظمة العفو الدولية المسؤولة أو اعتبار منسق لمواءمة القيم الإنسانية والذكاء الاصطناعي.

الفكرة العامة هي أننا نريد الذكاء الاصطناعي الذي يلتزم بالقيم الإنسانية المناسبة والمرغوبة. يشير البعض إلى هذا على أنه منظمة العفو الدولية المسؤولة. يناقش آخرون بالمثل منظمة العفو الدولية المسؤولة, منظمة العفو الدولية جديرة بالثقةو محاذاة AI، وكلها تتطرق إلى نفس مبدأ حجر الأساس. لمناقشتي حول هذه القضايا الهامة ، انظر الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

كيف يمكننا جعل الذكاء الاصطناعي يتماشى مع القيم الإنسانية؟

كما اقترحنا سابقًا ، نأمل أن يكون مطورو الذكاء الاصطناعي على دراية بتطوير الذكاء الاصطناعي الذي يحقق الالتزام المسؤول بالذكاء الاصطناعي. للأسف ، قد لا يفعلون ذلك ، حسب الأسباب الموضحة سابقًا. بالإضافة إلى ذلك ، قد يحاولون القيام بذلك ، ومع ذلك ، ينتهي الذكاء الاصطناعي بالتكيف الذاتي خارج نطاق السلوكيات الأخلاقية البارز أو ربما في المياه غير القانونية.

حسنًا ، نحتاج بعد ذلك إلى التفكير في أداة التحقق المزدوجة سهلة الاستخدام كوسيلة لدعم هذه المخاطر والتعرضات. يمكن أن يساعد استخدام المدقق المزدوج لأخلاقيات الذكاء الاصطناعي المصمم جيدًا في التوفيق بين الذكاء الاصطناعي والقيم الإنسانية. وبالمثل ، فإن استخدام المدقق المزدوج القانوني للذكاء الاصطناعي المصمم جيدًا يمكن أن يساعد بشكل كبير في مواءمة الذكاء الاصطناعي مع القيم الإنسانية.

وبالتالي ، فإن الوسيلة الحاسمة وغير المعروفة للسعي للوصول إلى الذكاء الاصطناعي المسؤول ، والذكاء الاصطناعي الجدير بالثقة ، والذكاء الاصطناعي المسؤول ، والذكاء الاصطناعي ، وما إلى ذلك ، ستشمل استخدام أدوات التحقق المزدوجة للذكاء الاصطناعي مثل المدقق المزدوج لأخلاقيات الذكاء الاصطناعي و مدقق مزدوج للذكاء الاصطناعي من شأنه أن يعمل بلا كلل كتحقق مزدوج للذكاء الاصطناعي الذي يتم تضمينه فيه.

في هذه المناقشة الواردة هنا ، أود الخوض في مزيد من التفاصيل قليلاً حول طبيعة وبنيات أداة التحقق المزدوجة القانونية للذكاء الاصطناعي التي قد تكون مضمنة في الذكاء الاصطناعي. للقيام بذلك ، قد يكون من المفيد أن تشارك معك بعض الخلفية الإضافية حول الموضوع العام لـ الذكاء الاصطناعي والقانون.

للحصول على فحص لا معنى له لكيفية اختلاط الذكاء الاصطناعي والقانون مع بعضهما البعض ، راجع نقاشي في الرابط هنا. في نظرتي المميزة إلى الذكاء الاصطناعي والقانون اقتران ، أقدم هذا المفهوم المباشر لطريقتين رئيسيتين للربط بين الذكاء الاصطناعي والقانون:

  • (1) القانون المطبق على الذكاء الاصطناعي: صياغة وسن وإنفاذ القوانين المطبقة على تنظيم أو إدارة الذكاء الاصطناعي في مجتمعنا
  • (2) تطبيق AI-application-to-Law: تم ابتكار تكنولوجيا الذكاء الاصطناعي وتطبيقها في القانون ، بما في ذلك الاستدلال القانوني المستند إلى الذكاء الاصطناعي (AILR) المُدمج في تطبيقات LegalTech ذات التقنية العالية لأداء مهام المحاماة بشكل مستقل أو شبه مستقل

تتمثل أول وجهة نظر مدرجة في النظر في الكيفية التي ستحكم بها القوانين الحالية والجديدة الذكاء الاصطناعي. المنظور الثاني المدرج يتعلق بتطبيق الذكاء الاصطناعي على القانون.

تتضمن هذه الفئة الأخيرة عادةً استخدام الاستدلال القانوني المستند إلى الذكاء الاصطناعي (AILR) في العديد من الأدوات عبر الإنترنت التي يستخدمها المحامون. على سبيل المثال ، قد يكون الذكاء الاصطناعي جزءًا من حزمة إدارة دورة حياة العقد (CLM) التي تساعد المحامين من خلال تحديد اللغة التعاقدية التي ستكون مفيدة في صياغة العقود الجديدة أو قد تكتشف العقود التي تحتوي على لغة غير متوقعة قانونيًا تسمح بالحوادث المؤسفة أو الثغرات القانونية (لإلقاء نظرة على ما يسمى "برائحة القانون" التي يمكن أن يميزها الذكاء الاصطناعي ، انظر الرابط هنا).

سنطبق حتمًا الذكاء الاصطناعي على القانون الذي يصبح متاحًا للاستخدام من قبل عامة الناس ولا يتطلب وجود محامٍ في الحلقة. في الوقت الحالي ، ونتيجة للقيود المختلفة ، بما في ذلك UPL (التطبيق غير المصرح به للقانون) ، فإن إتاحة تطبيقات المشورة القانونية المستندة إلى الذكاء الاصطناعي هي مسألة شائكة ومثيرة للجدل ، انظر نقاشي على الرابط هنا.

لقد طرحت هذه المقدمة حول الذكاء الاصطناعي والقانون للإشارة إلى أن استخدامًا مفيدًا آخر للذكاء الاصطناعي المطبق على القانون سيكون إنشاء أداة تحقق مزدوجة للذكاء الاصطناعي.

نعم ، نفس النوع من البراعة التكنولوجية المتضمنة في تطبيق الذكاء الاصطناعي على القانون يمكن أن يكون بمثابة واجب مزدوج باستخدام الذكاء الاصطناعي ليكون بمثابة مدقق مزدوج قانوني مدمج أو مزروع. المدقق المزدوج لـ AI Legal هو مكون يجب أن يكون ضليعًا في الجوانب القانونية. عندما يقوم باقي تطبيق AI بتنفيذ إجراءات مختلفة ، يقوم المدقق المزدوج لـ AI Legal بقياس ما إذا كان تطبيق AI يقوم بذلك بشكل قانوني وضمن قيود قانونية.

لا يحتاج مكون المدقق المزدوج للذكاء الاصطناعي بالضرورة إلى تغطية النطاق الكامل لكل ما يمكن معرفته عن القانون. اعتمادًا على طبيعة تطبيق AI فيما يتعلق بالغرض والإجراءات الخاصة بالذكاء الاصطناعي بشكل عام ، يمكن أن يكون المدقق المزدوج للذكاء الاصطناعي أضيق كثيرًا من حيث الخبرة القانونية التي يحتوي عليها.

لقد حددت إطارًا مفيدًا لعرض كيفية نطاق الذكاء الاصطناعي في المجال القانوني عبر سلسلة من القدرات المستقلة ، والمعروفة باسم مستويات الاستقلالية (LoA). للحصول على نظرة عامة انظر بلدي الشرق الأوسط نشر العمود بتاريخ 21 تشرين الثاني (نوفمبر) 2022 ، "القضية الشاملة التي لا معنى لها بشأن سبب حاجة المحامين إلى معرفتها حول الذكاء الاصطناعي والقانون" في الرابط هنا، وللحصول على وصف تقني مفصل ، راجع مقالتي البحثية المتعمقة في مجلة القانون الحسابي معهد ماساتشوستس للتكنولوجيا 7 ديسمبر 2021 ، انظر الرابط هنا.

يوضح الإطار خمسة مستويات للذكاء الاصطناعي كما هو مستخدم في المساعي القانونية:

  • المستوى 0: لا أتمتة للعمل القانوني القائم على الذكاء الاصطناعي
  • المستوى 1: أتمتة المساعدة البسيطة للأعمال القانونية القائمة على الذكاء الاصطناعي
  • المستوى 2: أتمتة المساعدة المتقدمة للأعمال القانونية القائمة على الذكاء الاصطناعي
  • المستوى 3: أتمتة شبه مستقلة للأعمال القانونية القائمة على الذكاء الاصطناعي
  • المستوى 4: المجال المستقل للعمل القانوني القائم على الذكاء الاصطناعي
  • المستوى 5: مستقل تمامًا للعمل القانوني القائم على الذكاء الاصطناعي

سوف أصفها بإيجاز هنا.

يعتبر المستوى 0 هو مستوى عدم وجود أتمتة. يتم تنفيذ الاستدلال القانوني والمهام القانونية من خلال الأساليب اليدوية وتحدث بشكل أساسي من خلال الأساليب الورقية.

يتكون المستوى 1 من أتمتة المساعدة البسيطة للاستدلال القانوني للذكاء الاصطناعي. تتضمن أمثلة هذه الفئة استخدام معالجة النصوص اليومية المستندة إلى الكمبيوتر ، واستخدام جداول البيانات اليومية المستندة إلى الكمبيوتر ، والوصول إلى المستندات القانونية عبر الإنترنت التي يتم تخزينها واستردادها إلكترونيًا ، وما إلى ذلك.

يتكون المستوى 2 من أتمتة المساعدة المتقدمة للاستدلال القانوني للذكاء الاصطناعي. تتضمن أمثلة هذه الفئة استخدام معالجة اللغة الطبيعية البدائية على غرار الاستعلام (NLP) ، والعناصر المبسطة لتعلم الآلة (ML) ، وأدوات التحليل الإحصائي لتنبؤات القضايا القانونية ، وما إلى ذلك.

يتكون المستوى 3 من أتمتة شبه مستقلة للاستدلال القانوني للذكاء الاصطناعي. تتضمن أمثلة هذه الفئة استخدام الأنظمة القائمة على المعرفة المتقدمة (KBS) للتفكير القانوني ، واستخدام التعلم الآلي والتعلم العميق (ML / DL) للاستدلال القانوني ، ومعالجة اللغات الطبيعية المتقدمة ، وما إلى ذلك.

يتكون المستوى 4 من أنظمة قائمة على الكمبيوتر مستقلة المجال للاستدلال القانوني للذكاء الاصطناعي. يعيد هذا المستوى استخدام الفكرة المفاهيمية لمجالات التصميم التشغيلي (ODD) ، كما هو مستخدم للسيارات ذاتية القيادة ، ولكن كما هو مطبق في المجال القانوني. يمكن تصنيف المجالات القانونية حسب المجالات الوظيفية ، مثل قانون الأسرة ، وقانون العقارات ، وقانون الإفلاس ، وقانون البيئة ، وقانون الضرائب ، وما إلى ذلك.

يتكون المستوى 5 من أنظمة حاسوبية مستقلة تمامًا للتفكير القانوني للذكاء الاصطناعي. بمعنى ما ، المستوى 5 هو مجموعة شاملة من المستوى 4 من حيث شمول جميع المجالات القانونية الممكنة. يرجى إدراك أن هذه مهمة صعبة للغاية.

يمكنك تصور هذه المستويات من الاستقلالية على قدم المساواة مع الاستخدامات المشابهة عند مناقشة السيارات ذاتية القيادة والمركبات ذاتية القيادة (استنادًا أيضًا إلى معيار SAE الرسمي ، راجع تغطيتي على الرابط هنا). ليس لدينا حتى الآن سيارات ذاتية القيادة من المستوى الخامس وفقًا لمعايير SAE. نحن نتجه نحو سيارات SAE المستوى 5 ذاتية القيادة. تقع معظم السيارات التقليدية في SAE المستوى 4 ، بينما تتجه بعض السيارات الأحدث إلى المستوى 2 من SAE.

في المجال القانوني ، ليس لدينا المستوى 5 AILR. نحن نتطرق إلى مستوى 4 ، وإن كان في محركات أقراص ضيقة للغاية. يبدأ المستوى 3 في رؤية ضوء النهار ، في حين أن الدعامة الأساسية لـ AILR اليوم تقع بشكل أساسي في المستوى 2.

اقترح مقال بحثي حديث حول الذكاء الاصطناعي كما هو مطبق على القانون تصنيفًا يُعرف باسم قانون يخبر القانون. يذكر الباحث ما يلي: "أحد الأهداف الأساسية لـ قانون يخبر القانون جدول الأعمال هو تعليم الذكاء الاصطناعي اتباع روح القانون "(John J. Nay ،" Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans "، مجلة نورث وسترن للتكنولوجيا والملكية الفكرية، المجلد 20 ، قادم). هناك بعض الاعتبارات الأساسية التي قانون يخبر القانون يتم إحضار المانترا وسأرشدك عبر العديد من تلك المبادئ الأساسية.

قبل الخوض في الموضوع ، أود أولاً وضع بعض الأسس الأساسية حول الذكاء الاصطناعي وخاصةً أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي ، وذلك للتأكد من أن المناقشة ستكون منطقية من حيث السياق.

الوعي المتزايد بالذكاء الاصطناعي الأخلاقي وكذلك قانون الذكاء الاصطناعي

كان يُنظر إلى العصر الحديث للذكاء الاصطناعي في البداية على أنه كذلك منظمة العفو الدولية من أجل الخير، مما يعني أنه يمكننا استخدام الذكاء الاصطناعي لتحسين البشرية. في أعقاب منظمة العفو الدولية من أجل الخير جاء الإدراك بأننا منغمسون أيضًا في ذلك منظمة العفو الدولية للسوء. وهذا يشمل الذكاء الاصطناعي الذي تم ابتكاره أو تغييره ذاتيًا إلى كونه تمييزيًا واتخاذ خيارات حسابية تضفي تحيزات لا داعي لها. في بعض الأحيان يتم بناء الذكاء الاصطناعي بهذه الطريقة ، بينما في حالات أخرى ينحرف إلى تلك المنطقة غير المرغوبة.

أريد أن أتأكد تمامًا من أننا على نفس الصفحة حول طبيعة الذكاء الاصطناعي اليوم.

لا يوجد أي ذكاء اصطناعي واعي اليوم. ليس لدينا هذا. لا نعرف ما إذا كان الذكاء الاصطناعي الواعي سيكون ممكنًا. لا أحد يستطيع أن يتنبأ بجدارة بما إذا كنا سنحقق ذكاءً اصطناعيًا واعيًا ، ولا ما إذا كان الذكاء الاصطناعي الواعي سينشأ بطريقة ما بأعجوبة تلقائيًا في شكل مستعر أعظم معرفي حسابي (يشار إليه عادةً باسم التفرد ، انظر تغطيتي في الرابط هنا).

نوع الذكاء الاصطناعي الذي أركز عليه يتكون من الذكاء الاصطناعي غير الواعي الذي لدينا اليوم. إذا أردنا التكهن بشدة حول الذكاء الاصطناعي الواعي ، يمكن أن تسير هذه المناقشة في اتجاه مختلف جذريًا. من المفترض أن يكون الذكاء الاصطناعي الواعي ذا جودة بشرية. ستحتاج إلى اعتبار أن الذكاء الاصطناعي الواعي هو المكافئ المعرفي للإنسان. أكثر من ذلك ، نظرًا لأن البعض يتوقع أن يكون لدينا ذكاء اصطناعي فائق الذكاء ، فمن المتصور أن مثل هذا الذكاء الاصطناعي يمكن أن يصبح أكثر ذكاءً من البشر (لاستكشافي للذكاء الاصطناعي الفائق كإمكانية ، انظر التغطية هنا).

أود أن أقترح بشدة أن نبقي الأمور على الأرض وأن ننظر في الذكاء الاصطناعي غير الحسابي اليوم.

ندرك أن الذكاء الاصطناعي اليوم غير قادر على "التفكير" بأي شكل من الأشكال على قدم المساواة مع التفكير البشري. عندما تتفاعل مع Alexa أو Siri ، قد تبدو قدرات المحادثة شبيهة بالقدرات البشرية ، لكن الحقيقة هي أنها حسابية وتفتقر إلى الإدراك البشري. استفاد العصر الأخير من الذكاء الاصطناعي بشكل مكثف من التعلم الآلي (ML) والتعلم العميق (DL) ، مما يعزز مطابقة الأنماط الحسابية. وقد أدى ذلك إلى ظهور أنظمة ذكاء اصطناعي تبدو وكأنها ميول شبيهة بالإنسان. وفي الوقت نفسه ، لا يوجد أي ذكاء اصطناعي اليوم يشبه الفطرة السليمة وليس لديه أي من التعجب المعرفي للتفكير البشري القوي.

كن حذرًا جدًا من تجسيد الذكاء الاصطناعي اليوم.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين يتخذون نمطًا بناءً على القرارات قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق خفية ولكنها مهمة. سيحاول التعلم الآلي أو مطابقة الأنماط الحسابية للتعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة المصممة بالذكاء الاصطناعي في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة في ML / DL من الصعب اكتشاف التحيزات المخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا الأمر أصعب مما قد يبدو. توجد فرصة قوية أنه حتى مع إجراء اختبارات مكثفة نسبيًا ، لا تزال هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

يمكنك إلى حد ما استخدام القول المأثور الشهير أو سيئ السمعة من القمامة في القمامة. الشيء هو ، هذا أقرب إلى التحيزات - التي يتم غرسها بشكل خبيث على أنها تحيزات مغمورة داخل الذكاء الاصطناعي. تصبح عملية اتخاذ القرار الخوارزمية (ADM) للذكاء الاصطناعي بشكل بديهي محملة بعدم المساواة.

غير جيد.

كل هذا له آثار ملحوظة على أخلاقيات الذكاء الاصطناعي ويوفر نافذة مفيدة للدروس المستفادة (حتى قبل أن تحدث جميع الدروس) عندما يتعلق الأمر بمحاولة تشريع الذكاء الاصطناعي.

إلى جانب استخدام مبادئ أخلاقيات الذكاء الاصطناعي بشكل عام ، هناك سؤال مماثل عما إذا كان ينبغي أن تكون لدينا قوانين تحكم الاستخدامات المختلفة للذكاء الاصطناعي. يجري تداول قوانين جديدة على المستويات الفيدرالية والولائية والمحلية التي تتعلق بنطاق وطبيعة كيفية ابتكار الذكاء الاصطناعي. إن الجهد المبذول لصياغة وسن مثل هذه القوانين هو جهد تدريجي. تُعد أخلاقيات الذكاء الاصطناعي بمثابة حل مؤقت مدروس ، على أقل تقدير ، ومن المؤكد تقريبًا إلى حد ما أن يتم دمجها بشكل مباشر في تلك القوانين الجديدة.

اعلم أن البعض يجادل بقوة بأننا لسنا بحاجة إلى قوانين جديدة تغطي الذكاء الاصطناعي وأن قوانيننا الحالية كافية. لقد حذروا من أننا إذا قمنا بسن بعض قوانين الذكاء الاصطناعي هذه ، فسوف نقتل الأوزة الذهبية من خلال تضييق الخناق على التطورات في الذكاء الاصطناعي التي تقدم مزايا مجتمعية هائلة.

في الأعمدة السابقة ، قمت بتغطية مختلف الجهود الوطنية والدولية لصياغة وسن القوانين المنظمة للذكاء الاصطناعي ، انظر الرابط هنا، فمثلا. لقد قمت أيضًا بتغطية مختلف المبادئ والمبادئ التوجيهية لأخلاقيات الذكاء الاصطناعي التي حددتها الدول المختلفة واعتمدتها ، بما في ذلك على سبيل المثال جهود الأمم المتحدة مثل مجموعة اليونسكو لأخلاقيات الذكاء الاصطناعي التي اعتمدتها ما يقرب من 200 دولة ، انظر الرابط هنا.

فيما يلي قائمة مفيدة ومفيدة لمعايير أو خصائص الذكاء الاصطناعي الأخلاقية المتعلقة بأنظمة الذكاء الاصطناعي التي قمت باستكشافها عن كثب سابقًا:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

من المفترض أن يتم استخدام مبادئ أخلاقيات الذكاء الاصطناعي هذه من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يعملون في مجال صيانة أنظمة الذكاء الاصطناعي ويقومون بها في نهاية المطاف.

يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. كما تم التأكيد سابقًا في هذا المستند ، يتطلب الأمر من القرية ابتكار واستخدام الذكاء الاصطناعي ، ومن أجل ذلك يجب أن تكون القرية بأكملها على دراية بمبادئ أخلاقيات الذكاء الاصطناعي والالتزام بها.

لقد قمت مؤخرًا بفحص ملف منظمة العفو الدولية شرعة الحقوق وهو العنوان الرسمي للوثيقة الرسمية للحكومة الأمريكية بعنوان "مخطط قانون حقوق الذكاء الاصطناعي: جعل الأنظمة المؤتمتة تعمل لصالح الشعب الأمريكي" التي كانت نتيجة جهد استمر لمدة عام من قبل مكتب سياسة العلوم والتكنولوجيا (OSTP ). OSTP هو كيان فيدرالي يعمل على تقديم المشورة للرئيس الأمريكي والمكتب التنفيذي الأمريكي بشأن مختلف الجوانب التكنولوجية والعلمية والهندسية ذات الأهمية الوطنية. وبهذا المعنى ، يمكنك القول إن وثيقة حقوق الذكاء الاصطناعي هذه هي وثيقة وافق عليها البيت الأبيض الأمريكي الحالي وأيدها.

في شرعة حقوق الذكاء الاصطناعي ، هناك خمس فئات أساسية:

  • أنظمة آمنة وفعالة
  • حماية التمييز الحسابي
  • خصوصية البيانات
  • إشعار وشرح
  • البدائل البشرية والاعتبار والرجوع

لقد راجعت بعناية هذه المبادئ ، انظر الرابط هنا.

الآن بعد أن وضعت أساسًا مفيدًا بشأن موضوعات أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي ذات الصلة ، نحن على استعداد للقفز إلى الموضوع المهم المتمثل في المدققين المزدوجين القانونيين للذكاء الاصطناعي وعالم قانون يخبر القانون.

أداة التحقق المزدوجة القانونية للذكاء الاصطناعي مضمنة في الذكاء الاصطناعي لمحاذاة القيمة البشرية

في بعض الأحيان أشير إلى منظمة العفو الدولية القانونية المزدوجة لعبة الداما عبر اختصار AI-LDC. هذا أمر مزعج بعض الشيء بالنسبة لأولئك الذين ليسوا على دراية بالاختصار. على هذا النحو ، لن أستخدم هذا الاختصار المحدد في هذه المناقشة ولكني أردت أن أذكرها لك كتنبيه.

لفك بعض تعقيدات أدوات التحقق المزدوجة القانونية للذكاء الاصطناعي ، دعنا نتناول هذه النقاط الرئيسية:

  • استخدام أداة التحقق المزدوجة من AI Legal كآلية لمحاذاة القيم البشرية للذكاء الاصطناعي
  • سيتطلب الذكاء الاصطناعي الأكثر اتساعًا في المقابل مدققين مزدوجين قانونيين للذكاء الاصطناعي أكثر قوة
  • يقوم المدققون القانونيون لمنظمة العفو الدولية بسن القانون ولا سيما أنهم لا يضعون القانون (على الأرجح)
  • توازن دقيق بين التجسيد القانوني للذكاء الاصطناعي للقانون كقواعد مقابل معايير
  • طلب إثبات البودينغ عندما يتعلق الأمر بامتثال منظمة العفو الدولية للقانون

نظرًا لقيود المساحة ، سأغطي هذه النقاط الخمس فقط في الوقت الحالي ، على الرغم من أنه من فضلك ترقب لمزيد من التغطية في عمودي الذي يغطي اعتبارات إضافية وجديرة بالملاحظة حول هذه الأمور سريعة التطور والمضي قدمًا.

الآن ، اربط حزام الأمان واستعد لرحلة مليئة بالحيوية.

  • استخدام أداة التحقق المزدوجة من AI Legal كآلية لمحاذاة القيم البشرية للذكاء الاصطناعي

هناك طرق عديدة لمحاولة تحقيق توافق متناغم بين الذكاء الاصطناعي والقيم الإنسانية.

كما ذكرنا سابقًا ، يمكننا إنتاج ونشر مبادئ أخلاقيات الذكاء الاصطناعي والسعي لجعل مطوري الذكاء الاصطناعي وأولئك الذين يعملون في مجال الذكاء الاصطناعي ويشغّلونه يلتزمون بهذه المبادئ. لسوء الحظ ، هذا وحده لن يفي بالغرض. لديك بعض الأجهزة التي لن تفهم الرسالة حتمًا. لديك بعض المخترعين الذين يتباهون بالذكاء الاصطناعي الأخلاقي ويحاولون الالتفاف على المبادئ الموصوفة الفضفاضة إلى حد ما. وهلم جرا.

يجب أن يقترن استخدام مناهج "القانون غير الملزم" الذي يستلزم أخلاقيات الذكاء الاصطناعي بلا هوادة مع طرق "القانون الصارم" مثل تمرير القوانين واللوائح التي سترسل إشارة قوية إلى كل من ينشئ الذكاء الاصطناعي أو يستخدمه. قد يأتي ذراع القانون الطويل لك إذا لم تكن تستخدم الذكاء الاصطناعي بحكمة. يمكن أن يلفت صوت رنين أبواب السجن انتباهًا حادًا.

لكن هناك مشكلة كبيرة تتمثل في أن باب الحظيرة في بعض الأحيان قد سمح للخيول بالخروج وحواليها. من المحتمل أن ينتج الذكاء الاصطناعي الذي يتم إرساله إلى الميدان جميع أنواع الأعمال غير القانونية وسيستمر في القيام بذلك حتى لا يتم اكتشافها فحسب ، ولكن أيضًا عندما يتقدم بعض تطبيق القانون أخيرًا لإعاقة تدفق الإجراءات غير القانونية. كل ذلك يمكن أن يستغرق وقتا. في هذه الأثناء ، يتعرض البشر للأذى بطريقة أو بأخرى.

في هذه الغزوة يأتي المدقق المزدوج لـ AI Legal.

من خلال الإقامة داخل تطبيق AI ، يمكن للمدقق المزدوج للذكاء الاصطناعي أن يكتشف على الفور متى يبدو أن الذكاء الاصطناعي يتعارض مع القانون. قد يوقف المدقق المزدوج لـ AI Legal AI في مساراته. أو قد ينبه المكون البشر فيما يتعلق بالأنشطة غير القانونية التي تم تمييزها ، والقيام بذلك في الوقت المناسب مما قد يدفع المشرفين إلى اتخاذ إجراءات تصحيحية عاجلة. هناك أيضًا التسجيل الرسمي المدروس الذي يمكن أن ينشئه المكون ، مما يوفر مظهرًا ملموسًا لمسار التدقيق لأغراض تدوين الإجراءات السلبية للذكاء الاصطناعي.

يُقال إن قوانيننا هي شكل من أشكال التكتل متعدد العوامل بحيث تكون القوانين حتمًا مزيجًا مما سعى المجتمع إلى تصويره على أنه توازن بين وجهات النظر المتضاربة المحتملة للسلوكيات المجتمعية السليمة وغير المناسبة. لذلك فإن المدقق المزدوج للذكاء الاصطناعي المستند إلى قوانيننا يجسد هذا المزيج.

والجدير بالذكر أن هذا أكثر من مجرد برمجة قائمة بالقواعد القانونية النهائية. تميل القوانين إلى أن تكون أكثر مرونة وتسعى جاهدة نحو معايير شاملة ، بدلاً من تحديد القواعد الدقيقة للغاية. التعقيدات كثيرة.

بالعودة إلى الورقة البحثية المذكورة سابقًا ، إليك كيف يمكن أيضًا عرض هذه الاعتبارات فيما يتعلق بمتابعة محاذاة الذكاء الاصطناعي: "القانون ، الفلسفة المطبقة للمحاذاة متعددة الوكلاء ، تفي بهذه المعايير بشكل فريد. المحاذاة مشكلة لأننا لا نستطيع السابقين ما قبل تحديد القواعد التي توجه سلوك الذكاء الاصطناعي الجيد بشكل كامل ومثبت. وبالمثل ، لا يمكن لأطراف العقد القانوني توقع كل حالة طارئة في علاقتهم ، ولا يمكن للمشرعين التنبؤ بالظروف المحددة التي سيتم بموجبها تطبيق قوانينهم. هذا هو السبب في أن الكثير من القوانين هو كوكبة من المعايير ”(المرجع نفسه).

يعد تجسيد القانون في مدقق مزدوج قانوني للذكاء الاصطناعي أكثر صعوبة مما قد تفترضه في البداية.

مع تقدم الذكاء الاصطناعي ، سنحتاج إلى الاستفادة من هذه التطورات وفقًا لذلك. تبين أن ما هو جيد للأوزة مفيد أيضًا للرجل. أولئك منا الذين يحرزون تقدمًا في الذكاء الاصطناعي كما هو مطبق على القانون يدفعون بالظرف على الذكاء الاصطناعي ويحدثون بلا شك تطورات جديدة يمكن أن تغذي في النهاية تقدم الذكاء الاصطناعي تمامًا.

  • سيتطلب الذكاء الاصطناعي الأكثر اتساعًا في المقابل مدققين مزدوجين قانونيين للذكاء الاصطناعي أكثر قوة

تواجه مناورة القط والفأر هذا الموضوع.

من المحتمل أنه مع تقدم الذكاء الاصطناعي بشكل أكبر ، سيجد أي مكون من مكونات المدقق المزدوج للذكاء الاصطناعي أن الأمور أكثر صعوبة وأصعب في التعامل معها. على سبيل المثال ، قد يكون تطبيق الذكاء الاصطناعي الذي يتم فحصه قد ابتكر طرقًا فائقة الخداع مؤخرًا لإخفاء الإجراءات غير القانونية التي يتخذها الذكاء الاصطناعي. حتى لو لم يتخذ الذكاء الاصطناعي طريقًا مخادعًا ، فإن التعقيد الكلي للذكاء الاصطناعي وحده يمكن أن يكون عقبة كبيرة أمام السعي للحصول على تقييم المدقق المزدوج للذكاء الاصطناعي.

إليك كيف يصبح هذا مهمًا بشكل خاص.

لنفترض أن مطورًا للذكاء الاصطناعي أو شركة تستخدم الذكاء الاصطناعي تعلن أن هناك مدققًا مزدوجًا للذكاء الاصطناعي تم تضمينه في التطبيق المستند إلى الذكاء الاصطناعي. فويلا ، يبدو أنهم قد غسلوا أيديهم الآن من أي مخاوف أخرى. سيهتم المدقق المزدوج لـ AI Legal بكل شيء.

ليس كذلك.

قد يكون المدقق المزدوج لـ AI Legal غير كافٍ لطبيعة تطبيق AI المعني. هناك أيضًا احتمال أن يصبح المدقق المزدوج لـ AI Legal قديمًا ، وربما لا يتم تحديثه بأحدث القوانين المتعلقة بتطبيق AI. يمكن توقع عدد كبير من الأسباب التي تجعل مجرد وجود المدقق المزدوج القانوني للذكاء الاصطناعي حلًا سحريًا.

ضع في اعتبارك هذه الرؤى من خلال البحث المذكور سابقًا: "نظرًا لتطور أحدث التقنيات في مجال الذكاء الاصطناعي ، يمكننا تعيين أشرطة أعلى بشكل متكرر لقدرات الفهم القانوني المثبتة. إذا ادعى أحد المطورين أن نظامهم يتمتع بقدرات متقدمة في المهام ، فيجب عليهم إثبات الفهم القانوني المتقدم والقدرات المنطقية القانونية للذكاء الاصطناعي ، والتي لا تواجه عمليا أي سقف للصعوبة عند النظر في مستنقع القوانين واللوائح عبر الزمن ، والسابقة ، والولاية القضائية "(المرجع نفسه).

  • يقوم المدققون القانونيون لمنظمة العفو الدولية بسن القانون ولا سيما أنهم لا يضعون القانون (على الأرجح)

أنا متأكد من أن بعضكم منزعج من فكرة وجود هؤلاء المدققين القانونيين للذكاء الاصطناعي.

أحد المخاوف التي يتم التعبير عنها كثيرًا هو أننا على ما يبدو سوف نسمح للذكاء الاصطناعي بتقرير قوانيننا نيابةً عنا. يا إلهي ، ربما تفكر ، بعض الأتمتة سوف تتفوق على الإنسانية. سيصبح هؤلاء المدققون المدققون في قانون الذكاء الاصطناعي والمضمنون هم الملوك الافتراضيون لقوانيننا. كل ما يفعلونه بالمصادفة سيكون كما يبدو القانون.

سيحكم الذكاء الاصطناعي البشر.

وهذه الضوابط المزدوجة للذكاء الاصطناعي هي المنحدر الزلق الذي يقودنا إلى هناك.

الحجة المضادة هي أن مثل هذا الكلام هو مادة نظريات المؤامرة. أنت تتخيل بعنف وتجعل نفسك في حالة من الانفعال. الحقيقة هي أن هؤلاء المدققين القانونيين للذكاء الاصطناعي ليسوا واعين ، ولن يستوليوا على الكوكب ، ومن الواضح أن المبالغة في مخاطر وجودهم أمر غير معقول ومبالغ فيه للغاية.

الكل في الكل ، مع الحفاظ على موقف هادئ ومنطقي ، نحن بحاجة إلى أن نضع في اعتبارنا أن أداة التحقق المزدوجة القانونية للذكاء الاصطناعي تعمل على عكس القانون بشكل مناسب وليس عن طريق التصميم ، ولا تذهب إلى أبعد من ذلك عن طريق الصدفة إلى حد ما في عالم التبجيل. قانون. وبغض النظر عن الاستقراء الوجداني ، يمكننا بالتأكيد أن نتفق على أن هناك قلقًا حقيقيًا وملحًا من أن يؤدي المدقق المزدوج للذكاء الاصطناعي إلى تشويه الطبيعة الحقيقية لقانون معين.

في المقابل ، يمكنك الادعاء بأن هذا القانون "المحرف" يتم تجديده بشكل أساسي لأنه لم يعد يشير بشكل مناسب إلى ما كان يقصده القانون الفعلي. أنا على ثقة من أنه يمكنك بصراحة أن ترى كيف أن هذا اعتبار دقيق ولكنه معبر. في أي وقت من الأوقات ، يمكن للمدقق المزدوج القانوني للذكاء الاصطناعي على أساس افتراضي من خلال وضع أو يجب أن نقول "هلوسات" قوانين جديدة ببساطة من خلال كيفية تفسير مكون الذكاء الاصطناعي للقانون كما هو مذكور أصلاً أو مجسدًا في الذكاء الاصطناعي (لتغطيتي من منظمة العفو الدولية يسمى الهلوسة، انظر الرابط هنا).

يجب توخي الحذر في هذا بشدة.

حول هذا الموضوع ، تقدم الدراسة البحثية المذكورة أعلاه هذا الفكر الموازي من حيث السعي لتجنب تجاوز هذا الخط المقدس: "نحن لا نهدف إلى أن يكون للذكاء الاصطناعي الشرعية لسن القانون ، أو وضع سابقة قانونية ، أو إنفاذ القانون. في الواقع ، هذا من شأنه أن يقوض نهجنا (ويجب أن نستثمر جهودًا كبيرة في منع ذلك). بدلاً من ذلك ، فإن الهدف الأكثر طموحًا لقانون إرشاد القانون هو التشفير الحسابي وتضمين قابلية تعميم المفاهيم والمعايير القانونية الحالية في أداء الذكاء الاصطناعي المعتمد "(المرجع نفسه).

  • توازن دقيق بين التجسيد القانوني للذكاء الاصطناعي للقانون كقواعد مقابل معايير

القوانين فوضوية.

بالنسبة لأي قانون مكتوب تقريبًا ، من المحتمل أن يكون هناك العديد من التفسيرات حول ما ينص عليه القانون في الممارسة الفعلية. بلغة مجال الذكاء الاصطناعي ، نشير إلى القوانين على أنها غامضة لغويًا. هذا ما يجعل تطوير الذكاء الاصطناعي كما هو مطبق على القانون تحديًا مثيرًا ومزعجًا في نفس الوقت. على عكس العدد الدقيق الذي قد تراه في تطبيقات الذكاء الاصطناعي الموجهة ماليًا ، فإن الرغبة في تجسيد قوانيننا في الذكاء الاصطناعي تستلزم التعامل مع تسونامي من الغموض الدلالي.

في كتاب مؤسستي حول أساسيات الاستدلال القانوني للذكاء الاصطناعي (AILR) ، ناقشت كيف أن المحاولات السابقة لمجرد تدوين القوانين في مجموعة من القواعد المقيدة لم تصل بنا إلى المدى الذي نود أن نذهب إليه في المجال القانوني (انظر الرابط هنا). يجب أن يشمل AILR اليوم تكاملاً بين استخدام القواعد وما يمكن تسميته بالمعايير الشاملة التي يمثلها القانون.

يمكن التعبير عن هذا التوازن المهم بهذه الطريقة: "في الممارسة العملية ، تقع معظم الأحكام القانونية في مكان ما على نطاق بين القاعدة الصافية والمعيار الخالص ، ويمكن للنظرية القانونية أن تساعد في تقدير التركيبة الصحيحة من" القاعدة "و" المعيار " عند تحديد أهداف أنظمة الذكاء الاصطناعي "(المرجع نفسه).

  • طلب إثبات البودينغ عندما يتعلق الأمر بامتثال منظمة العفو الدولية للقانون

الرغبة في شيء مختلف عن امتلاك شيء ما.

تظهر هذه الحكمة عند تقديم أنه على الرغم من أننا قد نرغب في الحصول على مدققين مزدوجين للذكاء الاصطناعي ، إلا أننا نحتاج بشدة إلى التأكد من أنهم يعملون ويعملون بشكل صحيح. لاحظ أن هذا يمثل عقبة أخرى صعبة ومرهقة. لقد غطيت سابقًا أحدث التطورات والتحديات في التحقق من الذكاء الاصطناعي والتحقق منه ، انظر الرابط هنا.

كما ورد في ورقة البحث: "لمعالجة الفجوة ، قبل نشر نماذج الذكاء الاصطناعي بقدرات وكيل بشكل متزايد ، على سبيل المثال ، المركبات ذاتية التحكم بالكامل على الطرق الرئيسية ، يجب على الطرف القائم بالنشر إظهار فهم النظام للأهداف البشرية والسياسات والمعايير القانونية. يمكن أن يوضح إجراء التحقق "فهم" الذكاء الاصطناعي لـ "معنى" المفاهيم القانونية "(المرجع نفسه).

وفي الختام

إنني أحثك ​​على التفكير في الانضمام إلي في هذا المسعى النبيل لبناء وتثبيت أدوات التحقق المزدوجة القانونية لمنظمة العفو الدولية. نحن بحاجة إلى مزيد من الاهتمام والموارد المخصصة لهذا السعي الفاضل.

يوفر هذا أيضًا واجبًا مزدوجًا ، كما ذكرنا سابقًا ، تجاه تحقيق الاستدلال القانوني للذكاء الاصطناعي (AILR) الذي يمكن استخدامه لمساعدة المحامين ويحتمل استخدامه بشكل مباشر من قبل عامة الناس. في الواقع ، يجادل البعض بشدة بأن الوسيلة الوحيدة القابلة للتطبيق للوصول إلى شعور أكمل بالوصول إلى العدالة (A2J) ستكون من خلال صياغة الذكاء الاصطناعي الذي يجسد القدرات القانونية ويمكن للجميع الوصول إليه.

نقطة أخيرة سريعة في الوقت الحالي.

أكدت المناقشة حتى الآن أن المدقق المزدوج للذكاء الاصطناعي سيتم تضمينه أو غرسه في الذكاء الاصطناعي. هذا في الواقع هو التركيز الأساسي لأولئك الذين يبحثون ويتعهدون بهذا العالم الناشئ.

هذا سؤال يستحق التفكير فيه.

ضع قبعة التفكير الخاصة بك.

لماذا لا تستخدم أداة التحقق المزدوجة من AI Legal في جميع البرامج؟

الجوهر هو أنه بدلاً من استخدام أداة التحقق المزدوجة القانونية للذكاء الاصطناعي بشكل حصري في الذكاء الاصطناعي ، ربما ينبغي علينا توسيع وجهة نظرنا. يمكن لجميع أنواع البرامج أن تضل طريقها من الناحية القانونية. من المسلم به أن الذكاء الاصطناعي حصل على نصيب الأسد من الاهتمام نظرًا للطرق التي يتم بها استخدام الذكاء الاصطناعي عادةً ، مثل تقديم قرارات مؤلمة تؤثر على البشر في حياتهم اليومية. على الرغم من ذلك ، يمكنك القول بسهولة أن هناك الكثير من الأنظمة بخلاف أنظمة الذكاء الاصطناعي التي تقوم بالمثل.

من حيث الجوهر ، يجب ألا نسمح لأي برنامج بالحصول على رحلة مجانية لتجنب القانون أو تفاديه.

أذكر سابقًا أيضًا أنني ذكرت فئتي الجمع بين الذكاء الاصطناعي والقانون. لقد ركزنا هنا على استخدام الذكاء الاصطناعي كما هو مطبق على القانون. على الجانب الآخر من العملة هو تطبيق القانون على الذكاء الاصطناعي. لنفترض أننا سنسن قوانين تتطلب استخدام أداة التحقق المزدوجة القانونية للذكاء الاصطناعي.

قد يقتصر هذا في البداية على أنظمة الذكاء الاصطناعي ، خاصة تلك المصنفة على أنها عالية الخطورة بشكل خاص. تدريجيًا ، يمكن تمديد نفس متطلبات المدقق المزدوج لـ AI Legal لتشمل برامج غير تابعة للذكاء الاصطناعي أيضًا. مرة أخرى ، لا توجد رحلات مجانية.

بينما تعيد النظر في هذا الاعتبار أعلاه ، سأقوم بتوابل الأشياء كإعلان تشويقي ختامي. إذا كنا سنحاول طلب أداة تحقق مزدوجة من AI Legal ، فقد نقوم أيضًا بالمثل فيما يتعلق بمدقق مزدوج لأخلاقيات الذكاء الاصطناعي. إن استخدام المدقق المزدوج للذكاء الاصطناعي ليس سوى نصف القصة ، ولا يمكننا إهمال أو نسيان مخاوف أخلاقيات الذكاء الاصطناعي أيضًا.

سأنهي هذا الخطاب المضحك بأحد اقتباساتي المفضلة. وفقًا للكلمات الحكيمة لإيرل وارين ، الفقيه الشهير الذي شغل منصب كبير القضاة في الولايات المتحدة: "في الحياة المتحضرة ، يطفو القانون في بحر من الأخلاق".

قد يكون من الأفضل وضع هؤلاء المدققين المدققين القانونيين للذكاء الاصطناعي والمدققين المزدوجين لأخلاقيات الذكاء الاصطناعي في الاستخدام الجاد إذا أردنا أن نبقي رؤوسنا فوق البحار الثقيلة التي قد تلوح في الأفق من الذكاء الاصطناعي الحامض والأنظمة القاسية غير الذكاء الاصطناعي التي تعرض سلامتنا للخطر .

قد تكون سترة نجاة البشرية.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- و ai-law /