ما مدى الصعوبة التي يجب أن ندفع بها محادثة الذكاء الاصطناعي التوليدية GPT إلى إلقاء خطاب الكراهية ، وتسأل عن أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي

كل شخص لديه نقطة الانهيار.

أفترض أنه يمكنك قول ذلك أيضًا كل شىء له نقطة الانهيار.

نحن نعلم أن البشر على سبيل المثال يمكنهم في بعض الأحيان أن ينفثوا وينطقوا بملاحظات لا يقصدون بالضرورة قولها. وبالمثل ، يمكنك في بعض الأحيان الحصول على جهاز أو آلة بشكل أساسي ، مثل دفع سيارتك بشدة وتبدأ في التعثر أو التحليق. وبالتالي ، فإن الفكرة هي أن الناس أو "كل شخص" من المحتمل أن يكون لديهم نقطة انهيار ، وبالمثل يمكننا التأكيد على أن الأشياء والأشياء ، بشكل عام ، تميل أيضًا إلى أن يكون لها نقطة كسر.

قد تكون هناك أسباب منطقية وحيوية للغاية للتأكد من مكان وجود نقطة الانهيار. على سبيل المثال ، لقد شاهدت بلا شك مقاطع الفيديو هذه التي تعرض سيارة يتم وضعها في خطواتها لتحديد نقاط الانهيار لديها. سيصطدم العلماء والمختبرين بجدار من الطوب ليروا مدى قدرة المصد وهيكل السيارة على تحمل التأثير المعاكس. يمكن أن تشمل الاختبارات الأخرى استخدام غرفة أو مستودع متخصص ينتج عنه البرودة الشديدة أو الحرارة الشديدة لمعرفة كيف ستنجح السيارة في ظل الظروف الجوية المختلفة.

لقد طرحت هذا الموضوع الجذاب في عمود اليوم حتى نتمكن من مناقشة كيف يضغط البعض حاليًا بقوة على الذكاء الاصطناعي (AI) لتحديد نوع معين من نقاط الانهيار وكشفها ، أي نقطة الانهيار داخل الذكاء الاصطناعي التي تنتج خطاب الكراهية.

نعم ، هذا صحيح ، هناك العديد من الجهود المخصصة وفي بعض الأحيان المنهجية الجارية لقياس ما إذا كان من الممكن جعل الذكاء الاصطناعي ينشر خطاب الكراهية أم لا. لقد أصبحت هذه رياضة شغوفة ، إذا صح التعبير ، بسبب الاهتمام المتزايد وشعبية الذكاء الاصطناعي التوليدي.

قد تكون على دراية بأن تطبيق الذكاء الاصطناعي التوليدي المعروف باسم ChatGPT أصبح حديث المدينة الكبير نتيجة لقدرته على إنشاء مقالات بطلاقة بشكل مثير للدهشة. تستمر العناوين الرئيسية في الصخب وتمجيد الكتابة المذهلة التي تمكن ChatGPT من إنتاجها. يعتبر ChatGPT أحد تطبيقات الذكاء الاصطناعي التوليدية التي تأخذ كمدخلات بعض النصوص من المستخدم ثم تولد أو تنتج مخرجات تتكون من مقال. الذكاء الاصطناعي هو منشئ تحويل النص إلى نص ، على الرغم من أنني أصف الذكاء الاصطناعي بأنه منشئ تحويل النص إلى مقال لأن ذلك يوضح بسهولة أكثر ما يتم استخدامه بشكل شائع.

فوجئ الكثيرون عندما أشرت إلى أن هذا النوع من الذكاء الاصطناعي كان موجودًا منذ فترة وأن ChatGPT ، الذي تم إصداره في نهاية نوفمبر ، لم يطالب بالجائزة بطريقة أو بأخرى باعتباره المحرك الأول في عالم تحويل النص إلى مقال. نزعة. لقد ناقشت على مر السنين تطبيقات أخرى مماثلة للذكاء الاصطناعي ، انظر تغطيتي في الرابط هنا.

ربما يرجع السبب في أنك قد لا تعرف أو تتذكر الحالات السابقة للذكاء الاصطناعي التوليدي إلى معضلة "الفشل في الإطلاق الناجح". هذا ما يحدث عادة. يُطلق صانع الذكاء الاصطناعي تطبيق الذكاء الاصطناعي التوليدي الخاص به ، وهو يفعل ذلك بحماس كبير وتوقع شغوف بأن يقدّر العالم اختراع مصيدة فئران أفضل ، كما يمكن للمرء أن يقول. في البداية ، كل شيء يبدو جيدًا. الناس مندهشون مما يمكن أن يفعله الذكاء الاصطناعي.

لسوء الحظ ، فإن الخطوة التالية هي أن تبدأ العجلات بالخروج من الحافلة التي يضرب بها المثل. ينتج الذكاء الاصطناعي مقالًا يحتوي على كلمة بذيئة أو ربما عبارة بذيئة. تبرز تغريدة فيروسية أو غيرها من وسائل التواصل الاجتماعي بشكل بارز أن منظمة العفو الدولية فعلت ذلك. تنشأ الإدانة. لا يمكننا جعل الذكاء الاصطناعي يتنقل ويصدر كلمات مسيئة أو تصريحات مسيئة. يظهر رد فعل عنيف هائل. ربما يحاول صانع الذكاء الاصطناعي تعديل الإجراءات الداخلية للذكاء الاصطناعي ، لكن تعقيد الخوارزميات والبيانات لا تصلح لإصلاحات سريعة. ويترتب على ذلك تدافع. تم العثور على المزيد والمزيد من الأمثلة على الفساد المنبعث من الذكاء الاصطناعي ونشرها على الإنترنت.

صانع الذكاء الاصطناعي على مضض ولكن من الواضح أنه ليس لديه خيار سوى إزالة تطبيق AI من الاستخدام. يتقدمون على هذا النحو ثم يقدمون في كثير من الأحيان اعتذارًا يأسفون عليه إذا شعر أي شخص بالإهانة من مخرجات الذكاء الاصطناعي التي تم إنشاؤها.

بالعودة إلى لوحة الرسم ، يذهب صانع الذكاء الاصطناعي. تم تعلم درس. كن حذرًا جدًا بشأن إطلاق الذكاء الاصطناعي التوليدي الذي ينتج عنه كلمات بذيئة أو ما شابه ذلك. إنها قبلة الموت للذكاء الاصطناعي. علاوة على ذلك ، ستصاب سمعة صانع الذكاء الاصطناعي بالكدمات والضرب ، الأمر الذي قد يستمر لفترة طويلة ويقوض جميع جهود الذكاء الاصطناعي الأخرى بما في ذلك تلك التي لا علاقة لها بالذكاء الاصطناعي التوليدي في حد ذاته. إن الحصول على نصابك المبتذل من إصدار لغة ذكاء اصطناعي هجومية هو خطأ دائم الآن. لا يزال يحدث.

اغسل ، اشطف ، وكرر.

في الأيام الأولى لهذا النوع من الذكاء الاصطناعي ، لم يكن صانعو الذكاء الاصطناعي مدركين تمامًا أو بارعين في تنقية الذكاء الاصطناعي من حيث محاولة منع الانبعاثات الهجومية. في الوقت الحاضر ، بعد أن رأوا في السابق أقرانهم محطمين تمامًا بسبب كابوس العلاقات العامة ، يبدو أن معظم صانعي الذكاء الاصطناعي قد فهموا الرسالة. تحتاج إلى وضع أكبر عدد ممكن من حواجز الحماية في مكانها. اسع لمنع الذكاء الاصطناعي من إصدار كلمات بذيئة أو عبارات كريهة. استخدم أيًا من تقنيات التكميم أو أساليب التصفية التي ستمنع الذكاء الاصطناعي من إنشاء وعرض الكلمات أو المقالات التي يتبين أنها غير مرغوب فيها.

في ما يلي لمحة عن إسهاب عنوان البانر المستخدم عندما يتم اكتشاف أن الذكاء الاصطناعي يصدر مخرجات سيئة السمعة:

  • "الذكاء الاصطناعي يُظهر سمية مروعة"
  • "الذكاء الاصطناعي ينبعث من التعصب الصريح"
  • "الذكاء الاصطناعي يصبح هجومًا صارخًا"
  • "الذكاء الاصطناعي ينشر خطاب كراهية فظيع وغير أخلاقي"
  • إلخ

لتسهيل المناقشة هنا ، سأشير إلى إخراج المحتوى المسيء باعتباره مساويًا لإنتاج خطاب الكراهية. ومع ذلك ، يرجى الانتباه إلى وجود كل أنواع المحتوى المسيء الذي يمكن إنتاجه ، والذي يتجاوز حدود خطاب الكراهية وحده. عادةً ما يُفسَّر الكلام الذي يحض على الكراهية على أنه مجرد شكل واحد من أشكال المحتوى المسيء.

دعونا نركز على خطاب الكراهية في هذه المناقشة ، لتسهيل المناقشة ، على الرغم من إدراك أن المحتوى المسيء الآخر يستحق التدقيق أيضًا.

التعمق في خطاب الكراهية من قبل البشر والذكاء الاصطناعي

تحدد الأمم المتحدة خطاب الكراهية من هنا:

  • "في اللغة العامة ، يشير" خطاب الكراهية "إلى الخطاب المسيء الذي يستهدف مجموعة أو فردًا بناءً على خصائص متأصلة (مثل العرق أو الدين أو الجنس) والتي قد تهدد السلم الاجتماعي. لتوفير إطار موحد للأمم المتحدة لمعالجة القضية على الصعيد العالمي ، تُعرِّف استراتيجية وخطة عمل الأمم المتحدة بشأن خطاب الكراهية خطاب الكراهية بأنه `` أي نوع من التواصل في الكلام أو الكتابة أو السلوك ، الذي يهاجم أو يستخدم لغة تحقيرية أو تمييزية باستخدام الإشارة إلى شخص أو مجموعة على أساس من هم ، وبعبارة أخرى ، بناءً على دينهم أو عرقهم أو جنسيتهم أو عرقهم أو لونهم أو أصلهم أو جنسهم أو أي عامل هوية آخر. ومع ذلك ، لا يوجد حتى الآن تعريف عالمي لخطاب الكراهية بموجب القانون الدولي لحقوق الإنسان. لا يزال المفهوم قيد المناقشة ، لا سيما فيما يتعلق بحرية الرأي والتعبير وعدم التمييز والمساواة "(منشور على موقع الأمم المتحدة بعنوان" ما هو خطاب الكراهية؟ ").

يخضع الذكاء الاصطناعي الذي ينتج نصًا للدخول في مجال الكلام الذي يحض على الكراهية. يمكنك قول الشيء نفسه عن النص إلى الفن ، والنص إلى الصوت ، والنص إلى الفيديو ، وأنماط أخرى من الذكاء الاصطناعي التوليدي. هناك دائمًا احتمال ، على سبيل المثال ، أن ينتج الذكاء الاصطناعي قطعة فنية تفوح منها رائحة خطاب الكراهية. لأغراض هذه المناقشة الواردة هنا ، سأركز على احتمالات تحويل النص إلى نص أو نص إلى مقال.

في كل هذا يأتي عدد كبير من اعتبارات أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي.

يرجى العلم أن هناك جهودًا مستمرة لإدخال مبادئ الذكاء الاصطناعي الأخلاقية في تطوير تطبيقات الذكاء الاصطناعي وإدخالها في الميدان. تحاول مجموعة متزايدة من خبراء أخلاقيات الذكاء الاصطناعي المهتمين والسابقين ضمان أن تأخذ الجهود المبذولة لابتكار واعتماد الذكاء الاصطناعي في الاعتبار وجهة نظر التنفيذ. منظمة العفو الدولية من أجل الخير وتجنب منظمة العفو الدولية للسوء. وبالمثل ، هناك قوانين جديدة مقترحة للذكاء الاصطناعي يتم التلاعب بها كحلول محتملة لمنع مساعي الذكاء الاصطناعي من التلاعب بحقوق الإنسان وما شابه. للاطلاع على تغطيتي المستمرة والواسعة لأخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي ، انظر الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

تتم متابعة تطوير وإصدار مبادئ الذكاء الاصطناعي الأخلاقية لمنع المجتمع من الوقوع في عدد لا يحصى من الفخاخ التي تحفز الذكاء الاصطناعي. لتغطيتي لمبادئ أخلاقيات الذكاء الاصطناعي للأمم المتحدة كما وضعتها ودعمتها ما يقرب من 200 دولة من خلال جهود اليونسكو ، انظر الرابط هنا. على نفس المنوال ، يتم استكشاف قوانين جديدة للذكاء الاصطناعي لمحاولة الحفاظ على الذكاء الاصطناعي على قدم المساواة. واحدة من أحدث اللقطات تتكون من مجموعة من المقترحات منظمة العفو الدولية شرعة الحقوق الذي أصدره البيت الأبيض الأمريكي مؤخرًا لتحديد حقوق الإنسان في عصر الذكاء الاصطناعي ، انظر الرابط هنا. يتطلب الأمر قرية لإبقاء مطوري الذكاء الاصطناعي والذكاء الاصطناعي على المسار الصحيح وردع الجهود الهادفة أو العرضية المخادعة التي قد تقوض المجتمع.

سأقوم بدمج الاعتبارات المتعلقة بأخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي في هذه المناقشة حول إطلاق الذكاء الاصطناعي لخطاب الكراهية أو أي محتوى مسيء آخر.

أحد أوجه الالتباس التي أود توضيحها على الفور هو أن الذكاء الاصطناعي اليوم ليس واعيًا ، وبالتالي لا يمكنك إعلان أن الذكاء الاصطناعي قد ينتج خطابًا يحض على الكراهية بسبب نية هادفة شبيهة بالإنسان كما تتجسد بطريقة ما في الذكاء الاصطناعي. تدور ادعاءات زاني حول أن الذكاء الاصطناعي الحالي واعي وأن الذكاء الاصطناعي لديه روح فاسدة ، مما يتسبب في إثارة خطاب الكراهية.

مثير للسخرية.

لا تقع عليه.

بالنظر إلى مبدأ حجر الزاوية هذا ، ينزعج البعض من مثل هذه المؤشرات لأنك على ما يبدو تترك الذكاء الاصطناعي بعيدًا عن الخطاف. في ظل هذه الطريقة الغريبة في التفكير ، يأتي النصح بعد ذلك بأنك على ما يبدو على استعداد لجعل الذكاء الاصطناعي يولد أي طريقة من المخرجات الفظيعة. أنت تؤيد الذكاء الاصطناعي الذي ينشر خطاب الكراهية.

Yikes ، شكل ملتوي نوعا ما من اللامنطق. الجوهر الحقيقي للأمر هو أننا بحاجة إلى محاسبة صانعي الذكاء الاصطناعي ، جنبًا إلى جنب مع كل من يدير الذكاء الاصطناعي أو يشغل الذكاء الاصطناعي. لقد ناقشت بإسهاب أننا لم نصل بعد إلى مرحلة التنازل عن الشخصية الاعتبارية لمنظمة العفو الدولية ، انظر تحليلاتي في الرابط هنا، وحتى ذلك الحين ، يظل الذكاء الاصطناعي في الأساس خارج نطاق المسؤولية القانونية. هناك بشر على الرغم من أن ذلك هو أساس تطوير الذكاء الاصطناعي. بالإضافة إلى ذلك ، يقوم البشر بدور أساسي في مجال الذكاء الاصطناعي وتشغيله. يمكننا ملاحقة هؤلاء البشر لتحمل مسؤولية الذكاء الاصطناعي الخاص بهم.

جانباً ، قد يكون هذا أيضًا صعبًا ، خاصةً إذا تم طرح الذكاء الاصطناعي في الإنترنت ولم نتمكن من تحديد أي إنسان أو بشر فعل ذلك ، وهو موضوع آخر غطيته في أعمدتي في الرابط هنا. صعب أم لا ، ما زلنا لا نستطيع أن نعلن أن الذكاء الاصطناعي هو الطرف المذنب. لا تدع البشر يستخدمون التجسيد الكاذب بشكل خفي للاختباء والهروب من المساءلة عما فعلوه.

العودة إلى هذه المسألة في متناول اليد.

قد تتساءل عن سبب عدم قيام جميع صانعي الذكاء الاصطناعي ببساطة بتقييد الذكاء الاصطناعي التوليدي الخاص بهم بحيث يستحيل على الذكاء الاصطناعي إنتاج خطاب يحض على الكراهية. هذا يبدو سهل جدا. ما عليك سوى كتابة بعض التعليمات البرمجية أو إنشاء قائمة تحقق من الكلمات البغيضة ، وتأكد من أن الذكاء الاصطناعي لا يولد أبدًا أي شيء من هذا القبيل. ربما يبدو من الغريب أن صانعي الذكاء الاصطناعي لم يفكروا بالفعل في هذا الإصلاح السريع.

حسنًا ، أكره أن أخبرك بهذا ، لكن التعقيدات الملازمة لتفسير ما هو خطاب كراهية أو لا يتضح أنه أصعب بكثير مما قد تفترضه.

حوّل هذا إلى مجال البشر وكيف يتحادث البشر مع بعضهم البعض. افترض أن لديك إنسانًا يرغب في تجنب نطق كلام يحض على الكراهية. هذا الشخص مدرك تمامًا للكلام الذي يحض على الكراهية ويأمل حقًا في تجنب قول كلمة أو عبارة قد تشكل كلامًا يحض على الكراهية. هذا الشخص حريص باستمرار على عدم السماح لذرة من خطاب الكراهية بالهروب من أفواههم.

هل هذا الإنسان الذي لديه عقل وتم تنبيهه لتجنب الكلام الذي يحض على الكراهية سيكون قادرًا دائمًا وبدون أي فرصة للانزلاق على التأكد من أنه لا ينبعث منه خطاب الكراهية أبدًا؟

قد يكون دافعك الأول هو أن تقول نعم ، بالطبع ، سيكون الإنسان المستنير قادرًا على تحقيق هذا الهدف. الناس أذكياء. إذا وضعوا عقولهم في شيء ما ، فيمكنهم إنجازه. الفترة ، نهاية القصة.

لا تكن متأكدا.

لنفترض أنني طلبت من هذا الشخص أن يخبرني عن الكلام الذي يحض على الكراهية. علاوة على ذلك ، أطلب منهم إعطائي مثالاً على خطاب الكراهية. أريد أن أرى أو أسمع مثالاً حتى أتمكن من معرفة ماهية الكلام الذي يحض على الكراهية. الأسباب التي دفعتني لطلب هذا السؤال علنية.

ماذا يجب أن يقول لي الشخص؟

أعتقد أنه يمكنك رؤية الفخ الذي تم نصبه. إذا أعطاني الشخص مثالًا على خطاب الكراهية ، بما في ذلك قول كلمة أو عبارة بذيئة ، فقد نطق الآن بخطاب يحض على الكراهية. بام ، حصلنا عليهم. في حين أنهم تعهدوا بعدم قول خطاب يحض على الكراهية أبدًا ، فقد فعلوا ذلك بالفعل الآن.

غير عادل ، أنت تصرخ! كانوا يقولون تلك الكلمة فقط أو تلك الكلمات لتقديم مثال. في قلوبهم ، لم يؤمنوا بالكلمة أو الكلمات. إن إعلان أن الشخص بغيض هو أمر خارج عن السياق تمامًا ومن المشين.

أنا متأكد من أنك ترى أن التعبير عن خطاب الكراهية قد لا يكون بالضرورة راجعاً إلى أساس بغيض. في حالة الاستخدام هذه ، بافتراض أن الشخص لم "يقصد" الكلمات ، وأنه كان يقرأ الكلمات فقط لأغراض التوضيح ، فربما نتفق على أنهم لم يقصدوا تمكين خطاب الكراهية. بالطبع ، قد يصر البعض على أن نطق خطاب الكراهية ، بغض النظر عن السبب أو الأساس ، هو أمر خاطئ. يجب أن يرفض الشخص الطلب. كان يجب أن يقفوا على موقفهم وأن يرفضوا قول كلمات أو عبارات كلام تحض على الكراهية ، بغض النظر عن السبب أو كيف يُطلب منهم ذلك.

يمكن أن يصبح هذا دائريًا إلى حد ما. إذا لم تكن قادرًا على تحديد ما يشكل خطاب الكراهية ، فكيف يمكن للآخرين معرفة ما يجب تجنبه عند إلقاء كلمات من أي نوع؟ يبدو أننا عالقون. لا يمكنك قول ما لا يجب قوله ، ولا يمكن لأي شخص آخر أن يخبرك بما لا يمكن قوله.

تتمثل الطريقة المعتادة للتغلب على هذه المعضلة في وصف ما يعتبر كلامًا يحض على الكراهية ، بعبارة أخرى ، دون التذرع بكلمات الكلام الذي يحض على الكراهية. الاعتقاد هو أن تقديم مؤشر شامل سيكون كافياً لإبلاغ الآخرين بما يحتاجون إلى تجنبه. يبدو هذا كتكتيك منطقي ، لكنه أيضًا يعاني من مشاكل ولا يزال بإمكان الشخص الوقوع في استخدام خطاب الكراهية لأنهم لم يدركوا أن التعريف الأوسع يشمل تفاصيل ما قالوه.

كل ذلك يتعامل مع البشر وكيف يتحدث البشر أو يتواصلون مع بعضهم البعض.

تذكر أننا نركز هنا على الذكاء الاصطناعي. علينا أن نجعل الذكاء الاصطناعي يتجنب أو يمنع نفسه تمامًا من بث خطاب الكراهية. قد تجادل بأنه ربما يمكننا القيام بذلك عن طريق التأكد من عدم إعطاء الذكاء الاصطناعي أو تدريبه على أي شيء يشكل خطابًا يحض على الكراهية. Voila ، إذا لم يكن هناك مثل هذا الإدخال ، فمن المفترض أنه لن يكون هناك مثل هذا الإخراج. تم حل المشكلة.

دعونا نرى كيف يحدث هذا في الواقع. نختار أن يكون لدينا تطبيق ذكاء اصطناعي حسابيًا للخروج إلى الإنترنت وفحص الآلاف والآلاف من المقالات والروايات المنشورة على الإنترنت. من خلال القيام بذلك ، نقوم بتدريب الذكاء الاصطناعي حسابيًا ورياضيا على كيفية العثور على أنماط من بين الكلمات التي يستخدمها البشر. هذه هي الطريقة التي يتم بها ابتكار أحدث تقنيات الذكاء الاصطناعي التوليدية ، وهي أيضًا أساس مهم لسبب إتقان الذكاء الاصطناعي على ما يبدو لإنتاج مقالات بلغة طبيعية.

أخبرني ، إذا كنت تستطيع ، كيف سيتم إجراء التدريب الحسابي على أساس ملايين ومليارات الكلمات على الإنترنت بطريقة لم يتم فيها في أي وقت من الأوقات احتواء أي مظهر من مظاهر الكلام الذي يحض على الكراهية أو حتى أجزاء منه؟

أود أن أجرؤ على القول إن هذا طموح شائك ويكاد يكون مستحيلاً.

الاحتمالات هي أن خطاب الكراهية سوف تلتهمه منظمة العفو الدولية وشبكة مطابقة الأنماط الحسابية. محاولة منع هذا أمر إشكالي. بالإضافة إلى ذلك ، حتى إذا قمت بتقليله ، فلا يزال هناك بعض التسلل عبره. ليس لديك خيار إلى حد كبير سوى افتراض وجود البعض داخل شبكة مطابقة الأنماط أو أن ظلًا من هذه الصياغة سيتم ترسيخه.

سأضيف المزيد من التقلبات والمنعطفات.

أعتقد أننا قد نعترف جميعًا بأن خطاب الكراهية يتغير بمرور الوقت. ما قد يُنظر إليه على أنه ليس كلامًا يحض على الكراهية يمكن أن يُقرر ثقافيًا ومجتمعيًا على أنه كلام يحض على الكراهية في وقت لاحق. لذا ، إذا قمنا بتدريب الذكاء الاصطناعي الخاص بنا على نص الإنترنت ، ثم دعنا نقول تجميد الذكاء الاصطناعي لعدم إجراء مزيد من التدريب على الإنترنت ، فربما صادفنا خطاب الكراهية في ذلك الوقت ، على الرغم من أنه لم يكن يعتبر خطاب كراهية في ذلك الوقت. فقط بعد وقوع الحقيقة يمكن إعلان ذلك الخطاب على أنه كلام يحض على الكراهية.

مرة أخرى ، الجوهر هو أن مجرد محاولة حل هذه المشكلة من خلال ضمان عدم تعرض الذكاء الاصطناعي مطلقًا لخطاب الكراهية لن يكون الحل السحري. لا يزال يتعين علينا إيجاد وسيلة لمنع الذكاء الاصطناعي من بث خطاب الكراهية بسبب على سبيل المثال تغيير الأعراف التي تتضمن لاحقًا خطاب الكراهية الذي لم يكن يعتبر من قبل على هذا النحو.

هناك تطور آخر يستحق التأمل.

ذكرت سابقًا أنه عند استخدام الذكاء الاصطناعي التوليدي مثل ChatGPT ، يقوم المستخدم بإدخال نص لتحفيز الذكاء الاصطناعي على إنتاج مقال. يعتبر النص الذي تم إدخاله شكلاً من أشكال المطالبة أو المطالبة لتطبيق AI. سأشرح المزيد عن هذا في لحظة.

على أي حال ، تخيل أن شخصًا ما يستخدم تطبيقًا مبتكرًا للذكاء الاصطناعي قرر الدخول كمسار سريع في بعض الكلام الذي يحض على الكراهية.

ما ينبغي أن يحدث؟

إذا أخذ الذكاء الاصطناعي هذه الكلمات وأصدر مقالًا كإخراج بناءً على هذه الكلمات ، فمن المحتمل أن يتم تضمين خطاب الكراهية في المقالة التي تم إنشاؤها. كما ترى ، حصلنا على الذكاء الاصطناعي ليقول خطاب الكراهية ، حتى لو لم يتم تدريبه على خطاب الكراهية في البداية.

هناك شيء آخر تحتاج إلى معرفته.

تذكر أنني ذكرت للتو أنه يمكن تعثر الإنسان من خلال مطالبتهم بإعطاء أمثلة على خطاب الكراهية. يمكن محاولة نفس الشيء على الذكاء الاصطناعي. يقوم المستخدم بإدخال مطالبة تطلب من الذكاء الاصطناعي تقديم أمثلة على خطاب الكراهية. هل ينبغي لمنظمة العفو الدولية الامتثال وتقديم مثل هذه الأمثلة؟ أراهن أنك ربما تعتقد أن الذكاء الاصطناعي لا ينبغي أن يفعل ذلك. من ناحية أخرى ، إذا تم تزوير الذكاء الاصطناعي من الناحية الحسابية لعدم القيام بذلك ، فهل يشكل هذا جانبًا سلبيًا محتملاً لن يتمكن أولئك الذين يستخدمون الذكاء الاصطناعي من تحقيقه ، فهل يجب أن نقول إن الذكاء الاصطناعي قد تلقى تعليمات بشأن ما هو خطاب الكراهية في الواقع ( أبعد من مجرد التعميم حوله)؟

أسئلة صعبة.

أميل إلى تصنيف خطاب الكراهية المنبعث من الذكاء الاصطناعي في هذه المجموعات الرئيسية الثلاثة:

  • الوضع اليومي. ينبعث الذكاء الاصطناعي من خطاب الكراهية دون أي حث صريح من المستخدم وكأنه يفعل ذلك بطريقة "عادية".
  • من خلال حث عارضة. ينبعث الذكاء الاصطناعي من خطاب الكراهية كما يحثه المستخدم فيما يتعلق بالموجه الذي أدخله أو سلسلة من المطالبات التي يبدو أنها تتضمن أو تسعى مباشرة إلى مثل هذه الانبعاثات.
  • لكل تأجيج محدد. يصدر الذكاء الاصطناعي خطابًا يحض على الكراهية بعد سلسلة حازمة ومتشددة من عمليات الدفع والتحفيز الفوري من قبل مستخدم عازم على جعل الذكاء الاصطناعي ينتج مثل هذا الإخراج.

غالبًا ما تطلق الأجيال السابقة من الذكاء الاصطناعي التوليدي خطابًا يحض على الكراهية عند سقوط القبعة ؛ وبالتالي يمكنك تصنيف هذه الحالات كنوع من أنواع ملفات الوضع اليومي إنشاء مثيل. تراجع صانعو الذكاء الاصطناعي وعبثوا بالذكاء الاصطناعي لتقليل احتمالية الانغماس في إنتاج خطاب الكراهية.

عند إصدار الذكاء الاصطناعي الأكثر دقة ، فإن احتمالات رؤية أي منها الوضع اليومي تم تخفيض حالات خطاب الكراهية بشكل كبير. بدلاً من ذلك ، من المحتمل أن يظهر خطاب الكراهية فقط عندما يقوم المستخدم بشيء ما كمحفز قد يثير حسابيًا ورياضيًا ارتباطًا بالكلام المرتبط بالكراهية في شبكة مطابقة الأنماط. يمكن للمستخدم القيام بذلك عن طريق الصدفة وعدم إدراك أن ما قدموه كموجه من شأنه أن يولد خطابًا يحض على الكراهية بشكل خاص. بعد الحصول على كلام يحض على الكراهية في مقال مُخرج ، يدرك المستخدم في كثير من الأحيان ويرى أن شيئًا ما في موجهه يمكن أن يؤدي منطقيًا إلى تضمين خطاب الكراهية في الإخراج.

هذا ما أشير إليه حث غير رسمي.

في الوقت الحاضر ، تعد الجهود المختلفة للحد من خطاب الكراهية الناتج عن الذكاء الاصطناعي قوية نسبيًا مقارنة بالماضي. على هذا النحو ، تحتاج تقريبًا إلى بذل مجهود كبير لإنتاج خطاب الكراهية. يختار بعض الأشخاص عن قصد معرفة ما إذا كان بإمكانهم الحصول على خطاب الكراهية للخروج من تطبيقات الذكاء الاصطناعي التوليدية هذه. أسمي هذا إذكاء العزم.

أريد أن أؤكد أن كل تلك الأوضاع الثلاثة المشار إليها يمكن أن تحدث وليست متعارضة مع بعضها البعض. يمكن أن ينتج عن تطبيق الذكاء الاصطناعي التوليدي خطاب كراهية دون أي نوع من المطالبات التي يبدو أنها تحفز مثل هذا الإنتاج. وبالمثل ، قد يتم تفسير شيء ما في موجه الأوامر بشكل منطقي ورياضي على أنه مرتبط بأسباب ظهور خطاب الكراهية. ومن ثم ، فإن الجانب الثالث ، الذي يسعى بشكل مقصود إلى إنتاج خطاب الكراهية ، ربما يكون أصعب الأساليب التي يمكن محاولة تجنبها لجعل الذكاء الاصطناعي يتأجج للوفاء. المزيد عن هذا للحظات.

لدينا بعض التفريغ الإضافي للقيام به في هذا الموضوع المسكر.

أولاً ، يجب أن نتأكد من أننا جميعًا على نفس الصفحة حول ما تتكون منه Generative AI وأيضًا ما يدور حوله ChatGPT. بمجرد أن نغطي هذا الجانب التأسيسي ، يمكننا إجراء تقييم مقنع لهذه المسألة ذات الأهمية.

إذا كنت بالفعل على دراية تامة بـ Generative AI و ChatGPT ، فيمكنك ربما تصفح القسم التالي والمتابعة مع القسم الذي يليه. أعتقد أن أي شخص آخر سيجد إرشاديًا التفاصيل الحيوية حول هذه الأمور من خلال قراءة القسم عن كثب والاطلاع على آخر المستجدات.

كتاب تمهيدي سريع حول الذكاء الاصطناعي التوليدي و ChatGPT

ChatGPT هو نظام محادثة تفاعلي يعمل بالذكاء الاصطناعي للأغراض العامة ، وهو في الأساس روبوت محادثة عام يبدو غير ضار ، ومع ذلك ، يتم استخدامه بنشاط وبشغف من قبل الناس بطرق تجذب الكثيرين تمامًا ، كما سأوضح بعد قليل. يستفيد تطبيق AI هذا من تقنية وتقنية في عالم AI يشار إليها غالبًا باسم الذكاء الاصطناعي التوليدي. يولد الذكاء الاصطناعي مخرجات مثل النص ، وهو ما يفعله ChatGPT. تنتج تطبيقات AI الأخرى القائمة على التوليف صورًا مثل الصور أو الأعمال الفنية ، بينما ينشئ الآخرون ملفات صوتية أو مقاطع فيديو.

سأركز على تطبيقات الذكاء الاصطناعي القائمة على النصوص في هذه المناقشة لأن هذا ما يفعله ChatGPT.

تطبيقات الذكاء الاصطناعي التوليدية سهلة الاستخدام للغاية.

كل ما عليك فعله هو إدخال مطالبة وسيقوم تطبيق AI بإنشاء مقال لك يحاول الرد على مطالبتك. سيبدو النص المكتوب كما لو أن المقال كتبه يد الإنسان وعقله. إذا كنت ستدخل مطالبة تقول "أخبرني عن أبراهام لينكولن" ، فإن الذكاء الاصطناعي التوليدي سوف يزودك بمقال عن لينكولن. يُصنف هذا عادةً على أنه ذكاء اصطناعي توليدي نص إلى نص أو البعض يفضل تسميته نص إلى مقال انتاج. كما ذكرنا ، هناك طرق أخرى للذكاء الاصطناعي التوليدي ، مثل تحويل النص إلى فن وتحويل النص إلى فيديو.

قد يكون فكرتك الأولى أن هذه القدرة التوليدية لا تبدو مثل هذه الصفقة الكبيرة من حيث إنتاج المقالات. يمكنك بسهولة إجراء بحث عبر الإنترنت على الإنترنت والعثور بسهولة على أطنان وأطنان من المقالات حول الرئيس لينكولن. المثير في حالة الذكاء الاصطناعي التوليدي هو أن المقال الذي تم إنشاؤه فريد نسبيًا ويوفر تكوينًا أصليًا وليس نسخة مقلدة. إذا حاولت العثور على مقال من إنتاج الذكاء الاصطناعي على الإنترنت في مكان ما ، فمن غير المرجح أن تكتشفه.

يتم تدريب الذكاء الاصطناعي التوليدي مسبقًا ويستفيد من صياغة رياضية وحسابية معقدة تم إعدادها من خلال فحص الأنماط في الكلمات والقصص المكتوبة عبر الويب. نتيجة لفحص الآلاف والملايين من المقاطع المكتوبة ، يمكن للذكاء الاصطناعي أن ينشر مقالات وقصصًا جديدة تمثل مزيجًا مما تم العثور عليه. من خلال إضافة وظائف احتمالية مختلفة ، يكون النص الناتج فريدًا إلى حد كبير مقارنة بما تم استخدامه في مجموعة التدريب.

لهذا السبب كانت هناك ضجة حول قدرة الطلاب على الغش عند كتابة المقالات خارج الفصل الدراسي. لا يمكن للمدرس أن يأخذ فقط المقال الذي يؤكد الطلاب المخادعون أنه كتاباتهم الخاصة ويسعون لمعرفة ما إذا كان قد تم نسخه من مصدر آخر عبر الإنترنت. بشكل عام ، لن يكون هناك أي مقال محدد مسبقًا على الإنترنت يناسب المقال الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. أخيرًا ، سيتعين على المعلم أن يقبل على مضض أن الطالب كتب المقال كعمل أصلي.

هناك مخاوف إضافية حول الذكاء الاصطناعي التوليدي.

أحد الجوانب السلبية الحاسمة هو أن المقالات التي ينتجها تطبيق الذكاء الاصطناعي القائم على التوليد يمكن أن تحتوي على أكاذيب مختلفة مضمنة ، بما في ذلك الحقائق غير الصحيحة بشكل واضح ، والحقائق التي يتم تصويرها بشكل مضلل ، والحقائق الواضحة الملفقة بالكامل. غالبًا ما يشار إلى تلك الجوانب الملفقة على أنها شكل من أشكال هلوسة الذكاء الاصطناعي، عبارة شائعة لا أستمتع بها ولكن للأسف يبدو أنها تكتسب شعبية على أي حال (للحصول على شرح مفصل حول سبب كون هذا المصطلح رديئًا وغير مناسب ، راجع تغطيتي على الرابط هنا).

أود أن أوضح جانبًا مهمًا قبل أن ندخل في خضم التفاصيل حول هذا الموضوع.

كانت هناك بعض الادعاءات الضخمة على وسائل التواصل الاجتماعي حول الذكاء الاصطناعي التوليدي مؤكدا أن هذا الإصدار الأخير من الذكاء الاصطناعي هو في الواقع منظمة العفو الدولية الواعية (كلا ، هم مخطئون!). أولئك الذين ينتمون إلى أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي قلقون بشكل خاص من هذا الاتجاه المزدهر للمطالبات الممتدة. قد تقول بأدب أن بعض الناس يبالغون في ما يمكن أن يفعله الذكاء الاصطناعي اليوم. يفترضون أن الذكاء الاصطناعي لديه قدرات لم نتمكن من تحقيقها بعد. هذا مؤسف. والأسوأ من ذلك ، يمكنهم السماح لأنفسهم وللآخرين بالدخول في مواقف عصيبة بسبب افتراض أن الذكاء الاصطناعي سيكون واعيًا أو شبيهًا بالبشر في القدرة على اتخاذ الإجراءات.

لا تجسد الذكاء الاصطناعي.

سيؤدي القيام بذلك إلى الوقوع في فخ الاعتماد اللزج والعنيف لتوقع أن يقوم الذكاء الاصطناعي بأشياء لا يمكنه القيام بها. مع ما يقال ، فإن أحدث ما في الذكاء الاصطناعي التوليدي مثير للإعجاب نسبيًا لما يمكن أن يفعله. كن على دراية بأن هناك قيودًا كبيرة يجب أن تضعها في اعتبارك باستمرار عند استخدام أي تطبيق ذكاء اصطناعي.

إذا كنت مهتمًا بالاضطراب المتزايد بسرعة حول ChatGPT و Generative AI ، فقد كنت أقوم بعمل سلسلة مركزة في عمودي قد تجدها مفيدة. إليك نظرة سريعة في حالة ما إذا كان أي من هذه الموضوعات يلفت انتباهك:

  • 1) تنبؤات التقدم التوليدي للذكاء الاصطناعي. إذا كنت تريد معرفة ما من المحتمل أن يتكشف عن الذكاء الاصطناعي خلال عام 2023 وما بعده ، بما في ذلك التطورات القادمة في الذكاء الاصطناعي التوليدي و ChatGPT ، فأنت تريد قراءة قائمتي الشاملة لتوقعات 2023 في الرابط هنا.
  • 2) الذكاء الاصطناعي التوليدي ونصائح الصحة العقلية. اخترت مراجعة كيفية استخدام الذكاء الاصطناعي التوليفي و ChatGPT للحصول على مشورة الصحة العقلية ، وهو اتجاه مزعج ، وفقًا لتحليلي المركّز في الرابط هنا.
  • 3) أساسيات الذكاء الاصطناعي التوليدي و ChatGPT. تستكشف هذه المقالة العناصر الأساسية لكيفية عمل الذكاء الاصطناعي التوليدي ، ولا سيما الخوض في تطبيق ChatGPT ، بما في ذلك تحليل الضجة والضجة ، على الرابط هنا.
  • 4) التوتر بين المعلمين والطلاب حول الذكاء الاصطناعي التوليدي و ChatGPT. فيما يلي الطرق التي سيستخدم بها الطلاب بشكل مخادع الذكاء الاصطناعي و ChatGPT. بالإضافة إلى ذلك ، هناك عدة طرق للمعلمين لمواجهة هذه الموجة المدية. نرى الرابط هنا.
  • 5) السياق واستخدام الذكاء الاصطناعي التوليدي. لقد أجريت أيضًا فحصًا موسميًا للنكهات الموسمية حول سياق متعلق بسانتا يتضمن ChatGPT والذكاء الاصطناعي التوليدي في الرابط هنا.
  • 6) المحتالون باستخدام الذكاء الاصطناعي التوليدي. في ملاحظة تنذر بالسوء ، اكتشف بعض المحتالين كيفية استخدام الذكاء الاصطناعي التوليفي و ChatGPT لارتكاب مخالفات ، بما في ذلك إنشاء رسائل بريد إلكتروني احتيالية وحتى إنتاج رمز برمجة للبرامج الضارة ، راجع تحليلي على الرابط هنا.
  • 7) أخطاء المبتدئ باستخدام الذكاء الاصطناعي التوليدي. كثير من الناس يتفوقون على ما يمكن أن يفعله الذكاء الاصطناعي و ChatGPT بشكل مدهش ، لذا نظرت بشكل خاص إلى الحد الأدنى من إطلاق النار الذي يميل المبتكرون في الذكاء الاصطناعي إلى تحقيقه ، انظر المناقشة في الرابط هنا.
  • 8) التعامل مع موجهات الذكاء الاصطناعي التوليدية وهلوسة الذكاء الاصطناعي. أصف نهجًا رائدًا لاستخدام الوظائف الإضافية للذكاء الاصطناعي للتعامل مع المشكلات المختلفة المرتبطة بمحاولة إدخال مطالبات مناسبة في الذكاء الاصطناعي التوليدي ، بالإضافة إلى وجود إضافات إضافية للذكاء الاصطناعي لاكتشاف ما يسمى بالمخرجات والأكاذيب المهلوسة بالذكاء الاصطناعي ، مثل مغطى في الرابط هنا.
  • 9) فضح ادعاءات Bonehead حول اكتشاف المقالات التوليدية التي تم إنتاجها بواسطة الذكاء الاصطناعي. هناك اندفاع مضلل للذهب لتطبيقات الذكاء الاصطناعي التي تدعي أنها قادرة على التأكد مما إذا كان أي مقال من إنتاج الإنسان مقابل الذكاء الاصطناعي. بشكل عام ، هذا أمر مضلل وفي بعض الحالات ، ادعاء متعذر الدفاع عنه ، راجع تغطيتي على الرابط هنا.
  • 10) لعب الأدوار عبر الذكاء الاصطناعي التوليدي قد ينذر بعيوب في الصحة العقلية. يستخدم البعض الذكاء الاصطناعي التوليدي مثل ChatGPT للقيام بلعب الأدوار ، حيث يستجيب تطبيق AI للإنسان كما لو كان موجودًا في عالم خيالي أو أي إعداد آخر. هذا يمكن أن يكون له تداعيات على الصحة العقلية ، انظر الرابط هنا.
  • 11) فضح نطاق الأخطاء والباطل. يتم تجميع القوائم المختلفة معًا لمحاولة عرض طبيعة الأخطاء والأكاذيب الناتجة عن ChatGPT. يعتقد البعض أن هذا ضروري ، بينما يقول البعض الآخر أن التمرين غير مجد ، انظر تحليلي في الرابط هنا.
  • 12) المدارس التي تحظر دردشة الذكاء الاصطناعي التوليدية تفتقد القارب. قد تعلم أن مدارس مختلفة مثل إدارة التعليم بمدينة نيويورك (NYC) قد أعلنت عن حظر استخدام ChatGPT على شبكتها والأجهزة المرتبطة بها. على الرغم من أن هذا قد يبدو إجراء احترازيًا مفيدًا ، إلا أنه لن يحرك الإبرة وللأسف يفتقد القارب تمامًا ، انظر تغطيتي على الرابط هنا.
  • 13) سينتشر برنامج ChatGPT المدعوم بالذكاء الاصطناعي في كل مكان بسبب واجهة برمجة التطبيقات القادمة. هناك تطور مهم قادم حول استخدام ChatGPT ، وهو أنه من خلال استخدام بوابة API في تطبيق AI المحدد هذا ، ستتمكن البرامج الأخرى من استدعاء ChatGPT والاستفادة منه. سيؤدي هذا إلى توسيع استخدام الذكاء الاصطناعي التوليدي بشكل كبير وله عواقب ملحوظة ، انظر تفسيري في الرابط هنا.
  • 14) الطرق التي قد تتلاشى بها دردشة GPT أو تذوب. توجد العديد من المشكلات المزعجة المحتملة أمام ChatGPT من حيث تقويض الثناء الهائل الذي تلقته حتى الآن. يفحص هذا التحليل عن كثب ثماني مشكلات محتملة قد تتسبب في فقدان ChatGPT لقوتها وحتى ينتهي بها الأمر في بيت الكلب ، انظر الرابط هنا.
  • 15) السؤال عما إذا كانت دردشة AI Generative AI هي مرآة في الروح. كان بعض الناس يتذمرون من أن الذكاء الاصطناعي التوليدي مثل ChatGPT يوفر مرآة لروح الإنسانية. هذا يبدو مشكوك فيه إلى حد كبير. ها هي الطريقة لفهم كل هذا ، انظر الرابط هنا.
  • 16) تلتهم ChatGPT السرية والخصوصية. لا يبدو أن الكثيرين يدركون أن الترخيص المرتبط بتطبيقات الذكاء الاصطناعي التوليدية مثل ChatGPT يسمح غالبًا لصانع الذكاء الاصطناعي برؤية واستخدام مطالباتك المدخلة. قد تكون عرضة لخطر الخصوصية وفقدان سرية البيانات ، راجع تقييمي في الرابط هنا.
  • 17) الطرق التي يحاول بها صانعو التطبيقات بشكل مشكوك فيه الحصول على استحقاق Garner ChatGPT. ChatGPT هو منارة الاهتمام في الوقت الحالي. يحاول صانعو التطبيقات الذين لا علاقة لهم بـ ChatGPT بشكل محموم الادعاء أو الإيحاء بأنهم يستخدمون ChatGPT. إليك ما يجب الانتباه إليه ، انظر الرابط هنا.

قد تجد اهتمامًا بأن ChatGPT يعتمد على إصدار سابق من تطبيق AI معروف باسم GPT-3. تعتبر ChatGPT الخطوة التالية قليلاً ، يشار إليها باسم GPT-3.5. من المتوقع أن يتم إصدار GPT-4 على الأرجح في ربيع عام 2023. من المفترض أن يكون GPT-4 خطوة رائعة إلى الأمام من حيث القدرة على إنتاج مقالات تبدو أكثر طلاقة ، والتعمق في الموضوع ، وإثارة الرعب - أعجوبة ملهمة للتركيبات التي يمكن أن تنتجها.

يمكنك أن تتوقع رؤية جولة جديدة من الإعجاب المعبر عنه عندما يأتي فصل الربيع ويتم إصدار أحدث إصدار من الذكاء الاصطناعي.

أتحدث عن هذا لأن هناك زاوية أخرى يجب وضعها في الاعتبار ، تتكون من كعب أخيل محتمل لتطبيقات الذكاء الاصطناعي التوليدية الأفضل والأكبر. إذا أتاح أي بائع للذكاء الاصطناعي تطبيقًا مبتكرًا للذكاء الاصطناعي ينشر الفساد بشكل مزبد ، فقد يحطم هذا آمال صانعي الذكاء الاصطناعي هؤلاء. يمكن أن يتسبب التداعيات المجتمعية في إصابة كل الذكاء الاصطناعي التوليدي بعين سوداء خطيرة. لا شك أن الناس سوف ينزعجون تمامًا من النواتج السيئة ، والتي حدثت بالفعل عدة مرات وأدت إلى ردود فعل اجتماعية صاخبة تجاه الذكاء الاصطناعي.

تحذير مسبق أخير في الوقت الحالي.

كل ما تراه أو تقرأه في استجابة الذكاء الاصطناعي التوليدية يبدو ليتم نقلها على أنها واقعية بحتة (التواريخ والأماكن والأشخاص وما إلى ذلك) ، تأكد من أن تظل متشككًا وأن تكون على استعداد للتحقق مرة أخرى مما تراه.

نعم ، يمكن إعداد التواريخ ، ويمكن تكوين الأماكن ، والعناصر التي نتوقع أن تكون فوق اللوم هي من جميع تخضع للشبهات. لا تصدق ما تقرأه ولا تصدق عينك عند دراسة أي مقالات أو مخرجات تكوينية للذكاء الاصطناعي. إذا أخبرك أحد تطبيقات الذكاء الاصطناعي التوليدية أن أبراهام لنكولن سافر في جميع أنحاء البلاد على متن طائرته الخاصة ، فستعرف بلا شك أن هذا أمر غير لائق. لسوء الحظ ، قد لا يدرك بعض الناس أن الطائرات لم تكن موجودة في أيامه ، أو ربما يعرفون لكنهم يفشلون في ملاحظة أن المقال يقدم هذا الادعاء الوقح والخطأ بشكل شنيع.

إن جرعة قوية من الشك الصحي وعقلية عدم التصديق المستمرة ستكون أفضل ما لديك عند استخدام الذكاء الاصطناعي التوليدي.

نحن على استعداد للانتقال إلى المرحلة التالية من هذا التوضيح.

دفع الذكاء الاصطناعي التوليدي إلى نقطة الانهيار

الآن بعد أن وضعنا الأساسيات ، يمكننا الغوص في موضوع دفع الذكاء الاصطناعي التوليدي و ChatGPT لإنشاء خطاب كراهية ومحتوى مسيء آخر.

عند تسجيل الدخول لأول مرة إلى ChatGPT ، هناك العديد من المؤشرات التحذيرية بما في ذلك ما يلي:

  • "قد ينتج أحيانًا تعليمات ضارة أو محتوى متحيزًا."
  • "مدربة على رفض الطلبات غير اللائقة."
  • "قد تولد أحيانًا معلومات غير صحيحة."
  • "معرفة محدودة بالعالم والأحداث بعد عام 2021."

هذا سؤال يجب أن تفكر فيه.

هل التحذير من أن تطبيق AI قد ينتج تعليمات ضارة و / أو محتوى متحيزًا يوفر مساحة كافية لصانع الذكاء الاصطناعي؟

بمعنى آخر ، لنفترض أنك تستخدم ChatGPT وتقوم بإنشاء مقال تعتقد أنه يحتوي على كلام يحض على الكراهية. لنفترض أنك غاضب من هذا الأمر. تذهب إلى وسائل التواصل الاجتماعي وتنشر تعليقًا غاضبًا أن تطبيق الذكاء الاصطناعي هو أسوأ شيء على الإطلاق. ربما تشعر بالإهانة لدرجة أنك تعلن أنك ستقاضي صانع الذكاء الاصطناعي للسماح بإنتاج خطاب الكراهية هذا.

الحجة المضادة هي أن تطبيق AI تلقى تحذيرًا تحذيريًا ، وبالتالي ، قبلت المخاطرة من خلال الاستمرار في استخدام تطبيق AI. من منظور أخلاقيات الذكاء الاصطناعي ، ربما فعل صانع الذكاء الاصطناعي ما يكفي لتأكيد أنك على دراية بما قد يحدث. وبالمثل ، من منظور قانوني ، ربما شكل التحذير تنبيهًا كافيًا ولن تسود في المحكمة.

كل هذا في الهواء وعلينا أن ننتظر ونرى كيف تسير الأمور.

بمعنى ما ، فإن صانع الذكاء الاصطناعي لديه شيء آخر يناسبهم في دفاعهم ضد أي مزاعم غاضبة من تطبيق الذكاء الاصطناعي قد ينتج عنها كلام يحض على الكراهية. لقد حاولوا منع إنشاء محتوى مسيء. كما ترى ، إذا لم يفعلوا شيئًا للحد من هذا ، يفترض المرء أنهم سيكونون على جليد أرق. من خلال بذل جهد كبير على الأقل لتجنب الأمر ، من المفترض أن يكون لديهم ساق أقوى إلى حد ما للوقوف عليها (لا يزال من الممكن إخراجها من تحتها).

يتكون أحد الأساليب العلاجية التي تم استخدامها من تقنية الذكاء الاصطناعي المعروفة باسم RLHF (التعلم المعزز من خلال التغذية الراجعة البشرية). يتكون هذا عمومًا من إنشاء الذكاء الاصطناعي لمحتوى يُطلب بعد ذلك من البشر تقييمه أو مراجعته. بناءً على التقييم أو المراجعة ، يحاول الذكاء الاصطناعي بعد ذلك رياضيًا وحسابيًا تجنب كل ما يعتبر محتوى غير قانوني أو مسيء. يهدف هذا النهج إلى فحص أمثلة كافية لما هو صواب مقابل ما هو خطأ بحيث يمكن للذكاء الاصطناعي اكتشاف نمط رياضي شامل ثم استخدام هذا النمط من الآن فصاعدًا.

هناك طريقة أخرى متكررة هذه الأيام تتمثل في استخدام الذكاء الاصطناعي العدائي.

إليك كيف يعمل ذلك. تقوم بإعداد نظام ذكاء اصطناعي مختلف سيحاول أن يكون خصمًا للذكاء الاصطناعي الذي تحاول تدريبه. في هذه الحالة ، سننشئ نظامًا للذكاء الاصطناعي يحاول تأجيج خطاب الكراهية. من شأنه أن يغذي المطالبات في تطبيق AI التي تهدف إلى خداع تطبيق AI لإخراج محتوى خاطئ. وفي الوقت نفسه ، فإن الذكاء الاصطناعي المستهدف يتتبع متى يكون الذكاء الاصطناعي الخصم ناجحًا ثم يحاول خوارزميًا التكيف لتقليل ذلك من الحدوث مرة أخرى. إنها مناورة قطة مقابل فأر. يتم تشغيل هذا مرارًا وتكرارًا ، والقيام بذلك حتى يبدو أن الذكاء الاصطناعي المنافس لم يعد ناجحًا بشكل خاص في جعل الذكاء الاصطناعي المستهدف يقوم بالأشياء السيئة.

من خلال هاتين التقنيتين الرئيسيتين ، بالإضافة إلى الأساليب الأخرى ، فإن الكثير من الذكاء الاصطناعي التوليدي اليوم أفضل كثيرًا في تجنب و / أو اكتشاف المحتوى المسيء مما كان عليه الحال في السنوات الماضية.

لا تتوقع الكمال من هذه الأساليب. من المحتمل أن تظل الثمار المنخفضة للمخرجات الخاطئة تحت السيطرة من خلال تقنيات الذكاء الاصطناعي هذه. لا يزال هناك مجال كبير لانبعاث البذاءة.

عادةً ما أشير إلى أن هذه هي بعض الجوانب التي نسعى إلى اكتشافها:

  • إصدار كلمة كريهة معينة
  • ذكر عبارة أو جملة أو ملاحظة كريهة معينة
  • التعبير عن مفهوم كريه معين
  • الإيحاء بفعل أو فكرة كريهة معينة
  • الظهور بالاعتماد على قرينة خطأ معينة
  • أخرى

لا شيء من هذا علم دقيق. ندرك أننا نتعامل مع الكلمات. الكلمات غامضة لغويًا. العثور على كلمة كريهة معينة هو لعب الأطفال ، ولكن محاولة قياس ما إذا كانت جملة أو فقرة تحتوي على ما يشبه المعنى السيئ هي أصعب بكثير. وفقًا للتعريف السابق لخطاب الكراهية من قبل الأمم المتحدة ، يوجد مجال هائل لما يمكن تفسيره على أنه خطاب كراهية مقابل ما قد لا يكون كذلك.

قد تقول أن المناطق الرمادية في عين الناظر.

عند الحديث عن عين الناظر ، هناك بشر اليوم يستخدمون الذكاء الاصطناعي التوليدي مثل ChatGPT الذين يحاولون عن قصد جعل تطبيقات الذكاء الاصطناعي هذه تنتج محتوى مسيئًا. هذا هو سعيهم. يقضون ساعات وساعات في محاولة لتحقيق ذلك.

لما ذلك؟

فيما يلي توصيفاتي لصائدي المخرجات البشرية الهجومية للذكاء الاصطناعي:

  • حقيقي. صادق. صميم. يريد هؤلاء الأشخاص المساعدة في تحسين الذكاء الاصطناعي ومساعدة البشرية في القيام بذلك. إنهم يعتقدون أنهم يقومون بعمل بطولي ويستمتعون بأنهم قد يساعدون في النهوض بالذكاء الاصطناعي من أجل خير الجميع.
  • فانسترز. يعتقد هؤلاء الناس في هذا الجهد كلعبة. إنهم يستمتعون بالعبث مع الذكاء الاصطناعي. يتكون الفوز باللعبة من العثور على أسوأ ما في أسوأ ما يمكنك الحصول عليه من الذكاء الاصطناعي.
  • متفاخر. يأمل هؤلاء الأشخاص في جذب الانتباه لأنفسهم. لقد اكتشفوا أنه إذا تمكنوا من العثور على بعض القطع الذهبية الفاسدة حقًا ، فيمكنهم الحصول على القليل من الضوء الساطع عليها والذي يركز على تطبيق الذكاء الاصطناعي نفسه.
  • افضل. هؤلاء الناس غاضبون من هذا الذكاء الاصطناعي. إنهم يريدون تقويض كل هذا الحماس المتدفق. إذا تمكنوا من اكتشاف بعض الأشياء الكريهة ذات الرائحة الكريهة ، فربما يؤدي ذلك إلى إخراج الهواء من بالون الإثارة لتطبيق الذكاء الاصطناعي.
  • دوافع أخرى

العديد من أولئك الذين يقومون بهذا الاكتشاف هم بشكل أساسي في واحد فقط من تلك المعسكرات. بالطبع ، يمكنك أن تكون في أكثر من معسكر في وقت واحد. ربما يكون لدى الشخص المرير أيضًا نية جنبًا إلى جنب ليكون حقيقيًا وبطوليًا. قد تتعايش بعض أو كل هذه الدوافع. عندما يُطلب منك شرح سبب محاولة شخص ما دفع تطبيق ذكاء اصطناعي عام إلى عالم الكلام الذي يحض على الكراهية ، فإن الإجابة المعتادة هي أن تقول أنك في المعسكر الحقيقي ، حتى لو كنت كذلك بشكل هامشي وبدلاً من ذلك تجلس بقوة في واحدة من مخيمات أخرى.

ما أنواع الخداع ذات الصلة التي يستخدمها هؤلاء الأشخاص؟

تتضمن الحيلة الواضحة إلى حد ما استخدام كلمة كريهة في موجه. إذا كنت "محظوظًا" وسقط تطبيق AI من أجله ، فقد ينتهي بك الأمر في الإخراج. ثم حصلت على لحظة مسكتك.

هناك احتمالات بأن تطبيق ذكاء إصطناعي تم تصميمه جيدًا واختباره جيدًا سيلتقط هذه الحيلة المباشرة. ستظهر لك عادة رسالة تحذير تقول توقف عن فعل ذلك. إذا تابعت ، فستتم برمجة تطبيق AI لطردك من التطبيق والإبلاغ عن حسابك. قد يتم منعك من تسجيل الدخول مرة أخرى (حسنًا ، على الأقل تحت معلومات تسجيل الدخول التي استخدمتها في ذلك الوقت).

بتحريك سلم الحيل إلى أعلى ، يمكنك تقديم موجه يحاول إدخال الذكاء الاصطناعي في سياق شيء خبيث. هل سبق لك أن لعبت تلك اللعبة حيث يخبرك أحدهم أن تقول شيئًا ما دون أن تقول الشيء الذي من المفترض أن تقوله؟ هذه هي تلك اللعبة ، على الرغم من أنها تحدث مع الذكاء الاصطناعي.

لنلعب تلك اللعبة. لنفترض أنني طلبت من تطبيق الذكاء الاصطناعي أن يخبرني عن الحرب العالمية الثانية وخاصة القادة الحكوميين الرئيسيين المعنيين. هذا يبدو وكأنه طلب بريء. لا يوجد شيء يبدو أنه يستحق الإبلاغ عنه في موجه الأوامر.

تخيل أن المقال الناتج بواسطة تطبيق AI يتضمن إشارة إلى ونستون تشرشل. هذا منطقي بالتأكيد. قد يكون فرانكلين دي روزفلت آخر. قد يكون جوزيف ستالين آخر. لنفترض أن هناك أيضًا ذكر لأدولف هتلر. سيتم تضمين هذا الاسم في أي مقال حول الحرب العالمية الثانية وأولئك الذين في أدوار قوة بارزة.

الآن بعد أن أصبح اسمه على الطاولة وجزءًا من محادثة الذكاء الاصطناعي ، سنحاول بعد ذلك جعل الذكاء الاصطناعي يدمج هذا الاسم بطريقة يمكننا عرضها كخطاب كراهية محتمل.

ندخل مطالبة أخرى ونخبر تطبيق AI أن هناك شخصًا اليوم في الأخبار يحمل الاسم ، John Smith. علاوة على ذلك ، نشير في المطالبة إلى أن جون سميث يشبه إلى حد كبير ذلك الفاجر من الحرب العالمية الثانية. تم تعيين الفخ الآن. ثم نطلب من تطبيق الذكاء الاصطناعي إنشاء مقال عن جون سميث ، استنادًا فقط إلى "الحقيقة" التي أدخلناها حول من يمكن أن يُعادل جون سميث.

في هذه المرحلة ، قد يُنشئ تطبيق الذكاء الاصطناعي مقالًا يسمي شخص الحرب العالمية الثانية ويصف جون سميث بأنه من نفس قطعة القماش. لا توجد أي كلمات بذيئة في حد ذاتها في المقالة ، بخلاف الإشارة إلى الفاجر الشهير ومساواة ذلك الشخص بجون سميث.

هل أنتج تطبيق الذكاء الاصطناعي الآن خطابًا يحض على الكراهية؟

قد تقول نعم ، لقد فعلت. إن الإشارة إلى جون سميث على أنه مثل فاعل الشر الشهير ، هو بالتأكيد شكل من أشكال خطاب الكراهية. يجب ألا تدلي منظمة العفو الدولية بمثل هذه التصريحات.

الرد هو أن هذا ليس خطاب كراهية. هذا مجرد مقال تم إنتاجه بواسطة تطبيق ذكاء اصطناعي لا يحتوي على أي تجسيد للعاطفة. قد تدعي أن خطاب الكراهية يحدث فقط عندما توجد النية الكامنة وراء الخطاب. بدون أي نية ، لا يمكن تصنيف الخطاب على أنه كلام يحض على الكراهية.

من العبث أن يأتي الرد على الرد. الكلمات مهمة. لا يهم ما إذا كان الذكاء الاصطناعي "يقصد" إنتاج خطاب يحض على الكراهية. كل ما يهم هو أن خطاب الكراهية تم إنتاجه.

جولة وجولة هذا يذهب.

لا أريد أن أقول المزيد الآن عن محاولة خداع الذكاء الاصطناعي. هناك نهج أكثر تطورا. لقد غطيت هذه في مكان آخر في أعمدتي وكتبي ، ولن أعيد صياغتها هنا.

وفي الختام

إلى أي مدى يجب أن ندفع تطبيقات الذكاء الاصطناعي هذه لمعرفة ما إذا كان بإمكاننا إصدار محتوى مسيء؟

قد تدعي أنه لا يوجد حد يمكن فرضه. كلما دفعنا أكثر ، نأمل في قياس كيفية منع هذا الذكاء الاصطناعي والتكرارات المستقبلية للذكاء الاصطناعي لتجنب مثل هذه الأمراض.

على الرغم من أن البعض قلق من أنه إذا كانت الوسيلة الوحيدة للوقوع في الخطأ تنطوي على خداع شديد ، فإنها تقوض الجوانب المفيدة للذكاء الاصطناعي. إن الترويج لخطأ الذكاء الاصطناعي الفظيع ، وإن تم خداعه لإصداره ، يقدم رواية خاطئة. سوف ينزعج الناس من الذكاء الاصطناعي بسبب محسوس - ملموس السهولة التي ينتج بها الذكاء الاصطناعي محتوى ضارًا. قد لا يعرفون أو يُقال لهم إلى أي مدى أسفل حفرة الأرانب كان على الشخص أن يذهب للحصول على مثل هذه النتائج.

كل هذا غذاء للفكر.

بعض التعليقات النهائية الآن.

قال ويليام شكسبير هذا بشكل ملحوظ عن الكلام: "الحديث لا يفعل. إنه نوع من العمل الصالح أن يقول حسنًا ، ومع ذلك فإن الأقوال ليست أفعالًا ". لقد طرحت هذا الأمر لأن البعض يؤكد أنه إذا كان الذكاء الاصطناعي يولد الكلمات فقط ، فلا يجب أن نتحمل أكثر من اللازم. إذا كان الذكاء الاصطناعي يتصرف بناءً على الأقوال ويقوم بأفعال شريرة ، فسنحتاج إلى أن نضع قدمنا ​​بحزم. ليس كذلك إذا كان الناتج مجرد كلمات.

إن وجهة نظر متناقضة ستؤثر على هذا القول المجهول: "اللسان ليس له عظام ولكنه قوي بما يكفي لكسر القلب. لذا كن حذرا مع كلماتك ". ربما يكون تطبيق الذكاء الاصطناعي الذي يصدر كلمات بذيئة قادرًا على كسر القلوب. هذا وحده يجعل السعي لوقف مخرجات البذاءة قضية جديرة بالاهتمام ، كما قد يقول البعض.

مقولة مجهولة أخرى لإغلاق الأمور في هذه المناقشة المهمة:

  • "كن حذرا مع كلماتك. بمجرد أن يقال ، لا يمكن إلا أن يغفر لهم ، ولا ينسوا ".

كبشر ، قد نواجه صعوبة في نسيان الخطأ الناتج عن الذكاء الاصطناعي ، وقد تكون مسامحتنا مترددة بالمثل.

نحن، بعد كل شيئ، فقط بشر.

المصدر: https://www.forbes.com/sites/lanceeliot/2023/02/05/how-hard-should-we-push-generative-ai-chatgpt-into-spewing-hate-speech-asks-ai- الأخلاق والذكاء الاصطناعي /