أخلاقيات الذكاء الاصطناعي والتلقيح النفسي الناجم عن الذكاء الاصطناعي لمساعدة البشر في التعامل مع المعلومات المضللة

ما الذي سنفعله حيال الكم الهائل من المعلومات المضللة والمعلومات المضللة؟

كل شيء يزداد سوءًا بشكل واضح ، مع مرور كل يوم.

ربما يمكن للذكاء الاصطناعي (AI) أن ينقذنا. نعم ، هذا صحيح ، قد نتمكن من تسخير الاستخدامات المفيدة للذكاء الاصطناعي للتعامل مع تسونامي الذي لا هوادة فيه من المعلومات المضللة والمعلومات المضللة. قد يكون من الحكمة أن نحاول القيام بذلك. يبدو أن كل طريق من طرق الحل المحتمل يستحق السعي وراءه.

جانبا ، أود أن أقر وأشير على الفور إلى أن الذكاء الاصطناعي سوف يفعل بلا شك أيضا أن تكون جزءًا من المشكلة أيضًا. ليس هناك شك في أن البشر يمكنهم بسهولة الاستفادة من الذكاء الاصطناعي لتوليد معلومات مضللة ومعلومات مضللة. علاوة على ذلك ، يمكن استخدام الذكاء الاصطناعي بشكل خفي لجعل المعلومات المضللة والمعلومات المضللة تبدو صحيحة بشكل مثير للدهشة وتخدع البشر للاعتقاد بأن المعلومات المقدمة دقيقة وحقيقية بشكل مذهل. وجه حزين بلا ريب مما يجلبه الذكاء الاصطناعي إلى الطاولة. سنعود إلى هذا اللغز السلبي في نهاية هذه المناقشة.

في الوقت الحالي ، دعنا نضع وجوهنا المبتسمة ونستكشف كيف يفيد الذكاء الاصطناعي في جلب المعلومات المضللة والمعلومات الخاطئة إلى ركبتيه الأقوياء. سيكون أحد التيار الخفي المهم هو أن كل هذا يتوافق مع العناصر الحيوية لأخلاقيات الذكاء الاصطناعي. تغطية عمودي لأخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي مستمرة وشاملة ، بما في ذلك الرابط هنا و الرابط هنا، على سبيل المثال لا الحصر.

ضع في اعتبارك هذه الطرق الأساسية التي يمكن أن يكون فيها الذكاء الاصطناعي حليفًا مفيدًا بشكل خاص في الحرب على المعلومات المضللة والمعلومات المضللة:

  • توقف عند Get-Go: يمكن استخدام الذكاء الاصطناعي للكشف عن المعلومات المضللة والمعلومات المضللة ومحاولة التخلص منها قبل أن تصبح سائبة
  • التصفية قبل المشاهدة: يمكن استخدام الذكاء الاصطناعي لتصفية المعلومات المضللة والمعلومات الخاطئة حتى لا تقلق بشأن رؤيتها
  • جهزك لتكون محصنًا: يمكن استخدام الذكاء الاصطناعي لتعزيز استعدادك وقدرتك على التعامل مع المعلومات المضللة والمعلومات الخاطئة (المعروفة رسميًا إلى حد ما بأنها توفر نوعًا من التلقيح النفسي)
  • أخرى

تستلزم النقطة الأولى المدرجة في القائمة محاولة إيقاف المعلومات المضللة والمعلومات المضللة في أقرب وقت ممكن ، قبل وصول المحتوى إلى العالم.

هذا هو نهج إشكالية للغاية. قد يجادل البعض بصوت عالٍ بأن هذه قد تكون محاولة من الأخ الأكبر لقمع حرية التعبير. إلى أي مدى يمكن أن يذهب هذا الذكاء الاصطناعي؟ هل يمكن أن يمنع الناس من التعبير عن آرائهم بحرية؟ يمكن أن يصبح هذا بشكل مخيف منحدرًا زلقًا للذكاء الاصطناعي ليصبح في النهاية أسوأ كابوس للنتائج الشريرة التي بدأت ببراءة بأحسن النوايا.

أنا متأكد من أنك حصلت على الصورة.

النقطة الثانية أكثر اعتدالًا وتقترح أنه يمكننا استخدام الذكاء الاصطناعي لتصفية المحتوى لنا.

قد يكون لديك روبوت عامل تصفية AI يقوم بمسح جميع موجزات البيانات الواردة من مختلف الأخبار والمصادر الأخرى. تم تصميم الذكاء الاصطناعي للقبض على أي معلومات مضللة أو معلومات خاطئة تتناسب مع معاييرك الشخصية. وبالتالي ، في مثل هذا السيناريو ، فإن الوضع ليس رقابة الأخ الأكبر. أنت تتحكم في الذكاء الاصطناعي وكيف تقوم بتصفية البريد الوارد الحقيقي للمعلومات نيابة عنك.

يبدو جيدا.

على الرغم من وجود بعض المخاوف الجديرة بالملاحظة.

على سبيل المثال ، نحن بالفعل مستقطبون بشكل كبير في وجهات نظرنا وهذا الاستخدام للذكاء الاصطناعي قد يجعل هذا الاستقطاب أعمق وأكثر قتامة. تخيل أنه مع هذا الذكاء الاصطناعي اللامع الذي يعمل بدون توقف على مدار الساعة ، لن تحتاج أبدًا إلى رؤية جزء صغير من المعلومات التي صنفتها على أنها معلومات مضللة ومضللة محتملة. يكاد يكون من المؤكد الآن أن تظل منظورك المستقطب كما هي. طوال اليوم وكلما سعيت لإلقاء نظرة على المعلومات التي تنتظر انتباهك ، يتم دائمًا تحديدها مسبقًا بالكامل ، ولا توجد فرصة لإلقاء نظرة خاطفة على ما يسمى بالتضليل والمعلومات المضللة.

أقول أن المعلومات المضللة والمعلومات الخاطئة يمكن أن تكون كذلك ما يسمى لأن هناك قدرًا هائلاً من الجدل حول ما يشكل في الواقع معلومات مضللة ومعلومات مضللة. يصر بعض النقاد على أن هناك أساسًا مطلقًا للتحقق من المعلومات المضللة وما هو التضليل. هناك صواب وخطأ. يمكن حساب كل شيء دون أن نخطئ في أن شيئًا ما هو معلومات مضللة أو معلومات مضللة.

لا يرى الجميع الأشياء على أنها واضحة تمامًا.

يُقال أن التباين الثنائي المنفصل عن بعضها البعض الذي يُضرب به المثل هو إطار عقل مضلل. قد لا يتم اعتبار المعلومات المضللة لشخص ما معلومات مضللة لشخص آخر. وبالمثل بشأن المعلومات الخاطئة. التأكيد هو أن المعلومات المضللة والمعلومات الخاطئة تتراوح من حيث الطبيعة والحجم. محاولة تصنيف جميع المعلومات بشكل نهائي إلى كومة واحدة أو أخرى أصعب بكثير مما يوحي به التلويح باليد.

الجوهر هو أن النقطة الثانية حول استخدام الذكاء الاصطناعي كآلية تصفية لها مفاضلاتها. ليس هناك شك في أن الذكاء الاصطناعي سيتم استخدامه بشكل متزايد لهذا الاستخدام. في الوقت نفسه ، نحتاج إلى أن نضع في اعتبارنا التحديات التي سيبرزها الذكاء الاصطناعي في المقدمة. الذكاء الاصطناعي كمرشح للمعلومات المضللة والمعلومات الخاطئة ليس رصاصة فضية أو ضربة قاضية.

يأخذنا هذا إلى النقطة الثالثة ، وهي إمكانية استخدام الذكاء الاصطناعي لجعل البشر أفضل في التعامل مع المعلومات المضللة والمعلومات المضللة.

أشك في أنك ربما سمعت الكثير عن هذه الطريقة الثالثة لاستخدام الذكاء الاصطناعي في هذا السياق. لقد بدأت للتو في الظهور. أنت الآن في طليعة شيء من المحتمل أن ينمو ويتم استخدامه تدريجيًا. يرجى العلم أنه مع اتساع هذه الشعبية ، فإن الجدل حول ما إذا كان نهجًا مناسبًا سيصبح واضحًا للغاية.

جزء من المشكلة هو أن الذكاء الاصطناعي يتم استخدامه إلى حد ما فيما قد يشير إليه البعض بطريقة مهينة لعب ألعاب العقل مع البشر.

يبدو أن هذا أمر ينذر بالسوء.

يقودنا هذا أيضًا إلى عالم أخلاقيات الذكاء الاصطناعي.

كل هذا يتعلق أيضًا بالمخاوف الناشئة بشكل رصين بشأن الذكاء الاصطناعي اليوم وخاصة استخدام التعلم الآلي والتعلم العميق كشكل من أشكال التكنولوجيا وكيفية استخدامها. كما ترى ، هناك استخدامات لـ ML / DL تميل إلى تضمين الذكاء الاصطناعي من قبل عامة الناس ، معتقدين أو يختارون افتراض أن ML / DL هو إما ذكاء اصطناعي واعي أو قريب منه (ليس كذلك). بالإضافة إلى ذلك ، يمكن أن يحتوي ML / DL على جوانب مطابقة الأنماط الحسابية غير المرغوب فيها أو غير اللائقة تمامًا أو غير القانونية من الناحية الأخلاقية أو القانونية.

قد يكون من المفيد أولاً توضيح ما أعنيه عند الإشارة إلى الذكاء الاصطناعي بشكل عام وتقديم نظرة عامة موجزة عن التعلم الآلي والتعلم العميق. هناك قدر كبير من الالتباس حول ما يشير إليه الذكاء الاصطناعي. أود أيضًا أن أقدم لكم مبادئ أخلاقيات الذكاء الاصطناعي ، والتي ستكون جزءًا لا يتجزأ بشكل خاص من بقية هذا الخطاب.

ذكر السجل حول الذكاء الاصطناعي

دعنا نتأكد من أننا على نفس الصفحة حول طبيعة الذكاء الاصطناعي اليوم.

لا يوجد أي ذكاء اصطناعي واعي اليوم.

ليس لدينا هذا.

لا نعرف ما إذا كان الذكاء الاصطناعي الواعي سيكون ممكنًا. لا أحد يستطيع أن يتنبأ بجدارة بما إذا كنا سنحقق ذكاءً اصطناعيًا واعيًا ، ولا ما إذا كان الذكاء الاصطناعي الواعي سينشأ بطريقة ما بأعجوبة تلقائيًا في شكل مستعر أعظم معرفي حسابي (يشار إليه عادةً باسم التفرد ، انظر تغطيتي على الرابط هنا).

ندرك أن الذكاء الاصطناعي اليوم غير قادر على "التفكير" بأي شكل من الأشكال على قدم المساواة مع التفكير البشري. عندما تتفاعل مع Alexa أو Siri ، قد تبدو قدرات المحادثة شبيهة بالقدرات البشرية ، لكن الحقيقة هي أنها حسابية وتفتقر إلى الإدراك البشري. استفاد أحدث عصر من الذكاء الاصطناعي بشكل مكثف من التعلم الآلي والتعلم العميق ، مما يعزز مطابقة الأنماط الحسابية. وقد أدى ذلك إلى ظهور أنظمة ذكاء اصطناعي تشبه ميول الإنسان. وفي الوقت نفسه ، لا يوجد أي ذكاء اصطناعي اليوم يشبه الفطرة السليمة وليس لديه أي من التعجب المعرفي للتفكير البشري القوي.

جزء من المشكلة هو ميلنا إلى تجسيد أجهزة الكمبيوتر وخاصة الذكاء الاصطناعي. عندما يبدو أن نظام الكمبيوتر أو الذكاء الاصطناعي يتصرفان بطرق نربطها بالسلوك البشري ، فهناك دافع كبير تقريبًا لإسناد الصفات البشرية إلى النظام. إنه فخ عقلي شائع يمكن أن ينتزع حتى أكثر المشككين عنادًا بشأن فرص الوصول إلى الشعور.

إلى حد ما ، هذا هو السبب في أن أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي موضوع بالغ الأهمية.

تدفعنا مبادئ أخلاقيات الذكاء الاصطناعي إلى توخي اليقظة. يمكن أن ينشغل تقنيو الذكاء الاصطناعي في بعض الأحيان بالتكنولوجيا ، لا سيما تحسين التكنولوجيا الفائقة. إنهم لا يفكرون بالضرورة في التداعيات المجتمعية الأكبر. إن امتلاك عقلية أخلاقية للذكاء الاصطناعي والقيام بذلك بشكل متكامل لتطوير الذكاء الاصطناعي وإدارته أمر حيوي لإنتاج الذكاء الاصطناعي المناسب ، بما في ذلك تقييم كيفية اعتماد الشركات لأخلاقيات الذكاء الاصطناعي.

إلى جانب استخدام مبادئ أخلاقيات الذكاء الاصطناعي بشكل عام ، هناك سؤال مماثل عما إذا كان ينبغي أن تكون لدينا قوانين تحكم الاستخدامات المختلفة للذكاء الاصطناعي. يجري تداول قوانين جديدة على المستويات الفيدرالية والولائية والمحلية التي تتعلق بنطاق وطبيعة كيفية ابتكار الذكاء الاصطناعي. إن الجهد المبذول لصياغة وسن مثل هذه القوانين هو جهد تدريجي. تُعد أخلاقيات الذكاء الاصطناعي بمثابة حل مؤقت مدروس ، على أقل تقدير ، ومن المؤكد تقريبًا إلى حد ما أن يتم دمجها بشكل مباشر في تلك القوانين الجديدة.

اعلم أن البعض يجادل بقوة بأننا لسنا بحاجة إلى قوانين جديدة تغطي الذكاء الاصطناعي وأن قوانيننا الحالية كافية. لقد حذروا من أننا إذا قمنا بسن بعض قوانين الذكاء الاصطناعي هذه ، فسوف نقتل الأوزة الذهبية من خلال تضييق الخناق على التطورات في الذكاء الاصطناعي التي تقدم مزايا مجتمعية هائلة. انظر على سبيل المثال تغطية بلدي في الرابط هنا.

في الأعمدة السابقة ، قمت بتغطية مختلف الجهود الوطنية والدولية لصياغة وسن القوانين المنظمة للذكاء الاصطناعي ، انظر الرابط هنا، فمثلا. لقد قمت أيضًا بتغطية مختلف المبادئ والمبادئ التوجيهية لأخلاقيات الذكاء الاصطناعي التي حددتها الدول المختلفة واعتمدتها ، بما في ذلك على سبيل المثال جهود الأمم المتحدة مثل مجموعة اليونسكو لأخلاقيات الذكاء الاصطناعي التي اعتمدتها ما يقرب من 200 دولة ، انظر الرابط هنا.

فيما يلي قائمة مفيدة ومفيدة لمعايير أو خصائص الذكاء الاصطناعي الأخلاقية المتعلقة بأنظمة الذكاء الاصطناعي التي قمت باستكشافها عن كثب سابقًا:

  • الشفافية
  • العدل والإنصاف
  • غير مؤذ
  • مسؤوليتنا
  • سياسة
  • الإحسان
  • الحرية والاستقلالية
  • الثقة
  • الاستدامة
  • كرامة
  • تضامن

من المفترض أن يتم استخدام مبادئ أخلاقيات الذكاء الاصطناعي هذه بجدية من قبل مطوري الذكاء الاصطناعي ، جنبًا إلى جنب مع أولئك الذين يديرون جهود تطوير الذكاء الاصطناعي ، وحتى أولئك الذين يقومون في نهاية المطاف بتدبير أنظمة الذكاء الاصطناعي وتنفيذها. يُنظر إلى جميع أصحاب المصلحة طوال دورة حياة الذكاء الاصطناعي الكاملة للتطوير والاستخدام في نطاق الالتزام بالمعايير الراسخة للذكاء الاصطناعي الأخلاقي. يعد هذا أمرًا مهمًا نظرًا لأن الافتراض المعتاد هو أن "المبرمجين فقط" أو أولئك الذين يبرمجون الذكاء الاصطناعي يخضعون للالتزام بمفاهيم أخلاقيات الذكاء الاصطناعي. كما تم التأكيد سابقًا في هذا المستند ، يتطلب الأمر من القرية ابتكار واستخدام الذكاء الاصطناعي ، ومن أجل ذلك يجب أن تكون القرية بأكملها على دراية بمبادئ أخلاقيات الذكاء الاصطناعي والالتزام بها.

دعونا نبقي الأمور على أرض الواقع ونركز على الذكاء الاصطناعي غير الحسابي اليوم.

ML / DL هو شكل من أشكال مطابقة الأنماط الحسابية. النهج المعتاد هو أن تقوم بتجميع البيانات حول مهمة اتخاذ القرار. تقوم بتغذية البيانات في نماذج الكمبيوتر ML / DL. تسعى هذه النماذج إلى إيجاد أنماط رياضية. بعد العثور على مثل هذه الأنماط ، إذا تم العثور عليها ، سيستخدم نظام الذكاء الاصطناعي تلك الأنماط عند مواجهة بيانات جديدة. عند تقديم بيانات جديدة ، يتم تطبيق الأنماط المستندة إلى البيانات "القديمة" أو التاريخية لتقديم القرار الحالي.

أعتقد أنه يمكنك تخمين إلى أين يتجه هذا. إذا كان البشر الذين يتخذون نمطًا بناءً على القرارات قد قاموا بدمج تحيزات غير مرغوب فيها ، فإن الاحتمالات هي أن البيانات تعكس هذا بطرق خفية ولكنها مهمة. سيحاول التعلم الآلي أو مطابقة الأنماط الحسابية للتعلم العميق ببساطة محاكاة البيانات رياضيًا وفقًا لذلك. لا يوجد ما يشبه الفطرة السليمة أو الجوانب الواعية الأخرى للنمذجة المصممة بالذكاء الاصطناعي في حد ذاتها.

علاوة على ذلك ، قد لا يدرك مطورو الذكاء الاصطناعي ما يحدث أيضًا. قد تجعل الرياضيات الغامضة في ML / DL من الصعب اكتشاف التحيزات الخفية الآن. كنت تأمل وتتوقع بحق أن مطوري الذكاء الاصطناعي سيختبرون التحيزات المدفونة ، على الرغم من أن هذا أكثر تعقيدًا مما قد يبدو. توجد فرصة قوية أنه حتى مع إجراء اختبارات مكثفة نسبيًا ، لا تزال هناك تحيزات مضمنة في نماذج مطابقة الأنماط في ML / DL.

يمكنك إلى حد ما استخدام القول المأثور الشهير أو سيئ السمعة من القمامة في القمامة. الشيء هو ، هذا أقرب إلى التحيزات - التي يتم غرسها بشكل خبيث على أنها تحيزات مغمورة داخل الذكاء الاصطناعي. تصبح عملية اتخاذ القرار الخوارزمية (ADM) للذكاء الاصطناعي بشكل بديهي محملة بعدم المساواة.

غير جيد.

أعتقد أنني أعددت المسرح الآن لمناقشة دور الذكاء الاصطناعي بشكل كافٍ كوسيلة لتحفيز التلقيح النفسي المتعلق بالتعامل مع المعلومات المضللة والمعلومات المضللة.

الدخول في عقول البشر

لنبدأ بالأساسيات أو الأساسيات الكامنة وراء المعلومات الخاطئة والمعلومات المضللة.

بشكل عام ، تشير المعلومات الخاطئة إلى معلومات خاطئة أو مضللة.

المعلومات المضللة هي نفسها تقريبًا على الرغم من أنها تتكون من العنصر الإضافي لـ نية. عادة ما نفسر المعلومات على أنها معلومات مضللة عندما تكون هي المعلومات معد للتضليل.

قد أخبرك أن الساعة العاشرة ليلاً حاليًا ، ولنقل أنها خاطئة لأن الوقت هو منتصف الليل حقًا. إذا كنت قد أخبرتك الساعة العاشرة صباحًا كأنني حدس ولم أكن أحاول أن أكون مخادعًا ، فسنقول عادةً إنني قد ضللتك. لقد نقلت معلومات خاطئة. ربما كنت كسولًا أو ربما اعتقدت حقًا أن الساعة العاشرة صباحًا. من ناحية أخرى ، إذا كنت قد ذكرت الساعة العاشرة صباحًا لأنني أردت عن قصد خداعك للاعتقاد بأن الوقت كان الساعة العاشرة وأنني كنت أعرف أن الوقت كان في الواقع منتصف الليل ، فيمكن أن يقال إن هذا شكل من أشكال التضليل .

أحد الجوانب البارزة للمعلومات بشكل عام هو أننا قادرون عادةً على الانتشار حول المعلومات وبالتالي يمكن أن تنتشر المعلومات إلى حد ما. يمكن أن تتدفق المعلومات حقًا مثل الماء ، بمعنى واسع.

اقول لكم انها العاشرة ليلاً. لديك الآن قطعة معينة من المعلومات. قد تصرخ بصوت عالٍ لمجموعة من الأشخاص القريبين منك أن الساعة العاشرة ليلاً. لديهم الآن نفس المعلومات أيضًا. ربما يدخل بعض هؤلاء الأشخاص هواتفهم المحمولة ويتصلون بأشخاص آخرين لإخبارهم أن الساعة العاشرة صباحًا. بشكل عام ، يمكن نشر المعلومات أو مشاركتها وأحيانًا يتم ذلك بسرعة بينما يتم ذلك ببطء في حالات أخرى.

بمعنى ما ، يمكنك القول أن المعلومات يمكن أن تنتشر بسرعة.

هناك كلمة أو مصطلحات مصقولة ربما لم تكن قد شاهدتها أو استخدمتها بشكل خاص تساعد في وصف ظاهرة انتشار المعلومات هذه ، فالكلمة هي انفوسمي. هذه الكلمة هي مزيج من المعلومات وكونها وباء. بشكل عام ، يرتبط مرض المعلومات بالظروف التي تنطوي على انتشار معلومات مضللة أو معلومات مضللة. الفكرة هي أن المعلومات الخاطئة أو المضللة يمكن أن تنتشر بشكل غير مرغوب فيه ، على غرار الانتشار غير المرغوب فيه للأمراض أو الأمراض.

في مثال الساعة العاشرة ليلاً ، كانت هذه الحقيقة الظاهرة عبارة عن معلومة تم نشرها لمجموعة قريبة من الأشخاص. هم بدورهم ينشرون الحقيقة للآخرين. إذا كانت الساعة العاشرة صباحًا مزيفة ، فقد انتشر هذا المثال المحدد للتضليل أو المعلومات المضللة إلى كثيرين آخرين. قد لا يعرفون أن المعلومات كانت معلومات مضللة أو ربما معلومات مضللة.

أنا على ثقة من أن كل هذه التعريفات والأساسيات تبدو معقولة وأنت على متنها حتى الآن.

عظيم ، دعنا نكمل.

لقد قادتك خلسة إلى حد ما إلى شيء يشغل قدرًا كبيرًا من الانبهار والقلق أيضًا. الجوهر هو أنه يمكن القول إن هناك تشابهات سليمة بشكل معقول بين ما تفعله الأمراض فيروسيًا وما تفعله المعلومات الخاطئة أو المعلومات المضللة فيروسيًا.

لا يتفق الجميع مع هذه التشابهات المزعومة. ومع ذلك ، فهي مثيرة للاهتمام وجديرة بالاهتمام.

اسمح لي بالتفصيل.

كما ترى ، يمكننا أن نحاول الاستفادة من القياس العملي للإشارة إلى الأمراض التي يحملها الإنسان والأمراض التي تنتشر ، وذلك لمقارنة احتمال مماثل بانتشار المعلومات المضللة والمعلومات المضللة. لمحاولة وقف انتشار الأمراض ، يمكننا أن نهدف إلى الكشف المبكر والسعي لاحتواء نقطة مصدر مريضة ناشئة لانتشار المرض المحتمل. هناك طريقة أخرى للتعامل مع مرض منتشر تتمثل في الوقاية من الإصابة به عن طريق الاستخدام الحكيم لارتداء قناع أو معدات واقية. يمكن أن تتكون الطريقة الثالثة من أخذ اللقاحات لمحاولة بناء مناعتك المتعلقة بالمرض.

لقد وصلنا الآن إلى دائرة كاملة من حيث أن تلك الأساليب نفسها للتعامل مع الأمراض يمكن تشبيهها صراحةً بالتعامل مع المعلومات المضللة والمعلومات المضللة. ذكرت سابقًا أن هناك جهودًا مماثلة جارية لتوظيف الذكاء الاصطناعي لأغراض محاولة التعامل مع المعلومات المضللة والمعلومات المضللة ، ولا سيما (كما ذكرنا سابقًا):

  • توقف عند Get-Go: يمكن استخدام الذكاء الاصطناعي للكشف عن المعلومات المضللة والمعلومات المضللة ومحاولة التخلص منها قبل أن تصبح سائبة
  • التصفية قبل المشاهدة: يمكن استخدام الذكاء الاصطناعي لتصفية المعلومات المضللة والمعلومات الخاطئة حتى لا تقلق بشأن رؤيتها
  • جهزك لتكون محصنًا: يمكن استخدام الذكاء الاصطناعي لتعزيز استعدادك وقدرتك على التعامل مع المعلومات المضللة والمعلومات الخاطئة (المعروفة رسميًا إلى حد ما بأنها توفر نوعًا من التلقيح النفسي)
  • أخرى

سيكون الجانب الثالث هو الأكثر أهمية هنا.

ها هي الصفقة.

نحن نعلم أن الأمراض عادة ما تصيب جسم الإنسان. من خلال القياس على كيفية حدوث المعلومات المضللة والمعلومات المضللة ، يمكننا أن نقترح أن المعلومات الكاذبة تنتشر في العقل البشري. نعم ، من المفترض أن تتعامل مع معلومات مضللة أو معلومات مضللة تتدفق إلى ذهنك. من المحتمل أن تفسد المعلومات المضللة أو المعلومات المضللة طريقة تفكيرك أو تسممها.

يمكن تطعيم جسم الإنسان لمحاولة الاستعداد لمواجهة الأمراض. يطرح سؤال كبير حول ما إذا كان بإمكاننا فعل الشيء نفسه للعقل البشري. هل من الممكن محاولة تلقيح العقل بحيث عندما تتبادر إلى ذهنك معلومات مضللة أو معلومات مضللة تكون جاهزًا لها ويتم تلقيحها وفقًا لذلك؟

مجال الدراسة المعروف باسم التلقيح النفسي يفترض أنه يمكن بالفعل تلقيح العقل بمعنى الاستعداد للتعامل مع المعلومات المضللة أو المعلومات المضللة.

ضع في اعتبارك هذا الوصف في دراسة بحثية حديثة تتعلق بالتلقيح النفسي وما يسمى أحيانًا بالفعل التجهيز المسبق:

  • إن دحض المعلومات الخاطئة يمثل مشكلة أيضًا لأن تصحيح المعلومات الخاطئة لا يؤدي دائمًا إلى إبطال آثارها تمامًا ، وهي ظاهرة تُعرف باسم تأثير التأثير المستمر. وبناءً على ذلك ، وعلى النقيض من فضح الزيف ، فقد اكتسبت عملية الإعداد المسبق مكانة بارزة كوسيلة لبناء المرونة بشكل استباقي ضد التعرض المتوقع للمعلومات المضللة. عادة ما يرتكز هذا النهج على نظرية التلقيح. تتبع نظرية التلقيح تشبيهًا بالتحصين الطبي وتفترض أنه من الممكن بناء مقاومة نفسية ضد محاولات الإقناع غير المرغوب فيها ، تمامًا مثل التطعيمات الطبية التي تبني مقاومة فسيولوجية ضد مسببات الأمراض "(علم السلف، 24 أغسطس 2022 ، "التلقيح النفسي يحسن المرونة ضد المعلومات المضللة على وسائل التواصل الاجتماعي" للمؤلفين المشاركين جون روزينبيك ، وساندر فان دير ليندن ، وبيث جولدبيرج ، وستيف راثجي ، وستيفان ليفاندوفسكي).

بالعودة إلى المثال الذي قدمته حول الساعة العاشرة ليلاً ، افترض أنني قد أخبرتك سابقًا أن الوقت المعلن في بعض الأحيان ليس هو الوقت الفعلي. من الآن فصاعدًا لديك شكل من أشكال التطعيم يجب أن تكون حذرًا من الأوقات المزعومة. لقد أعدك هذا التطعيم للتواصل مع الأوقات المزعومة التي تعتبر معلومات مضللة أو معلومات خاطئة.

إذا كنت قد حذرتك منذ عدة سنوات من أن الأوقات المزعومة ليست أوقاتًا فعلية ، فهناك احتمال ألا تفكر في هذا التحذير منذ فترة طويلة. وبالتالي ، فإن التطعيم السابق (يجب أن نقول) قد تلاشى. قد تحتاج إلى تعزيز التطعيم الخاص بي.

هناك أيضًا احتمال أن التطعيم لم يكن محددًا بما يكفي لاستخدامه عند الحاجة. إذا كنت قد حذرتك منذ سنوات بشأن الأوقات المزعومة مقابل الأوقات الفعلية ، فقد يكون ذلك مفرطًا في العمومية. قد لا يعمل التلقيح في الحالة المحددة لإخبارك حوالي الساعة 10 صباحًا. بهذا المعنى ، ربما كان من المفترض أن يكون تلقيحي هو أنه يجب أن تكون حذرًا عند استخدام الساعة 10 صباحًا. بالطبع ، التطعيمات في حالة الأمراض هي نفسها إلى حد ما ، وفي بعض الأحيان تكون محددة جدًا للأمراض المعروفة بينما تكون في حالات أخرى واسعة النطاق.

تعتبر الدراسة البحثية التي يُستشهد بها كثيرًا والتي أجريت في عام 1961 حول التلقيح النفسي من قبل ويليام ماكجواير من جامعة كولومبيا ، بشكل عام ، دراسة كلاسيكية في هذا المجال من الدراسة. قد تجد هذه النقاط الرئيسية التي أثارها في ذلك الوقت مثيرة للاهتمام:

  • "يمكن أن ينشأ مثل هذا التحصين المعمم من أي من الآليتين. قد يؤدي التعرض المسبق إلى صدمة الشخص لإدراك أن "الحقائق البديهية" التي كان يتقبلها دائمًا ضعيفة بالفعل ، مما يحفزه على تطوير دفاع عن معتقده ، مما يؤدي إلى أنه أكثر مقاومة للحجج المضادة القوية عندما تأتي. وبدلاً من ذلك ، فإن الدحض الذي ينطوي عليه التعريض المسبق قد يجعل جميع الحجج المضادة المقدمة لاحقًا ضد الاعتقاد تبدو أقل إثارة للإعجاب "(William McGuire ،" مقاومة الإقناع الممنوحة من قبل الدحض المسبق النشط والسلبي للحجج المضادة نفسها والبديلة "، مجلة Abnormal and علم النفس الاجتماعي ، 1961).

هل تجد هذا التشبيه بين التطعيمات والتحصين مقارنة مفيدة ومناسبة لعالم التضليل والمعلومات المضللة؟

البعض يفعل، والبعض الآخر لا.

لأغراض هذه المناقشة ، يرجى قبول أن الافتراض معقول ومناسب.

كيف نحاول تلقيح أو تحصين عقول الناس؟

يمكننا أن نجعل الناس يقرؤون الكتب التي قد تنير عقولهم. قد نخبرهم بذلك ، أو نجعلهم يشاهدون مقاطع الفيديو أو يستمعون إلى الأشرطة الصوتية. إلخ.

وقد نستخدم الذكاء الاصطناعي لفعل الشيء نفسه.

قد يتم تصميم نظام ذكاء اصطناعي ليكون لقاحك. عندما تبدأ في الاتصال بالإنترنت مثل النظر إلى الإنترنت ، قد يعدك تطبيق قائم على الذكاء الاصطناعي لرحلتك عبر الإنترنت. قد يغذيك الذكاء الاصطناعي بكمية صغيرة جدًا من المعلومات المضللة المصنفة على هذا النحو ، مما يسمح لك بإدراك أنك على وشك رؤية شيء خاطئ عن قصد.

عند التعرض لهذه المعلومات المضللة المدعومة بالذكاء الاصطناعي ، يصبح عقلك الآن جاهزًا للتعامل مع المعلومات المضللة أو المعلومات المضللة التي قد تواجهها في البرية على الإنترنت. لقد تم تجهيز عقلك. Voila ، ترى مدونة على الإنترنت تقدم حقيقة مزعومة مفادها أن كائنات فضائية من المريخ موجودة بالفعل على الأرض وتختبئ على مرأى من الجميع ، لكن هذه المعلومات المضللة أو المعلومات المضللة يرفضها عقلك بسهولة بسبب التطعيم المسبق (حسنًا ، ثم مرة أخرى ، ربما يكون الأمر صريحًا وهم هنا حقًا!).

على أي حال ، آمل أن تكون قادرًا على تمييز الآن كيف يمكن للذكاء الاصطناعي أن يساعد في تلقيح أو تحصين البشر فيما يتعلق بالمعلومات المضللة أو المعلومات المضللة.

يتم ابتكار العديد من تطبيقات الذكاء الاصطناعي التي ستعمل كمعلومات مضللة أو محصنات معلومات مضللة. قد يسعى الذكاء الاصطناعي إلى توفير لقاح واسع النطاق ويوفر مظهرًا عامًا للتحصين. يمكن أيضًا تصميم الذكاء الاصطناعي لأشكال أكثر تحديدًا من التلقيح. علاوة على ذلك ، يمكن أن يعمل الذكاء الاصطناعي على أساس شخصي يتم ضبطه وفقًا لاحتياجاتك أو اهتماماتك الخاصة. سيحاول الذكاء الاصطناعي المتقدم في هذا الفضاء أيضًا تحديد مستوى التحمل ومعدل الامتصاص العقلي والقدرة على الاحتفاظ وعوامل أخرى عند تكوين وتقديم ما يسمى بلقطات التحصين ، كما كانت.

يبدو مفيدًا جدًا.

منظمة العفو الدولية كلاعب ألعاب العقل الخطير

سيبدو الذكاء الاصطناعي المستخدم بهذه الطريقة للوهلة الأولى مفيدًا جدًا (مرحبًا ، لقد ذكرت ذلك قبل ثانية فقط).

هناك عدد كبير من الجوانب السلبية المحتملة والمشاكل المقلقة وربما المخيفة.

في أعمدتي ، غالبًا ما أناقش قدرات الاستخدام المزدوج للذكاء الاصطناعي ، انظر على سبيل المثال الرابط هنا. يمكن أن يكون الذكاء الاصطناعي مساهماً حيوياً للبشرية. للأسف ، فإن الذكاء الاصطناعي محاصر أيضًا بالكثير من المخاطر والمزالق المؤسفة.

بالنسبة لحالة الذكاء الاصطناعي كغراس ، فلننظر إلى هذه القضايا التوضيحية المتعلقة بأخلاقيات الذكاء الاصطناعي:

  • ردود الفعل السلبية من قبل البشر
  • ردود الفعل غير المستجيبة من قبل البشر
  • الاستهداف الخاطئ لمنظمة العفو الدولية
  • نقص الاستهداف بالذكاء الاصطناعي
  • الخرق الإلكتروني لمنظمة العفو الدولية
  • أخرى

سوف نستكشف هذه المخاوف بإيجاز.

ردود الفعل السلبية من قبل البشر

افترض أن الإنسان الذي يتلقى هذا النوع من التطعيم المستند إلى الذكاء الاصطناعي له رد فعل سلبي أو ينتج عنه تأثير سلبي.

قد يخطئ الشخص في فهم التحصين ويصبح فجأة غير متقبل لأي معلومات يتلقونها. يحجبون كل المعلومات. لقد دفعهم الذكاء الاصطناعي بطريقة ما إلى رمي الطفل بماء الحمام (قول مأثور ، ربما يستحق التقاعد). بدلاً من محاولة التعامل مع المعلومات المضللة والمعلومات الخاطئة فقط ، كان رد فعل الشخص هو تقرير أن جميع المعلومات خاطئة دائمًا.

لا أعتقد أننا نريد أن يذهب الناس إلى هذا الحد.

هناك العديد من ردود الفعل السلبية التي قد يعززها الذكاء الاصطناعي. يرجع هذا جزئيًا إلى الطريقة التي حاولت بها منظمة العفو الدولية إجراء التلقيح ، ولكن علينا أيضًا وضع جزء من المشكلة عند قدمي الإنسان الذي تلقى التطعيم. ربما كانوا قد تفاعلوا بطرق جامحة أو غريبة أن الآخرين الذين يتلقون نفس التلقيح بالذكاء الاصطناعي لم يفعلوا ذلك.

مرة أخرى ، يمكنك تشبيه هذا بتشبيه التطعيمات للأمراض.

باختصار ، سيكون من المهم عند استخدام جهود الذكاء الاصطناعي هذه ، أن يتم تنفيذها بطرق مسؤولة تسعى إلى تقليل الآثار الضارة. يجب أن يكون هناك أيضًا جانب متابعة للذكاء الاصطناعي لمحاولة التأكد مما إذا كان قد حدث رد فعل سلبي. إذا كان هناك رد فعل سلبي تم اكتشافه ، فيجب تصميم الذكاء الاصطناعي لمحاولة مساعدة الشخص في استجابته السلبية والسعي للتغلب على الاستجابة أو تخفيفها.

ردود الفعل غير المستجيبة من قبل البشر

الاحتمال الآخر هو أن التطعيم الذي يتم تغذيته بالذكاء الاصطناعي ليس له أي تأثير على الشخص المتلقي.

يحصل الشخص على تلقيح قائم على الذكاء الاصطناعي فيما يتعلق بالمعلومات الخاطئة أو المعلومات المضللة. في حين أن معظم الناس "يحصلون عليها" ويصبحون محصنين ، لا بد أن يكون هناك أشخاص لن يتفاعلوا على الإطلاق. إنهم لا يتعلمون شيئًا من التلقيح. إنهم لا يستجيبون لمحاولة الذكاء الاصطناعي في تحصينهم ضد جميع أنواع المعلومات المضللة أو التضليل أو بعضها.

مرة أخرى ، هذا يشبه التطعيمات للأمراض.

يجب تصميم الذكاء الاصطناعي للتعامل مع مثل هذا الظرف.

الذكاء الاصطناعي الخاطئ

تخيل أن منظمة العفو الدولية تأمل في تحصين الناس فيما يتعلق بموضوع معين سنقوله هو الموضوع X ، ولكن اتضح أن الموضوع Y تمت تغطيته بدلاً من ذلك. الذكاء الاصطناعي يخطئ في الاستهداف.

هذه مشكلة ذات شقين. أولاً ، لم يتم بعد ذلك تغطية الموضوع X باعتباره الغرض المفترض والمأمول من مُلقيح الذكاء الاصطناعي. ثانيًا ، تمت تغطية الموضوع "ص" ولكننا ربما لم نرغب في تحصين الأشخاص بشأن هذا الموضوع.

عفوا.

أسئلة كثيرة. هل كان من الممكن منع حدوث ذلك؟ إذا حدث ذلك ، فهل يمكننا التراجع عن موضوع التحصين Y؟ هل يمكننا السعي لتغطية موضوع X التلقيح ، أم سيكون الشخص أقل تقبلاً أو غير تقبُّل بسبب الاستهداف الخاطئ من قبل الذكاء الاصطناعي في الأصل؟

تنشأ الكثير من المخاوف الإشكالية.

الذكاء الاصطناعي تحت الاستهداف

يوفر الذكاء الاصطناعي تلقيحًا حول الموضوع Z. يبدو أن الأشخاص الذين يتلقون التطعيم لديهم رد فعل ضئيل أو يكاد يكون ضئيلًا. التطعيم لم يكن كافيا لترسيخ.

قد تميل إلى الادعاء بسرعة أن هذا يمكن حله بسهولة. كل ما عليك فعله هو تكرار التطعيم. ربما نعم ، ربما لا.

قد يكون التلقيح بالذكاء الاصطناعي ذا قيمة محدودة لدرجة أنه بغض النظر عما إذا كان لديك أشخاص يختبرونه مائة مرة ، فإن النتيجة لا تزال نتيجة هامشية. قد تحتاج إلى زيادة التطعيم بدلاً من تكراره ببساطة.

في هذه الأثناء ، تخيل أن هناك محاولة لتعزيز التلقيح الذي يغذيه الذكاء الاصطناعي ولكن هذا يذهب إلى البحر. النسخة المعززة تسبب ردود فعل مفرطة. عذرًا ، لقد أتينا من سيء إلى أسوأ.

الخرق السيبراني لمنظمة العفو الدولية

تخيل أن الذكاء الاصطناعي يتم استخدامه على نطاق واسع لمساعدة الناس في تلقيحهم من المعلومات المضللة والمعلومات المضللة.

الاعتماد العام يسيطر عليه الناس. إنهم يعلمون ويتوقعون أن الذكاء الاصطناعي سوف يقدم لهم مقتطفات تفتح أعينهم على ما يعرف بالتضليل والمعلومات المضللة.

كل شيء على ما يرام وجيد ، على ما يبدو.

الفاعل الشرير قادر بطريقة ما على القيام باختراق إلكتروني للذكاء الاصطناعي. إنهم يجبرون سرا على الذكاء الاصطناعي بعض المعلومات المضللة المرغوبة التي يريدون من الناس أن يظنوا أنها ليست معلومات مضللة. تم ترتيب الذكاء الاصطناعي لجعل المعلومات المضللة الفعلية تبدو على أنها معلومات حقيقية. بالإضافة إلى ذلك ، فإن المعلومات الحقيقية تظهر على أنها معلومات مضللة.

الناس يتلألأون تمامًا. لقد تم تضليلهم من قبل منظمة العفو الدولية. علاوة على ذلك ، لأنهم أصبحوا معتمدين على الذكاء الاصطناعي ، وبسبب ثقتهم في أن الذكاء الاصطناعي كان يفعل الشيء الصحيح ، فقد وقعوا في الخطاف والخط والغرق بسبب هذا الذكاء الاصطناعي المخترق. بدون تردد.

بالنظر إلى مدى سهولة انتشار المعلومات المضللة ، قد يستمتع الفاعل الشرير بأن وجود هذا النوع من الذكاء الاصطناعي هو الطريقة الأسهل والأسرع لجعل أكاذيبهم الخبيثة تنتشر في جميع أنحاء العالم. ومن المفارقات ، بالطبع ، الاستفادة من مُلقح الذكاء الاصطناعي لنشر المرض بشكل أساسي.

وفي الختام

هل يجب أن يكون لدينا ذكاء اصطناعي يلعب ألعابًا ذهنية معنا؟

هل يمكن أن يكون الذكاء الإصطناعي للمعلومات المضللة وتلقيح المعلومات المضللة بمثابة حصان طروادة مهدد؟

يمكنك تقديم حجة موضوعية للقلق بشأن مثل هذا الكابوس.

آخرون يسخرون من مثل هذا الاحتمال. الناس أذكياء بما يكفي لمعرفة متى يحاول الذكاء الاصطناعي خداعهم. لن يقع الناس في مثل هذه المراوغة. فقط الحمقى سيخدعون أنفسهم من قبل مثل هذا الذكاء الاصطناعي. تلك هي الردود المعتادة والحجج المضادة.

لا أريد أن أبدو أقل من الإعجاب الكامل بالبشر والطبيعة البشرية ، أود فقط أن أقترح أن هناك مؤشرات كثيرة على أن البشر يمكن أن يقعوا في حب الذكاء الاصطناعي الذي يضللهم.

هناك قضية أكبر ربما تلوح في الأفق فوق كل هذا.

من الذي يصنع الذكاء الاصطناعي وكيف تقرر خوارزمية الذكاء الاصطناعي ما يعتبر معلومات مضللة ومعلومات خاطئة؟

تدور معركة كاملة اليوم في العالم بأسره حول ما يشكل على وجه التحديد معلومات مضللة ومعلومات مضللة. يؤكد البعض أن الحقائق هي حقائق ، وبالتالي لا يمكن أبدًا أن يكون هناك أي لبس حول ماهية المعلومات الصحيحة مقابل المعلومات غير الصحيحة. على الرغم من أن الشيطان يكمن في التفاصيل أحيانًا ، فهذا أمر مؤكد.

ملاحظة أخيرة الآن. قال أبراهام لنكولن مقولته الشهيرة: "يمكنك أن تخدع كل الناس في بعض الأوقات وبعضهم في كل وقت ، لكن لا يمكنك أن تخدع كل الناس طوال الوقت."

هل سيكون الذكاء الاصطناعي الذي يستخدم للمساعدة في تلقيح البشرية من المعلومات المضللة والمعلومات المضللة أداة حيوية لضمان عدم خداع جميع الناس طوال الوقت؟ أم يمكن استخدامه لخداع المزيد من الناس في كثير من الأحيان؟

الوقت سوف اقول.

وهذا بالتأكيد لا معلومات مضللة أو معلومات خاطئة.

المصدر: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/