إليك كيف يخطط OpenAI لتطهير ChatGPT من المعلومات الخاطئة

أعلنت شركة OpenAI في 31 مايو عن جهودها لتعزيز قدرات حل المشكلات الرياضية في ChatGPT ، بهدف تقليل حالات هلوسة الذكاء الاصطناعي (AI). أكدت شركة OpenAI على تخفيف الهلوسة كخطوة حاسمة نحو تطوير الذكاء الاصطناعي العام المتوافق.

في مارس ، أدى طرح أحدث إصدار من ChatGPT ، GPT-4 ، إلى دفع الذكاء الاصطناعي إلى الاتجاه السائد. ومع ذلك ، تصارع روبوتات الدردشة المُنشئة للذكاء الاصطناعي منذ فترة طويلة مع الدقة الواقعية ، وتنتج أحيانًا معلومات خاطئة ، يشار إليها عادةً باسم "الهلوسة". تم الإعلان عن الجهود المبذولة للحد من هذه الهلوسة الخاصة بالذكاء الاصطناعي من خلال منشور على موقع الويب الخاص بهم.

تشير هلوسة الذكاء الاصطناعي إلى الحالات التي تولد فيها أنظمة الذكاء الاصطناعي مخرجات غير صحيحة من الناحية الواقعية أو مضللة أو غير مدعومة ببيانات العالم الحقيقي. يمكن أن تظهر هذه الهلوسة بأشكال مختلفة ، مثل توليد معلومات خاطئة ، أو اختلاق أحداث أو أشخاص غير موجودة ، أو تقديم تفاصيل غير دقيقة حول موضوعات معينة.

أجرى OpenAI بحثًا لفحص فعالية نوعين من التغذية الراجعة - "الإشراف على النتائج" و "الإشراف على العملية". يتضمن الإشراف على النتائج التغذية الراجعة بناءً على النتيجة النهائية ، بينما يوفر الإشراف على العملية مدخلات لكل خطوة في سلسلة فكرية. قامت OpenAI بتقييم هذه النماذج باستخدام مسائل الرياضيات ، وإنشاء حلول متعددة واختيار الحل الأعلى مرتبة وفقًا لكل نموذج ملاحظات.

بعد تحليل شامل ، وجد فريق البحث أن الإشراف على العملية أسفر عن أداء فائق حيث شجع النموذج على الالتزام بعملية وافق عليها الإنسان. في المقابل ، ثبت أن الإشراف على النتائج أكثر صعوبة للتدقيق باستمرار.

أدركت OpenAI أن الآثار المترتبة على الإشراف على العملية تمتد إلى ما هو أبعد من الرياضيات ، ومن الضروري إجراء مزيد من التحقيق لفهم آثارها في المجالات المختلفة. وأعربت عن احتمالية أنه إذا كانت النتائج المرصودة صحيحة في سياقات أوسع ، فإن الإشراف على العملية يمكن أن يقدم مزيجًا إيجابيًا من الأداء والمواءمة مقارنة بالإشراف على النتائج. لتسهيل البحث ، أصدرت الشركة علنًا مجموعة البيانات الكاملة للإشراف على العملية ، ودعوة الاستكشاف والدراسة في هذا المجال.

هذا الموضوع ذو علاقة بـ: طلب الذكاء الاصطناعي يقذف Nvidia لفترة وجيزة إلى نادي بقيمة 1 تريليون دولار

على الرغم من أن OpenAI لم تقدم حالات صريحة دفعت إلى التحقيق في الهلوسة ، إلا أن حدثين حديثين يمثلان المشكلة في سيناريوهات الحياة الواقعية.

في حادثة وقعت مؤخرًا ، أقر المحامي ستيفن إيه شوارتز في قضية ماتا ضد شركة Avianca Airlines بالاعتماد على برنامج المحادثة كمورد بحثي. ومع ذلك ، تبين أن المعلومات التي قدمتها ChatGPT ملفقة تمامًا ، مما يسلط الضوء على المشكلة المطروحة.

إن ChatGPT من OpenAI ليس المثال الوحيد لأنظمة الذكاء الاصطناعي التي تواجه الهلوسة. فحصت منظمة العفو الدولية من Microsoft ، أثناء عرض لتقنية chatbot الخاصة بها في مارس ، تقارير الأرباح وتوصلت إلى أرقام غير دقيقة لشركات مثل Gap و Lululemon.

مجلة: يراهن 25 ألف متداول على اختيارات الأسهم في ChatGPT ، ويمتص الذكاء الاصطناعي عند رميات النرد ، وأكثر من ذلك

المصدر: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information