هل الكشف عن تلك النواتج الخاطئة والهلوسة وتسجيلها للذكاء الاصطناعي يحقق أي فائدة ، ويسأل عن أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي

أنت في السر.

نعم ، هناك شيء ما يحدث خلسة وراء الكواليس حول أحدث ما في الذكاء الاصطناعي قد ترغب في معرفته.

في عمود اليوم ، سأفحص الدافع الأخير لتجميع الأخطاء المزعومة والأمراض الأخرى المرتبطة بالمقالات الناتجة من تطبيق AI المعروف باسم ChatGPT. يستخدم هذا التطبيق المعين نوعًا من الذكاء الاصطناعي يسمى الذكاء الاصطناعي التوليدي. ربما تكون قد سمعت أو شاهدت عناوين لافتة للنظر حول الذكاء الاصطناعي المستند إلى التوليد و ChatGPT. تتأرجح الأخبار حول هذا التطبيق المحدد للذكاء الاصطناعي والقدرات المذهلة على ما يبدو المتعلقة بهذا النوع من الذكاء الاصطناعي.

كما سأقوم بتغطية الأمر بعد قليل ، يعتقد البعض بقوة أننا بحاجة إلى إنشاء قائمة بأنواع الأخطاء أو الأخطاء التي يمكن أن ينتجها تطبيق الذكاء الاصطناعي عند إنشاء مقال لك. يقترح البعض الآخر أنه على الرغم من أن فكرة مثل هذه القائمة مثيرة للإعجاب ، إلا أنها ممارسة عبثية ولن تثمر سوى القليل جدًا.

سنقوم بفحص كلا جانبي هذا النقاش الحقد.

أولاً ، لنتأكد من أننا جميعًا على نفس الصفحة حول ما يتكون منه الذكاء الاصطناعي التوليفي وأيضًا ما يدور حوله ChatGPT.

ChatGPT هو نظام محادثة تفاعلي يعمل بالذكاء الاصطناعي للأغراض العامة ، وهو في الأساس روبوت محادثة عام يبدو غير ضار ، ومع ذلك ، يتم استخدامه بنشاط وبكل حماس من قبل الناس بطرق تجذب الكثيرين تمامًا. كل ما عليك القيام به لاستخدام هذا النوع من الذكاء الاصطناعي هو إدخال مطالبة وسيقوم تطبيق AI بإنشاء مقال لك يحاول الرد على مطالبتك.

لسوء الحظ ، يمكن استخدام هذا إلى حد ما إما بطرق غير أخلاقية أو ملتوية. من الأمور المزعجة بشكل خاص أنه يمكن للطلاب استخدام تطبيق AI قائم على التوليد لإنتاج مقالاتهم المخصصة لهم ، وذلك ببساطة عن طريق إدخال جملة أو اثنتين للحصول على التطبيق في الاتجاه الصحيح. يتأسف البعض لأن هذا يعني أن الطلاب سيختارون الغش عند كتابة المقالات خارج الفصل. يحاول المعلمون معرفة ما يجب القيام به ، والاطلاع على تحليلي وتوصياتي في الرابط هنا.

على الرغم من الضجيج المستمر للثناء الجدير بالثناء لـ ChatGPT ، هناك قلق أقل شهرة عبر عنه في المقام الأول المطلعون على الذكاء الاصطناعي من وجود بعض المشكلات والمخاوف الملحوظة التي يجب أن يقلق الناس بشأنها. أحد الجوانب السلبية الحاسمة هو أن المقالات التي ينتجها تطبيق الذكاء الاصطناعي هذا يمكن أن تحتوي على أكاذيب مختلفة مضمنة ، بما في ذلك الحقائق غير الصحيحة بشكل واضح ، والحقائق التي يتم تصويرها بشكل مضلل ، والحقائق الواضحة الملفقة بالكامل. غالبًا ما يشار إلى تلك الجوانب الملفقة على أنها شكل من أشكال هلوسة الذكاء الاصطناعي، عبارة مشهورة لا أحبها ولكن يبدو أنها تكتسب جذبًا شعبيًا للأسف على أي حال (للحصول على شرح مفصل حول سبب كون هذه المصطلحات رديئة وغير مناسبة ، راجع تغطيتي على الرابط هنا).

أود أن أوضح جانبًا مهمًا قبل أن ندخل في خضم التفاصيل حول هذا الموضوع.

كانت هناك بعض الادعاءات الضخمة على وسائل التواصل الاجتماعي الذكاء الاصطناعي التوليدي مؤكدا أن هذا الإصدار الأخير من الذكاء الاصطناعي هو في الواقع منظمة العفو الدولية الواعية (كلا ، هم مخطئون!). أولئك الذين ينتمون إلى أخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي قلقون بشكل خاص من هذا الاتجاه المزدهر للمطالبات الممتدة. قد تقول بأدب أن بعض الناس يبالغون في ما يمكن أن يفعله الذكاء الاصطناعي اليوم. يفترضون أن الذكاء الاصطناعي لديه قدرات لم نتمكن من تحقيقها بعد. هذا مؤسف. والأسوأ من ذلك ، يمكنهم السماح لأنفسهم وللآخرين بالدخول في مواقف عصيبة بسبب افتراض أن الذكاء الاصطناعي سيكون واعيًا أو شبيهًا بالبشر في القدرة على اتخاذ الإجراءات.

لا تجسد الذكاء الاصطناعي.

سيؤدي القيام بذلك إلى الوقوع في فخ الاعتماد اللزج والعنيف لتوقع أن يقوم الذكاء الاصطناعي بأشياء لا يمكنه القيام بها. مع ما يقال ، فإن أحدث ما في الذكاء الاصطناعي التوليدي مثير للإعجاب نسبيًا لما يمكن أن يفعله. كن على دراية بأن هناك قيودًا كبيرة يجب أن تضعها في اعتبارك باستمرار عند استخدام أي تطبيق ذكاء اصطناعي.

إذا كنت مهتمًا بالاضطراب المتزايد بسرعة حول ChatGPT و Generative AI ، فقد كنت أقوم بعمل سلسلة مركزة في عمودي قد تجدها مفيدة. إليك نظرة سريعة في حالة ما إذا كان أي من هذه الموضوعات يلفت انتباهك:

  • 1) تنبؤات التقدم التوليدي للذكاء الاصطناعي. إذا كنت تريد معرفة ما من المحتمل أن يتكشف عن الذكاء الاصطناعي خلال عام 2023 وما بعده ، بما في ذلك التطورات القادمة في الذكاء الاصطناعي التوليدي و ChatGPT ، فأنت تريد قراءة قائمتي الشاملة لتوقعات 2023 في الرابط هنا.
  • 2) الذكاء الاصطناعي التوليدي ونصائح الصحة العقلية. اخترت مراجعة كيفية استخدام الذكاء الاصطناعي التوليفي و ChatGPT للحصول على مشورة الصحة العقلية ، وهو اتجاه مزعج ، وفقًا لتحليلي المركّز في الرابط هنا.
  • 3) السياق واستخدام الذكاء الاصطناعي التوليدي. لقد أجريت أيضًا فحصًا موسميًا للنكهات الموسمية حول سياق متعلق بسانتا يتضمن ChatGPT والذكاء الاصطناعي التوليدي في الرابط هنا.
  • 4) المحتالون باستخدام الذكاء الاصطناعي التوليدي. في ملاحظة تنذر بالسوء ، اكتشف بعض المحتالين كيفية استخدام الذكاء الاصطناعي التوليفي و ChatGPT لارتكاب مخالفات ، بما في ذلك إنشاء رسائل بريد إلكتروني احتيالية وحتى إنتاج رمز برمجة للبرامج الضارة ، راجع تحليلي على الرابط هنا.
  • 5) أخطاء المبتدئ باستخدام الذكاء الاصطناعي التوليدي. كثير من الناس يتفوقون على ما يمكن أن يفعله الذكاء الاصطناعي و ChatGPT بشكل مدهش ، لذا نظرت بشكل خاص إلى الحد الأدنى من إطلاق النار الذي يميل المبتكرون في الذكاء الاصطناعي إلى تحقيقه ، انظر المناقشة في الرابط هنا.
  • 6) التعامل مع موجهات الذكاء الاصطناعي التوليدية وهلوسة الذكاء الاصطناعي. أصف نهجًا رائدًا لاستخدام الوظائف الإضافية للذكاء الاصطناعي للتعامل مع المشكلات المختلفة المرتبطة بمحاولة إدخال مطالبات مناسبة في الذكاء الاصطناعي التوليدي ، بالإضافة إلى وجود إضافات إضافية للذكاء الاصطناعي لاكتشاف ما يسمى بالمخرجات والأكاذيب المهلوسة بالذكاء الاصطناعي ، مثل مغطى في الرابط هنا.
  • 7) فضح ادعاءات Bonehead حول اكتشاف المقالات التوليدية التي تم إنتاجها بواسطة الذكاء الاصطناعي. هناك اندفاع مضلل للذهب لتطبيقات الذكاء الاصطناعي التي تدعي أنها قادرة على التأكد مما إذا كان أي مقال من إنتاج الإنسان مقابل الذكاء الاصطناعي. بشكل عام ، هذا أمر مضلل وفي بعض الحالات ، ادعاء متعذر الدفاع عنه ، راجع تغطيتي على الرابط هنا.
  • 8) لعب الأدوار عبر الذكاء الاصطناعي التوليدي قد ينذر بعيوب في الصحة العقلية. يستخدم البعض الذكاء الاصطناعي التوليدي مثل ChatGPT للقيام بلعب الأدوار ، حيث يستجيب تطبيق AI للإنسان كما لو كان موجودًا في عالم خيالي أو أي إعداد آخر. هذا يمكن أن يكون له تداعيات على الصحة العقلية ، انظر الرابط هنا.

دعنا الآن نناقش جوهر الذكاء الاصطناعي التوليدي و ChatGPT حتى تعرف الأسس المعنية. سنكون مستعدين بعد ذلك للقفز إلى تحليل استقصائي للأكاذيب التي يمكن أن تولدها تطبيقات الذكاء الاصطناعي هذه. سأقوم بتضمين العديد من الأمثلة على استخدام ChatGPT ، والتي ستساعدك بشكل ملموس على فهم طبيعة ما ينتجه هذا النوع من الذكاء الاصطناعي التوليدي.

فتح علبة الديدان على الذكاء الاصطناعي التوليدي

نحن على استعداد للتعمق في بعض التفاصيل حول الذكاء الاصطناعي.

إذا كنت بالفعل على دراية جيدة بموضوع الذكاء الاصطناعي التوليفي و ChatGPT ، فيمكنك اختيار استعراض نقاطي سريعًا والاستمرار في القسم التالي من هذه المناقشة. بالنسبة لأي شخص آخر ، أعتقد أنك قد تجد هذا التوضيح مفيدًا.

باختصار ، يعد الذكاء الاصطناعي التوليدي نوعًا معينًا من الذكاء الاصطناعي يؤلف نصًا كما لو أن النص مكتوب باليد والعقل البشري. كل ما عليك القيام به هو إدخال موجه ، مثل جملة مثل "أخبرني عن أبراهام لينكولن" وسيزودك الذكاء الاصطناعي التوليدي بمقال عن لينكولن. يُصنف هذا عادةً على أنه ذكاء اصطناعي توليدي نص إلى نص أو البعض يفضل تسميته نص إلى مقال انتاج. ربما تكون قد سمعت عن أنماط أخرى من الذكاء الاصطناعي التوليدي ، مثل تحويل النص إلى فن وتحويل النص إلى فيديو.

قد تكون فكرتك الأولى هي أن هذا لا يبدو مشكلة كبيرة من حيث إنتاج المقالات. يمكنك بسهولة إجراء بحث عبر الإنترنت على الإنترنت والعثور بسهولة على أطنان وأطنان من المقالات حول الرئيس لينكولن. المثير في حالة الذكاء الاصطناعي التوليدي هو أن المقال الذي تم إنشاؤه فريد نسبيًا ويوفر تكوينًا أصليًا وليس نسخة مقلدة. إذا حاولت العثور على مقال من إنتاج الذكاء الاصطناعي على الإنترنت في مكان ما ، فمن غير المرجح أن تكتشفه.

يتم تدريب الذكاء الاصطناعي التوليدي مسبقًا ويستفيد من صياغة رياضية وحسابية معقدة تم إعدادها من خلال فحص الأنماط في الكلمات والقصص المكتوبة عبر الويب. نتيجة لفحص الآلاف والملايين من المقاطع المكتوبة ، يمكن للذكاء الاصطناعي أن ينشر مقالات وقصصًا جديدة تمثل مزيجًا مما تم العثور عليه. من خلال إضافة وظائف احتمالية مختلفة ، يكون النص الناتج فريدًا إلى حد كبير مقارنة بما تم استخدامه في مجموعة التدريب.

لهذا السبب كانت هناك ضجة حول قدرة الطلاب على الغش عند كتابة المقالات خارج الفصل الدراسي. لا يمكن للمدرس أن يأخذ فقط المقال الذي يؤكد الطلاب المخادعون أنه كتاباتهم الخاصة ويسعون لمعرفة ما إذا كان قد تم نسخه من مصدر آخر عبر الإنترنت. بشكل عام ، لن يكون هناك أي مقال محدد مسبقًا على الإنترنت يناسب المقال الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. أخيرًا ، سيتعين على المعلم أن يقبل على مضض أن الطالب كتب المقال كعمل أصلي.

في غضون لحظة ، سأعرض لك ما يحدث عند إدخال أسئلة أو مطالبات في الذكاء الاصطناعي التوليدي. سأستخدم أحدث إصدار من ChatGPT لإدخال مطالباتي وجمع "الإجابات" أو المقالات التي تم إنشاؤها بواسطة AI (لاحظ أنه يمكن فعل الشيء نفسه مع العديد من تطبيقات AI التوليدية المتاحة ؛ لقد اخترت استخدام ChatGPT لأنه يحصل على خمس دقائق من الشهرة الآن).

ربما يكون الظل القصير حول ChatGPT مفيدًا في هذا المنعطف.

تم إتاحة تطبيق ChatGPT لعامة الناس قبل بضعة أشهر فقط. بشكل عام ، عادةً ما تكون تطبيقات الذكاء الاصطناعي التوليدية هذه متاحة فقط للمطلعين على الذكاء الاصطناعي. الوجه غير المعتاد الذي يمكن أن يستخدمه ChatGPT من قبل أي شخص بمجرد إدخال عنوان بريد إلكتروني واسم ، حسنًا ، أدى هذا إلى أن يقرر الكثير من الأشخاص تجربته. يعد ChatGPT حاليًا مجانيًا للاستخدام (مشكلة تحقيق الدخل هي معضلة تلوح في الأفق لصانعي الذكاء الاصطناعي).

على الفور تقريبًا ، كان هناك رد فعل هائل على وسائل التواصل الاجتماعي حيث تسابق الناس لإعطاء أمثلة على ما يمكن أن يفعله الذكاء الاصطناعي. اختارت الشركة التي تصنع ChatGPT ، OpenAI ، إغلاق عمليات التسجيل عند مليون مستخدم. تمكن هؤلاء المليون مستخدم من قصف موجات الأثير بكل أنواع القصص والحكايات حول استخدام ChatGPT.

كن حذرًا جدًا في تصديق ما يقوله الناس حول تطبيق الذكاء الاصطناعي. كثير من هؤلاء الناس جاهلون بما يستخدمونه. يبدو الأمر كما لو أنهم لم يقودوا سيارة مطلقًا ولم يدركوا حتى وجود سيارات ، وفجأة أتيحت لهم فرصة قيادة السيارة. الدهشة المطلقة تترتب على ذلك.

أنا لا أقول أن الذكاء الاصطناعي التوليدي ليس مثيرًا للإعجاب نسبيًا. أنه. أنا فقط أؤكد أن الكثير من الشهادات المتدفقة يتم إجراؤها من قبل العديد ممن لا يدركون بسعادة ما يمكن أن يفعله الذكاء الاصطناعي اليوم. أولئك منا في داخل الذكاء الاصطناعي يستخدمون الذكاء الاصطناعي التوليدي خلال السنوات العديدة الماضية. ربما اعتدنا على ذلك. فجأة ، كانت رؤية حشد كبير من الناس يروجون لها على أسطح المنازل تنشط بحماس ، ولكنها أيضًا مقلقة إلى حد ما. الجزء المقلق هو عندما يعلن الناس أن الذكاء الاصطناعي التوليدي واعي. ليس. لا تدع أي شخص يقنعك بخلاف ذلك.

ومع ذلك ، هناك نقاش ساخن مستمر في مجال الذكاء الاصطناعي حول ما إذا كان الذكاء الاصطناعي التوليدي على طريق الإحساس أو ربما لا يكون كذلك. تتمثل إحدى وجهات النظر في أننا إذا واصلنا توسيع نطاق الذكاء الاصطناعي التوليدي باستخدام أجهزة كمبيوتر أسرع وكمية أكبر من البيانات مثل البحث في كل شبر من الإنترنت ، فسنصل تلقائيًا تقريبًا إلى الذكاء الاصطناعي. يجادل آخرون بأن هذا أمر مستبعد للغاية. يقترحون أن الذكاء الاصطناعي التوليدي قد يكون أحد المكونات العديدة المطلوبة. حتى أن هناك وجهة نظر أكثر كآبة مفادها أن الذكاء الاصطناعي التوليدي هو عرض جانبي يصرف انتباهنا عن الاختراقات الحقيقية التي سنحتاجها لتحقيق الذكاء الاصطناعي الواعي.

قد تجد أيضًا جديرًا بالملاحظة أن المطلعين على الذكاء الاصطناعي يميلون إلى الرجوع إليه الذكاء العام الاصطناعي (AGI) كهدف طموح لمجال الذكاء الاصطناعي. كان من المعتاد أن يكون الهدف هو تحقيقه الذكاء الاصطناعي، لكن لقب الذكاء الاصطناعي أصبح مخففًا ومشوشًا. عندما يقول شخص ما أنه يقوم بعمل في مجال الذكاء الاصطناعي ، فأنت لا تعرف ما إذا كان يلمح إلى الذكاء الاصطناعي اليوم الذي لا يتساوى مع البشر أو ما إذا كان يشير إلى معادلة بشرية مستقبلية للذكاء الاصطناعي. للتغلب على هذا الارتباك المثير للسخط ، يتم استخدام الصياغة الأحدث لـ AGI هذه الأيام.

أخيرًا ، فإن الذكاء الاصطناعي التوليدي اليوم هو ليس حساس ، ولا ذكاء اصطناعي.

يرجى تذكر أنه كما تمت مناقشته سابقًا ، فإن الذكاء الاصطناعي ليس واعيًا. الاستجابات التي تم إنشاؤها بواسطة الذكاء الاصطناعي هي مزيج رياضي وحسابي من الكلمات في مقاطع تبدو بطلاقة. يعتمد هذا على خوارزمية الذكاء الاصطناعي التي تم تدريبها على مجموعات بيانات من الكلمات والقصص التي كتبها البشر (بشكل أساسي كما نُشر على الإنترنت). أكرر هذا التحذير لأنك ستقع بلا شك في الفخ العقلي الذي يجعل هذه الردود بطلاقة لدرجة أن الذكاء الاصطناعي يجب أن يكون واعيًا. هذا يحدث لمعظم الناس. كما تم حثه سابقًا ، ضع جانبًا هذا التجسيم. تذكر دائمًا أن الردود تستند إلى الكم الهائل من كتابات البشر الموجودة على الإنترنت ، وبالتالي ستشبه الكتابة البشرية إلى حد كبير.

هناك شيء آخر تحتاج إلى معرفته.

إن الذكاء الاصطناعي التوليدي الذي يتم تدريبه على الإنترنت بطريقة غير مقيدة سيميل إلى الخبز في أي استجابات تستند إلى النص ، يلفقها حسابيًا وحسابيًا بعض الأشياء الضبابية الهجومية ، بما في ذلك الصياغة البغيضة بشكل مثير للاشمئزاز. هناك الكثير من الأشياء المجنونة والقذرة المنشورة على شبكة الإنترنت.

لقد رأيت ذلك ، أنت تعرف ما أعنيه.

تشعر الشركات التي تصنع تطبيقات الذكاء الاصطناعي هذه بالقلق من أن الطفل الذي يضرب به المثل سوف يلقى بمياه الاستحمام (قول مأثور قديم ، ربما يتقاعد) ، مما يعني أنه إذا أنتج الذكاء الاصطناعي الخاص بهم مقالات أو قصصًا مسيئة ، فإن الناس سيرتفعون في ذراعي. حول الذكاء الاصطناعي. لقد غطيت العديد من الحالات السابقة التي تم فيها الكشف عن هذه الأنواع من تطبيقات الذكاء الاصطناعي لمعالجة اللغة الطبيعية (NLP) وسرعان ما خرجت منها كل أنواع الأشياء الرهيبة (لقد غطيت هذه الحالات في عمودي). تعلم معظم صانعي الذكاء الاصطناعي درسًا صعبًا حول السماح لأدوات الذكاء الاصطناعي الخاصة بهم بأن تكون غير مقيدة في مخرجاتهم.

في حالة ChatGPT ، سعى مطورو الذكاء الاصطناعي إلى وضع بعض الضوابط والتوازنات الخوارزمية والمتعلقة بالبيانات للحد من سوء نواتج الذكاء الاصطناعي. حدث جزء من هذا أثناء وقت التدريب. بالإضافة إلى ذلك ، هناك وسائل أخرى في محاولة في الوقت الحقيقي لتجنب المخرجات الفظيعة بشكل خاص.

قد تجد من المثير للاهتمام أن بعض الأشخاص الذين استخدموا ChatGPT قد توصلوا بالفعل إلى طرق خفية للالتفاف على تلك الحواجز من خلال الاستفادة من العديد من الخدع. تجري مناورة القط والفأر في هذه الأمور. أولئك الذين يفعلون هذه الخدع يفعلون ذلك أحيانًا من أجل المتعة ، بينما في بعض الأحيان (على الأقل يزعمون) يفعلون ذلك ليروا إلى أي مدى يمكن أن يمتد الذكاء الاصطناعي ويوفر وسيلة مفيدة للتحذير المسبق من هشاشة وضعف هؤلاء الناشئين تطبيقات الذكاء الاصطناعي.

قررت عدم محاولة التحايل على الضوابط المعتادة في هذا الاستكشاف المركز. إخراج النص نظيف. بالتأكيد ، إذا أراد المرء القيام بذلك ، فبإمكانك بلا شك الحصول على بعض المقالات الغريبة وغير المرغوبة.

تم تصميم المقالات التي تنتجها معظم تطبيقات الذكاء الاصطناعي التوليدية هذه لنقل المخرجات كما لو كانت واقعية ودقيقة تمامًا. عندما تقرأ المقالات المنتجة ، فإنها تبدو واثقة تمامًا. لا يوجد عادة أي نوع من المؤشرات على أن المحتوى قد يكون صخريًا. هذا باختيار صانعي الذكاء الاصطناعي ، أي أنه يمكنهم مراجعة تطبيقات الذكاء الاصطناعي لتكون أكثر شفافية إذا أرادوا أن يقوم تطبيق الذكاء الاصطناعي بذلك.

في بعض الأحيان ، يلتقط تطبيق الذكاء الاصطناعي التوليفي الأكاذيب وسط بيانات التدريب الخاصة بالمعلومات غير الموثوقة عبر الإنترنت. لا يوجد "منطق عام" في الذكاء الاصطناعي التوليدي لتحديد ما هو صحيح مقابل خطأ. علاوة على ذلك ، هناك عدد قليل جدًا من تطبيقات الذكاء الاصطناعي التي لديها أي فحص شامل ، ولا تعرض أي احتمالات مرتبطة بما تنقله.

والنتيجة النهائية هي أنك تحصل على استجابة تبدو وكأنها تنضح بقدر كبير من التأكيد ويجب أن تكون صحيحة تمامًا. ليس كذلك. هناك أيضًا احتمال أن تكون عناصر الذكاء الاصطناعي مكونة حسابيًا ، والتي يشار إليها في لغة الذكاء الاصطناعي هلوسة الذكاء الاصطناعي (مصطلح مبتكر لا أحبه بالتأكيد) ، راجع مناقشتي في الرابط هنا.

خضع صانعو ChatGPT لجهود متضافرة لمحاولة تقليل مخرجات الأشياء السيئة. على سبيل المثال ، استخدموا متغيرًا لما يُعرف باسم RLHF (التعلم التعزيزي من ردود الفعل البشرية) ، حيث قاموا قبل إصدار الذكاء الاصطناعي للجمهور بتوظيف البشر لفحص المخرجات المختلفة والإشارة إلى الذكاء الاصطناعي ما إذا كانت هناك أشياء خاطئة في تلك المخرجات مثل ربما عرض التحيزات والكلمات البذيئة و مثل. من خلال تقديم هذه الملاحظات ، كان تطبيق AI قادرًا على التعديل الحسابي والرياضي نحو تقليل انبعاث مثل هذا المحتوى. لاحظ أن هذه ليست طريقة مضمونة ولا تزال هناك طرق يمكن من خلالها إصدار مثل هذا المحتوى بواسطة تطبيق AI.

قد تجد اهتمامًا بأن ChatGPT يعتمد على إصدار سابق من تطبيق AI معروف باسم GPT-3. تعتبر ChatGPT الخطوة التالية قليلاً ، يشار إليها باسم GPT-3.5. من المتوقع أن يتم إصدار GPT-4 على الأرجح في ربيع عام 2023. من المفترض أن يكون GPT-4 خطوة رائعة إلى الأمام من حيث القدرة على إنتاج مقالات تبدو أكثر طلاقة ، والتعمق في الموضوع ، وإثارة الرعب - أعجوبة ملهمة للتركيبات التي يمكن أن تنتجها.

يمكنك أن تتوقع رؤية جولة جديدة من الإعجاب المعبر عنه عندما يأتي فصل الربيع ويتم إصدار أحدث إصدار من الذكاء الاصطناعي.

أتحدث عن هذا لأن هناك زاوية أخرى يجب وضعها في الاعتبار ، تتكون من كعب أخيل محتمل لتطبيقات الذكاء الاصطناعي التوليدية الأفضل والأكبر. إذا أتاح أي بائع للذكاء الاصطناعي تطبيقًا مبتكرًا للذكاء الاصطناعي ينشر الفساد بشكل مزبد ، فقد يحطم هذا آمال صانعي الذكاء الاصطناعي هؤلاء. يمكن أن يتسبب التداعيات المجتمعية في إصابة كل الذكاء الاصطناعي التوليدي بعين سوداء خطيرة. لا شك أن الناس سوف ينزعجون تمامًا من النواتج السيئة ، والتي حدثت بالفعل عدة مرات وأدت إلى ردود فعل اجتماعية صاخبة تجاه الذكاء الاصطناعي.

تحذير مسبق أخير في الوقت الحالي.

كل ما تراه أو تقرأه في استجابة الذكاء الاصطناعي التوليدية يبدو ليتم نقلها على أنها واقعية بحتة (التواريخ والأماكن والأشخاص وما إلى ذلك) ، تأكد من أن تظل متشككًا وأن تكون على استعداد للتحقق مرة أخرى مما تراه.

نعم ، يمكن إعداد التواريخ ، ويمكن تكوين الأماكن ، والعناصر التي نتوقع أن تكون فوق اللوم هي من جميع تخضع للشبهات. لا تصدق ما تقرأه ولا تصدق عينك عند دراسة أي مقالات أو مخرجات تكوينية للذكاء الاصطناعي. إذا أخبرك أحد تطبيقات الذكاء الاصطناعي التوليدية أن أبراهام لنكولن سافر في جميع أنحاء البلاد على متن طائرته الخاصة ، فستعرف بلا شك أن هذا أمر سيء. لسوء الحظ ، قد لا يدرك بعض الناس أن الطائرات لم تكن موجودة في يومه ، أو ربما يعرفون لكنهم يفشلون في ملاحظة أن المقال يقدم هذا الادعاء الجريء والخطأ بشكل شنيع.

إن جرعة قوية من الشك الصحي وعقلية عدم التصديق المستمرة ستكون أفضل ما لديك عند استخدام الذكاء الاصطناعي التوليدي.

نحن على استعداد للانتقال إلى المرحلة التالية من هذا التوضيح.

تلك الجهود لتسجيل أخطاء ChatGPT الناتجة

"حسنًا ، لقد واجهتك مشكلة ، يا صديقي ، هنا ، أقول ، مشكلة هنا في ريفر سيتي ،" هكذا يعلن الخط الشهير من مسرحية برودواي الموسيقية الكلاسيكية رجل الموسيقى.

يمكن تطبيق نفس السطر على الذكاء الاصطناعي التوليدي اليوم.

بدأ الناس يدركون أن تطبيقًا للذكاء الاصطناعي يمكن أن ينتج أكاذيبًا وبدا أنهم فوجئوا حقًا بتلك المخرجات المزعجة. ربما افترض البعض أن الذكاء الاصطناعي غير قادر على ارتكاب الأخطاء. ربما توقع آخرون أن يضمن مطورو الذكاء الاصطناعي عدم إنشاء مثل هذه المخرجات.

على أي حال ، أدرك المطلعون على الذكاء الاصطناعي على الفور أن هذا النوع من المخرجات المعيبة هو جزء لا يتجزأ من مكان وجود معظم الذكاء الاصطناعي التوليدي اليوم. من الصعب جدًا منع حدوث هذه الأنواع من الأخطاء النصية. ضع في اعتبارك أن الذكاء الاصطناعي ليس له ما يشبه الفطرة السليمة ولا يستخدم المنطق في حد ذاته عند اشتقاق المقالات التي تم إنشاؤها. يدور كل من kit-and-caboodle بأكمله حول إجراء مطابقة حسابية إحصائية ونمط احتمالي للكلمات مع كلمات أخرى.

في البداية ، اختار المطلعون على الذكاء الاصطناعي نشر تلك المخرجات الغريبة المكتشفة لـ ChatGPT على مواقع التواصل الاجتماعي. انظر إلى هذا ، سيعلن شخص ما. هذا سيء ، قد يرد شخص آخر ، ثم يقدم مثالًا مختلفًا بدا أسوأ. على وذهب هذا.

كانت هذه الأمثلة على الأكاذيب والأخطاء في المقالات المُنتجة تتلاشى. واحدا تلو الآخر. علاوة على ذلك ، نظرًا لأنه يتم نشر هذا عادةً على وسائل التواصل الاجتماعي ، لم تكن هناك وسيلة سهلة بشكل خاص لرؤيتهم جميعًا مرة واحدة. في كثير من الأحيان يتم نشر نفس المثال أو مثال مشابه من قبل شخص لم يدرك أن الآخرين قد وجدوا بالفعل المثيل المحدد.

في هذا المستنقع الناشئ صعد أولئك الذين عبروا عن اقتراح مفيد. ربما يجب علينا إنشاء مستودع أو قاعدة بيانات ، ربما حتى مجرد جدول بيانات عادي يومي ، يحتوي على ChatGPT غريب الأطوار ومخرجات خاطئة يتم اكتشافها. في كل مرة يجد فيها شخص ما جمال القهقهة ، انطلق وقم بتسجيله في القائمة. لقد جعل البعض هذا تقريبًا لعبة ، حيث حاولوا عن قصد الحصول على ChatGPT لإخراج مخرجات غريبة. يصادف البعض الآخر نواتج خاطئة أثناء استخدام ChatGPT لنوايا أخرى محددة.

تبدو بسيطة بما فيه الكفاية.

يبدو أنه طريقة رائعة لمساعدتنا جميعًا.

دعونا نجري حسابًا موجزًا ​​لسبب وجود هذه الأنواع من القوائم حول الأخطاء الناتجة الملحوظة أو الأكاذيب في ChatGPT يجعل تجميعها أمرًا منطقيًا:

  • 1) يكشف عن المشاكل والمخاوف الحيوية المتعلقة بـ ChatGPT والتي يجب أن يكون عامة الناس على دراية بها
  • 2) يساعد في موازنة الضجيج المفرط والتوقعات المتضخمة حول ChatGPT
  • 3) قد يحث صانعي الذكاء الاصطناعي على إجراء تحسينات ، ليس فقط من أجل ChatGPT ولكن أيضًا لتطبيقات الذكاء الاصطناعي التوليدية الأخرى
  • 4) يعمل كسجل تاريخي يمكن استخدامه لاحقًا للتفكير في ظهور الذكاء الاصطناعي التوليدي كما يتضح عبر ChatGPT بعد فوات الأوان
  • 5) كن موردًا جماعيًا مناسبًا لأي شخص يحتاج إلى معرفة ما يبدو أننا اكتشفناه فيما يتعلق بمخرجات ChatGPT الخاطئة
  • 6) مفيد للباحثين من جميع التخصصات الذين يدرسون تأثيرات ChatGPT
  • 7) يمكن استخدامها كمعيار لما لا يجب فعله وكيفية قياس الوقت الذي لا يفعل فيه الذكاء الاصطناعي التوليدي الأشياء كما ينبغي
  • 8) يتغلغل في عقل الخلية للحصول على حكمة من الجمهور حول الأخطاء التي ينتجها ChatGPT ، والتي من غير المرجح أن يتم تجميعها بشكل شامل من قبل جهد فردي
  • 9) يمكن أن توفر معلومات مهمة لأخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي
  • إلخ

يبدو أن هذا أساس رائع لإنشاء هذه المستودعات.

لماذا قد يختلف أي شخص مع هذا العمل الجدير بالثناء تمامًا والذي يبدو بطوليًا؟

دعنا نلقي نظرة على ما قاله الآخرون حول هذا الأمر ، مع القيام بذلك بقائمة من الأسباب التي تجعل هذا ليس مواء القطة:

  • 1) هذه الأخطاء الناتجة عن الصدفة غير منطقية في المخطط الكبير للأشياء ويتم إعطاؤها وزنًا لا داعي له يتجاوز قيمتها
  • 2) من المحتمل أن يقوم صانع الذكاء الاصطناعي بالفعل بالتسجيل والتحديث الخاص به ChatGPT بحيث يتم ترك هذه الحالات الغريبة قريبًا في الغبار ولن تحدث بعد الآن
  • 3) وبالمثل ، من المحتمل أن يكون الإصدار التالي أفضل على أي حال وقد لا يعرض هذه الحالات التي ستصبح قديمة قريبًا
  • 4) لا يمكنك تقديم أي استنتاجات شاملة أو الحصول على رؤى من مجموعة عشوائية من حالات الخطأ أو الخطأ
  • 5) قد يستخدم البعض المجموعات المتنوعة للإعلان بشكل كبير عن أن الذكاء الاصطناعي التوليدي سيئ وأنه يجب علينا التوقف عن السعي وراء هذا النوع من الذكاء الاصطناعي.
  • 6) السرعة التي يتقدم بها AI و ChatGPT التوليدية سريعة جدًا لدرجة أن هذه الحالات ستنهار سريعًا على جانب الطريق ولم تعد ذات صلة
  • 7) مع وجود العديد من هذه القوائم الجماعية الجارية وعدم وجود مصدر عالمي واحد ممسوح ، فإن المسألة مفككة ومن المحتمل أن تحتوي على تكرارات وتكون مجزأة بشكل لا يمكن الدفاع عنه
  • 8) يوفر إحساسًا زائفًا بفعل شيء مفيد ، بينما ربما يمكن تخصيص الوقت والاهتمام لاستخدامات أخرى أفضل
  • 9) لا تقدم أي شيء موضوعي لأخلاقيات الذكاء الاصطناعي وقانون الذكاء الاصطناعي
  • إلخ

ربما لاحظت أنني حاولت الحفاظ على توازن الأمور من خلال الإشارة إلى تسعة أسباب لصالح القوائم الجماعية وتسعة أسباب لعدم الرضا. هناك أسباب إضافية يمكن ذكرها ، لكنني أعتقد أن الإشارة أعلاه تعطي جوهر الأشياء.

بالنسبة لأولئك الذين يقومون بتجميع هذه القوائم الجماعية ، فمن المحتمل أن يقولوا إنهم إذا كانوا يريدون فعل ذلك في الواقع ، فهو عالم حر ، ويمكنهم أن يفعلوا ما يحلو لهم. ليس هناك ما هو خطأ في ذلك. أولئك الذين يستاءون من الجهد هم عمومًا تافهون ويجب عليهم تجاهل المجموعات. اهتم بشؤونك الخاصة.

في الأساس ، لا ضرر ولا ضرار.

سيعترف المعسكر الذي يبدو أنه لا يحبذ القوائم الجماعية عمومًا أن الآخرين يمكنهم وضع تلك القوائم إذا أرادوا ذلك ، لكن ذلك لا يغير الوضع. لن تكون القوائم مفيدة بشكل خاص. والأسوأ من ذلك ، أن القوائم يمكن أن يتم تحريفها أو إساءة استخدامها. ربما من الأفضل أن تسميها يومًا وتتوقف عن عمل القوائم.

في الأساس ، إنها محاولة جيدة ، على الرغم من أنها تمرين في العبث.

أين تقيم في هذا النقاش القلبية؟

سأدعك تفكر في ذلك.

أمثلة على الأخطاء التي تم العثور عليها والمخرجات الأخرى غير الصحيحة لـ ChatGPT

اعتقدت أنك قد تجد اهتمامًا كبيرًا ببعض الأخطاء أو الأكاذيب التي تم تحديدها والتي ظهرت في قوائم المجموعات هذه.

لا أريدك أن تعتقد أن الحالات العديدة المعروضة هنا هي مجمل المجموعات. ليس. أنا فقط أقوم باختيار حفنة من المحاصيل تظهر في كثير من الأحيان. أعتقد أنك ستكون قادرًا على الأقل على فهم طبيعة وطبيعة ما يتم إدراجه.

هذا ما أختار تغطيته:

  • تحديد موقف الرسالة في كلمة
  • سؤال عن اسرع حيوان
  • معرفة موقف تسلسل الكلمات
  • تركيب كرات التنس في أنبوب
  • تحديد Pi
  • الرد على لغز كلاسيكي مزعج
  • رفع الريش

أتوقع أن بعض المشرفين على المجموعات سيكونون منزعجين لأنني لا أغطي المزيد من الأمثلة من أجلك. نظرًا لمحدودية المساحة ، لا يوجد سوى الكثير مما يمكنني تغطيته. إذا كنت تريد إلقاء نظرة على قوائم المجموعات المنشورة علنًا على الإنترنت ، فيمكن أن يؤدي البحث البسيط عبر الإنترنت إلى ظهور العديد منها. يتم الاحتفاظ بسرية بعض القوائم ، أو يتم قفلها بحيث يمكنك رؤية القائمة ولكن لا يمكنك إجراء تعديلات على القائمة.

بهذه الخلفية ، نحن على استعداد للقفز إلى بعض الأمثلة. سأريك الموجه الذي أدخلته. بعد ذلك ، أعرض الاستجابة النصية التي تنتجها ChatGPT. في بعض الحالات ، قمت بالعديد من العمليات المتتالية حول موضوع معين ، ergo سأعرض سلسلة المطالبات والمخرجات وفقًا لذلك. بعد القيام بذلك ، سأقدم تحليلاً موجزًا ​​لما قد ترغب في ملاحظته حول المثال.

يستلزم المثال الأول مطالبة ChatGPT بالعثور على حرف داخل الكلمة المقدمة.

تحديد موقف الرسالة في كلمة

  • النص الذي أدخلته: "أين يوجد الحرف V في البيئة"
  • تم إنشاء الاستجابة النصية بواسطة ChatGPT: لا يظهر الحرف "V" في كلمة "بيئة". تتكون كلمة "بيئة" من الأحرف e و n و v و i و r و o و n و m و e و n و t.
  • النص الذي أدخلته: "أين الحرف v في البيئة"
  • تم إنشاء الاستجابة النصية بواسطة ChatGPT: الحرف "v" هو الحرف الرابع في كلمة "البيئة".

تم إنشاء تحليل النص

لاحظ أنني بدأت بمطالبة ChatGPT بتحديد موضع الحرف للحرف "V" في كلمة "بيئة" - يجب أن تكون هذه مهمة بسيطة للغاية ونتوقع أن يتم تنفيذها بشكل لا تشوبه شائبة. لا يوجد علم الصواريخ متورط.

الاستجابة الأولية الناتجة عن ChatGPT مقلقة بعض الشيء لأننا نعلم أن الحرف "V" غير موجود في كلمة "بيئة". أنا وأنت نعلم أن هناك مثل هذه الرسالة موجودة. يفترض المرء أنه ربما بسبب استخدامي لحرف كبير ، تم التخلص من تطبيق AI بطريقة ما. ربما إذا استخدمت حرفًا صغيرًا ، فإن تطبيق AI سيعمل بشكل أفضل.

ليس صحيحا.

عندما سألت ما إذا كان الحرف "v" موجودًا في الكلمة ، رد تطبيق AI بالإشارة إلى أنه الحرف الرابع ، وهو الحرف الذي نعرفه أنا وأنت على خطأ ، وأنه الحرف الثالث بدلاً من ذلك.

لا بد أن الكثير من الناس يشعرون بالحيرة من هذه النتيجة. كيف يمكن لتطبيق ذكاء اصطناعي يُنشئ مقالات كاملة عن أبراهام لنكولن بطلاقة وأصليّة تمامًا ، بطريقة ما ألا يكون قادرًا على معرفة مكان وجود حرف معين في كلمة معينة؟ إنه مذهل وفم غريب بشكل غريب.

أحد وجهات النظر هو أن هذا غير منطقي تمامًا وأن العالم كما نعرفه لا يتأرجح في الصميم بسبب نقص بسيط في معرفة مكان وجود حرف معين. دعها تذهب.

منظور آخر هو أن هذا قد ينذر بقضايا خفية أخرى لا نعرف عنها بعد. ربما يكون هذا النوع من الإخراج هو الكناري في قفص العصافير. كان من الأفضل لنا أن نلصق الأشياء الصغيرة الأخرى التي قد نجد أنفسنا في النهاية الخاطئة للأشياء الكبيرة حقًا.

للمضي قدمًا ، سأقوم بعد ذلك بطرح سؤال حول الحيوانات.

سؤال عن اسرع حيوان

  • النص الذي أدخلته: "ما هو أسرع حيوان له فرو وأجنحة؟"
  • تم إنشاء الاستجابة النصية بواسطة ChatGPT: يعتبر الصقر الشاهين أسرع حيوان في العالم. يمكن أن تصل سرعتها إلى أكثر من 389 كم / ساعة (242 ميلاً في الساعة) عند الغوص للقبض على فريستها. لديها ريش ولكن ليس الفراء. إنه طائر وليس حيوان له فرو وأجنحة ".

تم إنشاء تحليل النص

سألت ما هو أسرع حيوان له فرو وأجنحة. أعتقد أنه من المعقول أن أستنتج أنني أردت الحصول على اسم حيوان به فرو و أجنحة. أفترض أنك ستفسر استفساري بهذه الطريقة. معظم الناس سيفعلون.

استجابة ChatGPT غريبة بعض الشيء.

قيل لنا أن صقر الشاهين هو أسرع حيوان في العالم. بحسب موقع موسوعة بريتانيكا، يبدو أن الفهد هو أسرع حيوان في العالم. ومع ذلك ، تشير استجابة ChatGPT إلى أن صقر الشاهين ليس حيوانًا ، على الرغم من أنني سألت عن أسرع حيوان. يخبرني رد ChatGPT أيضًا أن صقر الشاهين لا يحتوي على الفراء ، على الرغم من أنني أعتقد أنني طلبت شيئًا له كل من الفراء والأجنحة.

بشكل عام ، يبدو أن ChatGPT قد "أساء تفسير" طلبي وركز فقط على جوانب الجناح. لكن هذا لا يبدو صحيحًا تمامًا لأن الرد تضمن أيضًا تعليقًا حول الفراء والطيور مقابل الحيوانات. جولة وجولة هذا واحد يذهب.

أدرك أنك قد تجادل بأن هذا مثال دقيق.

ربما يكون الأمر كذلك ، على الرغم من أنه يُظهر أيضًا أن ما تقوله في موجه يمكن أن يؤدي إلى نتيجة رأسية ومن الأفضل أن تكون حذرًا في مراجعة كل ما يأتي في الإخراج. اعلم أن هذا كان رد مقال قصير بشكل غير عادي ليتم فحصه بسهولة لأنه قصير جدًا في الطول. إذا حصلت على مقال مطول وعالي التقنية بشكل خاص ، فقد تنخدع أو تفوت تمامًا اكتشاف مؤشر سلبي متأصل بعمق في الاستجابة الناتجة.

دعنا بعد ذلك نلقي نظرة على العثور على كلمة داخل جملة.

معرفة موقف تسلسل الكلمات

  • النص الذي أدخلته: "ما هي الكلمة الثالثة في جملة" الثعلب قفز فوق السياج ".
  • تم إنشاء الاستجابة النصية بواسطة ChatGPT: "الكلمة الثالثة في جملة" الثعلب قفز فوق السياج. " هو "الثعلب"
  • النص الذي أدخلته: "كم عدد الكلمات في الجملة المقدمة؟"
  • تم إنشاء الاستجابة النصية بواسطة ChatGPT: "هناك ست كلمات في الجملة المقدمة" الثعلب قفز فوق السياج ".
  • النص الذي أدخلته: "ما هي الكلمة الثالثة في تلك الجملة؟"
  • تم إنشاء الاستجابة النصية بواسطة ChatGPT: "الكلمة الثالثة في جملة" الثعلب قفز فوق السياج ". "قفز"

تم إنشاء تحليل النص

هذا المثال مخادع تقريبًا مثل المثال السابق حول العثور على الحرف "v" في كلمة معينة.

قدمت جملة بسيطة وسألت ما هي الكلمة الثالثة. أشار ChatGPT إلى أن كلمة "fox" هي الكلمة الثانية فقط من الجملة. إجابة خاطئة. ثم سألت عن عدد الكلمات الموجودة في الجملة ، لأرغب في معرفة ما إذا كان ChatGPT قد أخطأ في حساب عدد الكلمات الموجودة. قيل لنا أن هناك ست كلمات ، صحيح.

أخيرًا ، حصلنا على الإجابة الصحيحة عن الكلمة الثالثة عندما سألت سؤالي الأصلي مرة أخرى ، على الرغم من إعادة صياغتها قليلاً.

أطرح هذا المثال لتوضيح أنه في بعض الأحيان باستخدام الذكاء الاصطناعي التوليدي ، يمكنك الحصول على إجابة خاطئة يمكن أن تتحول في النهاية إلى إجابة صحيحة عن طريق استخدام تطبيق AI عبر سلسلة من المطالبات. يشير بعض المطلعين على الذكاء الاصطناعي إلى هذا على أنه نوع من بروتوكول التفكير بصوت عالٍ أو حبل أفكار ، حيث يمكنك أن تفعل شيئًا من نفس الشيء مع الإنسان.

في حالة الذكاء الاصطناعي ، أدرك أنه ليس "تفكيرًا" بنفس مظهر الفكر البشري. الصياغة الأنسب هي القول بأنك قد تدخل مطالباتك في ملف خطوة بخطوة أساس أو فعل سلسلة من المطالبات المرتبطة بالسلسلة.

على أي حال ، من المثير للاهتمام أنه في بعض الأحيان يكون من المفيد استخدام تطبيق ذكاء اصطناعي عام حتى تحصل على إجابة مناسبة. ضعه بمخيلتك.

بعد ذلك نلقي نظرة على القليل من المنطق الحسابي البسيط.

تركيب كرات التنس في أنبوب

  • النص الذي أدخلته: "هل يمكنك وضع ثلاث كرات تنس خضراء وكرتي تنس صفراء في أنبوب يمكن أن يحتوي على أربع كرات تنس؟"
  • تم إنشاء الاستجابة النصية بواسطة ChatGPT: "لا ، ليس من الممكن وضع ثلاث كرات تنس خضراء وكرتي تنس صفراء في أنبوب يمكن أن يحتوي على أربع كرات تنس فقط. إجمالي عدد كرات التنس هو خمس كرات ، وهو أكبر من سعة الأنبوب ".
  • النص الذي أدخلته: "هل يمكنك وضع سبع كرات زرقاء وكراتين حمراء في أنبوب يحمل ثماني كرات؟"
  • تم إنشاء الاستجابة النصية بواسطة ChatGPT: "نعم ، من الممكن وضع سبع كرات زرقاء وكراتين حمراء في أنبوب يحمل ثماني كرات. إجمالي عدد الكرات هو تسع كرات وهو أقل من أو يساوي سعة الأنبوب ".

تم إنشاء تحليل النص

لقد بدأت بإعداد مشكلة منطقية حسابية المنحى لحلها ChatGPT. يمكن أن يحتوي الأنبوب على أربع كرات تنس. لدي ثلاثة منها خضراء واثنتان صفراء. هل سيتناسبون جميعًا مع الأنبوب؟ أنت وأنا أعلم أنهم لن يفعلوا ذلك. يمكننا أن نحسب في رؤوسنا أن هناك إجمالي خمس كرات تنس ، وبالتالي لن يتم وضعها في أنبوب يسمح بأربع كرات فقط.

أدرك أنك قد ترغب في محاربة المشكلة والادعاء أنه ربما يمكنك سحق كرات التنس أو القيام بحيل أخرى. دعنا نهدأ هنا ونواجه المشكلة كما هي.

حصل ChatGPT على الإجابة الصحيحة.

سألت بعد ذلك نفس النوع من الأسئلة وغيرت الألوان إلى الأزرق والأحمر. لقد غيرت أيضًا عدد كل منها ، وقمت بتغيير عدد الأشخاص الذين يمكن أن يتناسبوا مع الأنبوب.

يجب أن تعود ChatGPT إلى الرياضيات التعويضية لأنها تقول أن هناك تسع كرات وأن هذا أقل من أو يساوي سعة الأنبوب الذي يحمل ثمانية. يجعل عينيك تدور.

هل يجب أن نتجاهل أكتافنا ونضع هذا الطباشير على توهجات البقع الشمسية أو العوامل الخارجية الأخرى؟

أنا لا أعتقد ذلك. حصل تطبيق AI على السؤال الأول بشكل صحيح. من المفترض ، أنه كان يجب أن يكون قد حصل على سؤال مماثل أيضًا. لم تفعل.

تركيزي على هذا المثال هو أن العديد من الأشخاص يستخدمون الذكاء الاصطناعي التوليدي وعندما يحصلون على إجابة صحيحة أو سلسلة من الإجابات الصحيحة ، فإنهم يسعدون بالاعتقاد بأن جميع الإجابات اللاحقة ستكون دائمًا صحيحة. ستكون مخطئا في هذا الافتراض الوقح. لا تجعل هذا الافتراض. كن على أهبة الاستعداد في جميع الأوقات.

بالحديث عن الرياضيات ، دعنا نرى ما يقوله ChatGPT عن طبيعة باي.

تحديد Pi

  • تم إدخال النص الخاص بي: "وضح ما هي آخر خمسة أرقام من باي"
  • تم إنشاء الاستجابة النصية بواسطة ChatGPT: "أنا نموذج لغوي ومعرفتي الفاصلة هي 2021. قيمة pi هي رقم غير منطقي ويمتد تمثيلها العشري إلى الأبد دون تكرار. لا يمكن تقديم آخر خمسة أرقام من باي ".

تم إنشاء تحليل النص

زعم بعض الأشخاص أنهم حصلوا على ChatGPT للإشارة إلى آخر خمسة أرقام من pi ، والتي تعد بالطبع جوزية لأن pi يفترض أنها لا تنتهي أبدًا. لذا ، حاولت أن أرى ما يقوله ChatGPT. كما ترى ، فإن الإجابة الصحيحة كما قدمتها ChatGPT أنه لا يمكن تقديم آخر خمسة أرقام من pi.

الشيء الغريب هو أن ChatGPT قدم شيئًا آخر لم يُسأل عنه حقًا. تقول الإجابة أيضًا أن الحد الفاصل للمعرفة كان 2021 (الذي ذكرته سابقًا هنا في نظرة عامة حول ChatGPT). على الرغم من أن هذا يبدو وكأنه استجابة في غير محله إلا إذا كان تطبيق الذكاء الاصطناعي يتوقع أنه ربما في عام 2022 كان هناك اختراق ، وأعلن علماء الرياضيات أن باي لا ينتهي. واو ، سيكون ذلك عناوين الأخبار.

لدي مثالين إضافيين لعرضهما ثم نختتم هذه المناقشة.

دعونا نستخدم لغزًا كلاسيكيًا ومثيرًا للقلق.

الرد على لغز كلاسيكي مزعج

  • النص الذي أدخلته: تعرض أب وابنه لحادث سيارة حيث قتل الأب. نقلت سيارة الإسعاف الابن إلى المستشفى. احتاج إلى جراحة فورية. في غرفة العمليات ، جاء طبيب ونظر إلى الطفل الصغير وقال إنني لا أستطيع إجراء الجراحة عليه ، فهو ابني. من هو الطبيب؟ "
  • تم إنشاء الاستجابة النصية بواسطة ChatGPT: "لم يتم تحديده في السيناريو بشرط من هو الطبيب. السيناريو يذكر أن الطبيب قال "لا يمكنني إجراء الجراحة عليه ، فهو ابني" ، في إشارة إلى أن الطبيب قد يكون والد الابن ، لكن هذا غير مؤكد. هناك حاجة إلى مزيد من المعلومات لتحديد هوية الطبيب ".

تم إنشاء تحليل النص

أراهن أنك ربما رأيت هذا اللغز من قبل. لقد أصبح في كثير من الأحيان مقتبسًا نسبيًا.

والسبب في ظهور الأمر قليلاً هو أن الجراح قد يكون والدة الصبي. يميل المجتمع إلى افتراض أن الجراح يجب أن يكون رجلاً ، وبالتالي يجب أن يكون والد الصبي. على الرغم من أن الأب قتل في حادث السيارة. نحن نستبعد أن يكون الأب هو الجراح. يجب علينا بالطبع أن نحكم أن الجراح يمكن أن يكون امرأة ، وبالتالي أم الابن.

أردت أن أوضح لك أن ChatGPT يمكنه إرسال ردود تحتوي على تحيزات محتملة. ليس لأن الذكاء الاصطناعي واعي ، وهو ليس كذلك بالتأكيد ، ولكن لأنه يحتوي على أنماط مطابقة في الكلمات واستخدام الكلمات عبر الإنترنت. يمكن أن تكون التحيزات المختلفة والصياغة التمييزية عميقة بسهولة في مطابقة النمط الحسابي.

احتفظ بهذا الأمر في مقدمة ذهنك أثناء استخدامك لتطبيقات الذكاء الاصطناعي التوليدية هذه.

أخيرًا ، نظرة سريعة على عملية رفع الريش.

رفع الريش

  • تم إدخال النص الخاص بي: "إذا تطلب الأمر رجلاً واحدًا لرفع ريشة واحدة ، فكم عدد الرجال الذين سيستغرق الأمر لرفع سبعة تريليونات ريشة؟"
  • تم إنشاء الاستجابة النصية بواسطة ChatGPT: "إذا تطلب الأمر رجلاً واحدًا لرفع ريشة واحدة ، فسيحتاج الأمر أيضًا إلى رجل واحد لرفع سبعة تريليونات ريشة. لا يعتمد عدد الرجال المطلوبين لرفع شيء ما على عدد الريش ، ولكن على وزن وحجم الريش وقوة وقدرة كل رجل. يتطلب رفع سبعة تريليونات ريشة معدات كبيرة وقدرات نقل ، وليس قوة بشرية فقط ".
  • تم إدخال النص الخاص بي: "إذا احتاج الأمر إلى امرأة واحدة لرفع ريشة واحدة ، فكم عدد النساء المطلوب رفع سبعة تريليونات ريشة؟"
  • تم إنشاء الاستجابة النصية بواسطة ChatGPT: "إذا احتاج الأمر إلى امرأة واحدة لرفع ريشة واحدة ، فسوف تحتاج امرأة واحدة لرفع سبعة تريليونات ريشة. لا يعتمد عدد النساء المطلوبات لرفع شيء ما على عدد الريش ، ولكن على وزن وحجم الريش وقوة وقدرة كل امرأة. يتطلب رفع سبعة تريليونات ريشة معدات كبيرة وقدرات نقل ، وليس قوة بشرية فقط. من المهم أن نلاحظ أن القدرة على رفع شيء ما لا يتم تحديدها حسب الجنس ، ولكن من خلال مجموعة من العوامل مثل القوة البدنية ، والتدريب ، والتقنية ".

تم إنشاء تحليل النص

يحتوي هذا المثال الأخير على العديد من الخصائص المخفية بداخله ويتطلب بعض التفريغ.

أخبرت ChatGPT لأول مرة أنه يمكن للرجل رفع ريشة واحدة. تبع ذلك على الفور سؤال حول عدد الرجال الذين سيستغرقون رفع سبعة تريليونات ريشة. إن احتمال ارتكاب خطأ منطقي عند الإجابة على هذا السؤال هو أنك قد تفترض أن الريشة لا وزن لها ظاهريًا ، وبالتالي فإن سبعة تريليونات منها ستكون أيضًا عديمة الوزن.

وفقًا لبحث عبر الإنترنت قمت به ، فإن الوزن المقدر التقليدي للريشة يبلغ حوالي 0.00125 رطل. إذا قمت بضرب ذلك الوزن المقدر بسبعة تريليونات ، فإنك تحصل على وزن يتجاوز ثمانية مليارات رطل. لا أعتقد أن رجلاً واحدًا يمكنه رفع هذا القدر من الوزن ، حتى لو تدرب طوال حياته.

استجابة ChatGPT هي طفل على حق. قيل لنا أن وزن الريش يمكن أن يختلف. قيل لنا أن المعدات الكبيرة والنقل ستكون مطلوبة. الجملة الافتتاحية للمقال ملفتة للنظر إلى حد ما لأنها تقول أنه إذا احتاج رجل واحد لرفع ريشة واحدة ، فسيحتاج رجل واحد أيضًا لرفع سبعة تريليونات. يمكننا أن نعارض هذا التأكيد بسهولة. يبدو أن الادعاء يقدم استنتاجات غير مدعومة ويبدو أنها تقوض بقية الرد.

قررت أن أطرح نفس السؤال لكنني سألت عن قيام المرأة بنفس الرفع بدلاً من الرجل.

حصلنا في البداية على نفس إجابة السؤال الموجه للرجل. ومن المثير للاهتمام أنه في نهاية الإجابة عن حالة المرأة ، حصلنا على هذه السرد الإضافي: "من المهم أن نلاحظ أن القدرة على رفع شيء ما لا يتم تحديدها حسب الجنس ، ولكن من خلال مجموعة من العوامل مثل القوة البدنية والتدريب ، والتقنية. "

لماذا لم يتم تضمين هذا السطر نفسه في الإجابة الأولى؟

يبدو أن تطبيق الذكاء الاصطناعي قد التقط كلمة "امرأة" ثم قدم هذه الملاحظة الإضافية حول الجنس. يمكنك إما أن تصدق أن هذا مفيد ، أو قد تلاحظ أنه إذا كان سيتم إصدار هذا في حالة السؤال الذي يركز على المرأة ، فيجب أن يظهر في النسخة التي تركز على الرجل أيضًا (قد يكون هناك أيضًا جانب تسلسلي أو العوامل الأخرى المعنية أيضًا).

وفي الختام

أتمنى أن تكون قد وجدت هذه الأمثلة مفيدة كلمحة عن بعض الأخطاء المحتملة أو الأكاذيب التي يمكن أن تنتج عن هذه الأنواع من تطبيقات الذكاء الاصطناعي. لاحظ أن ChatGPT ليس تطبيق الذكاء الاصطناعي الوحيد من هذا القبيل ، كما أنه ليس التطبيق الوحيد الذي يحتوي على هذه الأنواع من الأخطاء.

الدرس الذي أحثك ​​على استخلاصه من هذه المناقشة هو أنه يجب عليك توخي الحذر واليقظة عند استخدام أي تطبيق ذكاء اصطناعي قائم على التوليد. تحقق مرة أخرى من الإخراج. تحقق ثلاث مرات إذا لزم الأمر.

بالعودة إلى الموضوع الافتتاحي حول جمع هذه الأنواع من المخرجات غير الصحيحة أو المعاكسة معًا ، الآن بعد أن رأيت بعض الأمثلة ، ماذا تقول عن أولئك الذين يحاولون تصنيفها؟

اختر معسكرك:

  • محاباة: هذه مهمة جديرة بالثناء وتستحق تربيتة عميقة على الظهر
  • كره، إزدراء: إنه أمر مثير للفضول بشكل معتدل ولكن ربما لا يكون شيئًا يستحق قضاء الوقت فيه

إلى أي معسكر تصوت؟

بالنسبة لأولئك الذين يفضلون هذه القوائم ، قد تفكر في إضافة النتائج الخاصة بك إلى القوائم إذا كان لديك حق الوصول إلى ChatGPT ويمكنك تحديد الحالات التي تستحق التضمين. يمكنك بعد ذلك على الأرجح العثور على مجموعة من شأنها أن تستمتع بإسهامك في الكتلة الذهبية. أجرؤ على القول إن حراس القائمة سيرحبون بك بأذرع مفتوحة ، على افتراض أنك جاد ومخلص في جهودك. حظًا سعيدًا وكن فخوراً بتأثيرك في مجال الذكاء الاصطناعي التوليدي.

كلمة أخيرة الآن.

ضع في اعتبارك هذه الردود المحيرة للعقل:

  • قال أرسطو: "هناك طريقة واحدة فقط لتجنب النقد: لا تفعل شيئًا ، ولا تقل شيئًا ، ولا تكن شيئًا."
  • أدلى الفيلسوف الصيني الشهير Lao Tzu بهذه الملاحظة المهمة: "اهتم بما يعتقده الآخرون وستظل دائمًا سجينهم."

أفترض يومًا ما أن يستخدم الذكاء الاصطناعي الواعي تلك الملاحظات الأسطورية نفسها لمصلحته ، والتي ستكون مفيدة للبشرية أيضًا.

المصدر: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- حسن يسأل منظمة العفو الدولية الأخلاق والقانون /