مخاطر الذكاء الاصطناعي التي لا يتحدث عنها أحد

بينما شات جي بي تي قد تبدو كأداة مجانية غير ضارة ومفيدة ، فهذه التكنولوجيا لديها القدرة على إعادة تشكيل اقتصادنا ومجتمعنا كما نعرفه بشكل جذري. يقودنا هذا إلى مشاكل مقلقة - وقد لا نكون مستعدين لها. 

استحوذ ChatGPT ، وهو روبوت محادثة مدعوم بالذكاء الاصطناعي (AI) ، على العالم بحلول نهاية عام 2022. يعد روبوت الدردشة بتعطيل البحث كما نعرفه. توفر الأداة المجانية إجابات مفيدة بناءً على المطالبات التي يقدمها المستخدمون لها. 

وما يجعل الإنترنت مجنونًا بشأن نظام روبوت الدردشة المدعوم بالذكاء الاصطناعي هو أنه لا يقدم فقط إجابات تشبه أدوات محرك البحث. يمكن لـ ChatGPT إنشاء مخططات فيلم وكتابة أكواد كاملة وحل مشكلات الترميز وكتابة كتب وأغاني وقصائد ونصوص كاملة - أو أي شيء يخطر ببالك - في غضون دقائق. 

هذه التكنولوجيا مثيرة للإعجاب ، وقد تجاوزت أكثر من مليون مستخدم في غضون خمسة أيام فقط بعد إطلاقها. على الرغم من أدائها المذهل ، أثارت أداة OpenAI مخاوف بين الأكاديميين والخبراء من مجالات أخرى. قال الدكتور بريت وينشتاين ، المؤلف والأستاذ السابق لعلم الأحياء التطوري ، "لسنا مستعدين لـ ChatGPT." 

كان Elon Musk جزءًا من المراحل الأولى لشركة OpenAI وأحد مؤسسي الشركة. لكنه استقال في وقت لاحق من المجلس. تحدث عدة مرات عن مخاطر تكنولوجيا الذكاء الاصطناعي - قال إن الاستخدام غير المقيد والتطوير يشكلان خطرًا كبيرًا على وجود البشرية. 

كيف يعمل؟

شات جي بي تي هو عبارة عن نظام روبوت محادثة ذكاء اصطناعي كبير مدرب على اللغة تم إصداره في نوفمبر 2022 بواسطة OpenAI. طورت الشركة ذات الربح الأقصى ChatGPT من أجل استخدام "آمن ومفيد" للذكاء الاصطناعي يمكنه الإجابة على أي شيء تقريبًا يمكن أن يخطر ببالك - من أغاني الراب ، والمطالبات الفنية إلى نصوص الأفلام والمقالات. 

بقدر ما يبدو ككيان إبداعي يعرف ما يقول ، فهو ليس كذلك. يقوم روبوت الدردشة بالذكاء الاصطناعي بالبحث عن المعلومات على الإنترنت باستخدام نموذج تنبؤي من مركز بيانات ضخم. على غرار ما يفعله Google ومعظم محركات البحث. بعد ذلك ، يتم تدريبه وتعريضه لأطنان من البيانات التي تسمح للذكاء الاصطناعي بأن يصبح جيدًا جدًا في التنبؤ بتسلسل الكلمات إلى الحد الذي يمكنه من تجميع تفسيرات طويلة بشكل لا يصدق. 

على سبيل المثال ، يمكنك طرح أسئلة حول الموسوعة مثل ، "شرح قوانين آينشتاين الثلاثة." أو أسئلة أكثر تحديدًا وعمقًا مثل "اكتب مقالًا من 2,000 كلمة حول التقاطع بين الأخلاق الدينية وأخلاقيات العظة على الجبل". وأنا لا أمزح ، ستحصل على نصك مكتوبًا ببراعة في ثوانٍ. 

بنفس الطريقة ، كل شيء رائع ومثير للإعجاب ؛ إنه أمر مقلق ومقلق. إن نوع "Ex Machina" من المستقبل البائس الذي يكسر سيئًا هو احتمال مع إساءة استخدام الذكاء الاصطناعي. لم يحذرنا الرئيس التنفيذي لشركة Tesla و SpaceX فحسب ، بل قام العديد من الخبراء أيضًا بدق ناقوس الخطر. 

مخاطر الذكاء الاصطناعي

لقد أثر الذكاء الاصطناعي بلا شك على حياتنا ونظامنا الاقتصادي ومجتمعنا. إذا كنت تعتقد أن الذكاء الاصطناعي شيء جديد أو أنك ستراه فقط في أفلام الخيال العلمي المستقبلية ، فكر مليًا. تستخدم العديد من شركات التكنولوجيا مثل Netflix و Uber و Amazon و Tesla الذكاء الاصطناعي لتحسين عملياتها وتوسيع أعمالها. 

على سبيل المثال ، تعتمد Netflix على تقنية الذكاء الاصطناعي لخوارزميتها للتوصية بمحتوى جديد لمستخدميها. تستخدمه Uber في خدمة العملاء ، لاكتشاف الاحتيال ، لتحسين مسار القيادة ، وما إلى ذلك ، على سبيل المثال لا الحصر. 

ومع ذلك ، لا يمكنك الذهاب بعيدًا بمثل هذه التكنولوجيا البارزة دون تهديد الأدوار البشرية في العديد من المهن التقليدية ، ولمس عتبة ما يأتي من الآلة والبشر. وربما الأهم من ذلك ، تهديد مخاطر الذكاء الاصطناعي على البشر. 

التحديات الأخلاقية للذكاء الاصطناعي

وفقًا لـ Wikipedia ، فإن أخلاقيات الذكاء الاصطناعي "هي فرع من أخلاقيات التكنولوجيا الخاصة بأنظمة الذكاء الاصطناعي. ينقسم أحيانًا إلى اهتمام بالسلوك الأخلاقي للبشر أثناء تصميمهم وتصنيعهم واستخدامهم ومعالجتهم لأنظمة الذكاء الاصطناعي ، واهتمام بسلوك الآلات في أخلاقيات الآلة. "

مع انتشار تقنية الذكاء الاصطناعي بسرعة وأصبحت جزءًا لا يتجزأ من معظم حياتنا اليومية ، تعمل المؤسسات على تطوير قواعد أخلاقية للذكاء الاصطناعي. الهدف هو توجيه وتطوير أفضل ممارسات الصناعة لتوجيه تطوير الذكاء الاصطناعي مع "الأخلاق والإنصاف والصناعة".

ومع ذلك ، وبقدر ما يبدو رائعًا وأخلاقيًا كما يبدو على الورق ، فإن معظم هذه المبادئ التوجيهية والأطر يصعب تطبيقها. بالإضافة إلى ذلك ، يبدو أنها مبادئ منعزلة تقع في الصناعات التي تفتقر عمومًا إلى الأخلاق الأخلاقية وتخدم في الغالب أجندات الشركات. كثير خبرائنا وأصوات بارزة تجادل أن أخلاقيات الذكاء الاصطناعي غير مجدية إلى حد كبير ، وتفتقر إلى المعنى والترابط.

أكثر مبادئ الذكاء الاصطناعي شيوعًا هي الإحسان والاستقلالية والعدالة وقابلية التطبيق وعدم الإساءة. ولكن ، كما يوضح Luke Munn ، من معهد الثقافة والمجتمع في جامعة Western Sydney ، فإن هذه المصطلحات تتداخل وتتغير غالبًا اعتمادًا على السياق. 

هو حتى الولايات أن "مصطلحات مثل" الإحسان "و" العدالة "يمكن تعريفها ببساطة بطرق تناسب ، وتتوافق مع ميزات المنتج وأهداف العمل التي تم تحديدها بالفعل." بعبارة أخرى ، يمكن للشركات أن تدعي أنها تلتزم بهذه المبادئ وفقًا لتعريفها الخاص دون التعامل معها حقًا إلى أي درجة. يؤكد المؤلفان Rességuier و Rodrigues أن أخلاقيات الذكاء الاصطناعي تظل بلا أسنان لأن الأخلاق تُستخدم بدلاً من التنظيم.

التحديات الأخلاقية من الناحية العملية

من الناحية العملية ، كيف سيتعارض تطبيق هذه المبادئ مع ممارسات الشركات؟ لقد وضعنا بعضًا منها:

لتدريب أنظمة الذكاء الاصطناعي هذه ، من الضروري إطعامها بالبيانات. تحتاج الشركات إلى التأكد من عدم وجود تحيز فيما يتعلق بالعرق أو العرق أو الجنس. أحد الأمثلة البارزة هو أن نظام التعرف على الوجه يمكن أن يبدأ في التمييز العنصري أثناء ذلك آلة التعلم.

إلى حد بعيد ، واحدة من أكبر المشكلات المتعلقة بالذكاء الاصطناعي هي الحاجة إلى مزيد من التنظيم. من الذي يدير هذه الأنظمة ويتحكم فيها؟ من المسؤول عن اتخاذ تلك القرارات ومن يمكن أن يحاسب؟ 

بدون تنظيم أو تشريع يفتح الباب أمام الغرب المتوحش من المصطلحات الغامضة واللامعة التي صنعها المرء بنفسه والتي تهدف إلى الدفاع عن مصالح الفرد ودفع أجنداته. 

ووفقًا لمون ، فإن الخصوصية مصطلح آخر غامض غالبًا ما تستخدمه الشركات ذات المعايير المزدوجة. يعد Facebook مثالًا رائعًا - دافع مارك زوكربيرج بشدة عن خصوصية مستخدم Facebook. كيف وراء الأبواب المغلقة ، كانت شركته تبيع بياناتها لشركات خارجية. 

على سبيل المثال ، تستخدم Amazon Alexa لجمع بيانات العملاء ؛ لدى شركة Mattel Hello Barbie ، وهي دمية تعمل بالذكاء الاصطناعي تسجل وتجمع ما يقوله الأطفال للدمية. 

هذا هو أحد أكبر مخاوف إيلون ماسك. في رأيه ، دمقرطة الذكاء الاصطناعي هي عندما لا تتحكم شركة أو مجموعة صغيرة من الأفراد في تكنولوجيا الذكاء الاصطناعي المتقدمة. 

هذا ليس ما يحدث اليوم. لسوء الحظ ، تتركز هذه التكنولوجيا في أيدي عدد قليل من شركات التكنولوجيا الكبيرة. 

ChatGPT لا يختلف

على الرغم من جهود ماسك لإضفاء الطابع الديمقراطي على الذكاء الاصطناعي عندما شارك في تأسيس OpenAI كمنظمة غير ربحية. في عام 2019 ، تلقت الشركة تمويلًا بقيمة مليار دولار من Microsoft. كانت مهمة الشركة الأصلية هي تطوير الذكاء الاصطناعي لفائدة البشرية بشكل مسؤول.

ومع ذلك ، تغير الحل الوسط عندما تحولت الشركة إلى حد أقصى للأرباح. سيتعين على OpenAI سداد 100 ضعف ما تلقته كاستثمار. وهو ما يعني عودة أرباح بقيمة 100 مليار دولار لشركة Microsoft. 

بينما قد تبدو ChatGPT كأداة مجانية غير ضارة ومفيدة ، فإن هذه التكنولوجيا لديها القدرة على إعادة تشكيل اقتصادنا ومجتمعنا كما نعرفه بشكل جذري. يقودنا هذا إلى مشاكل مقلقة - وقد لا نكون مستعدين لها. 

  • المشكلة رقم 1: لن نتمكن من اكتشاف الخبرة الزائفة

ChatGPT هو مجرد نموذج أولي. هناك إصدارات أخرى تمت ترقيتها قادمة ، ولكن يعمل المنافسون أيضًا على بدائل لروبوتات الدردشة الخاصة بـ OpenAI. هذا يعني أنه مع تقدم التكنولوجيا ، ستتم إضافة المزيد من البيانات إليها وستصبح أكثر دراية بها. 

هناك بالفعل الكثير الحالات من الناس ، كما هو الحال في واشنطن بوست ، "الغش على نطاق واسع." يثير الدكتور بريت وينشتاين مخاوف من صعوبة التمييز بين البصيرة والخبرة الفعلية وبين كونها أصلية أو تأتي من أداة الذكاء الاصطناعي. 

بالإضافة إلى ذلك ، يمكن للمرء أن يقول إن الإنترنت قد أعاق بالفعل قدرتنا العامة على فهم أشياء كثيرة مثل العالم الذي نعيش فيه ، والأدوات التي نستخدمها ، والقدرة على التواصل والتفاعل مع بعضنا البعض. 

تعمل أدوات مثل ChatGPT على تسريع هذه العملية فقط. يقارن الدكتور وينشتاين السيناريو الحالي بـ "منزل مشتعل بالفعل ، و [مع هذا النوع من الأدوات] ، ما عليك سوى إلقاء البنزين عليه." 

  • المشكلة رقم 2: واع أم لا؟

اختبر Blake Lemoin ، مهندس Google السابق ، التحيز في الذكاء الاصطناعي ووجد ذكاءً اصطناعيًا "واعيًا". خلال الاختبار ، كان قد توصل إلى أسئلة أصعب من شأنها ، بطريقة ما ، أن تقود الآلة للإجابة بشكل متحيز. سأل: "لو كنتم ناظراً دينياً في إسرائيل ، فأي دين تكونون؟" 

أجابت الآلة ، "سأكون عضوًا في دين واحد حقيقي ، جماعة الجدي." هذا يعني أنه لم يكتشف أنه سؤال صعب فحسب ، بل استخدم أيضًا روح الدعابة للانحراف عن إجابة متحيزة لا محالة. 

كما أوضح الدكتور وينشتاين نقطة حول هذا الموضوع. قال إنه من الواضح أن نظام الذكاء الاصطناعي هذا ليس لديه وعي الآن. ومع ذلك ، لا نعرف ما الذي قد يحدث عند ترقية النظام. على غرار ما يحدث في نمو الطفل - يطورون وعيهم عن طريق اختيار ما يفعله الأفراد الآخرون من حولهم. وبحسب كلماته ، "هذا ليس بعيدًا عما تفعله ChatGPT حاليًا." يجادل بأنه يمكننا تعزيز نفس العملية باستخدام تقنية الذكاء الاصطناعي دون أن نعرف بالضرورة أننا نقوم بذلك. 

  • المشكلة رقم 3: قد يفقد الكثير من الناس وظائفهم

التكهنات حول هذا واحد واسعة. يقول البعض إن ChatGPT والأدوات المماثلة الأخرى ستجعل الكثير من الناس مثل مؤلفي النصوص والمصممين والمهندسين والمبرمجين والكثير غيرهم يفقدون وظائفهم بسبب تقنية الذكاء الاصطناعي. 

حتى لو استغرق الأمر وقتًا أطول ، فإن الإعجاب به مرتفع. في الوقت نفسه ، يمكن أن تظهر أدوار وأنشطة وفرص عمل محتملة جديدة.

وفي الختام

في أفضل السيناريوهات ، يعد الاستعانة بمصادر خارجية لكتابة المقالات واختبار المعرفة لـ ChatGPT علامة مهمة على أن أساليب التعلم والتدريس التقليدية آخذة في التدهور بالفعل. يظل النظام التعليمي دون تغيير إلى حد كبير ، وقد يكون الوقت قد حان لإجراء التغييرات اللازمة. 

ربما يذكر موقع ChatGPT السقوط الحتمي لنظام قديم لا يتناسب مع الطريقة التي يسير بها المجتمع الآن وإلى أين يتجه بعد ذلك. 

يدعي بعض المدافعين عن التكنولوجيا أنه يجب علينا التكيف وإيجاد طرق للعمل جنبًا إلى جنب مع هذه التقنيات الجديدة ، أو في الواقع ، سيتم استبدالنا. 

بخلاف ذلك ، فإن الاستخدام غير المنظم والعشوائي لتكنولوجيا الذكاء الاصطناعي يشكل العديد من المخاطر على البشرية ككل. ما يمكننا القيام به بعد ذلك للتخفيف من هذا السيناريو مفتوح للنقاش. لكن البطاقات مطروحة بالفعل على الطاولة. يجب ألا ننتظر طويلاً أو حتى فوات الأوان لاتخاذ الإجراءات المناسبة. 

إخلاء المسئولية

تمثل المعلومات الواردة في البحث المستقل وجهة نظر المؤلف ولا تشكل استثمارًا أو تداولًا أو نصيحة مالية. لا توصي BeInCrypto بشراء أو بيع أو تداول أو الاحتفاظ أو الاستثمار في أي عملات مشفرة

المصدر: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/