وقع العشرات من خبراء الذكاء الاصطناعي (AI) ، بما في ذلك الرؤساء التنفيذيون لشركة OpenAI و Google DeepMind و Anthropic ، مؤخرًا بيانًا مفتوحًا نشره مركز أمان الذكاء الاصطناعي (CAIS).
لقد أصدرنا للتو بيانًا:
"يجب أن يكون التخفيف من خطر الانقراض من الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية."
من الموقعين هينتون ، بنجيو ، التمان ، حسابيس ، سونج ، إلخ. https://t.co/N9f6hs4bpa
(1 / 6)
- دان هندريكس (DanHendrycks) 30 مايو 2023
يحتوي البيان على جملة واحدة:
"يجب أن يكون التخفيف من خطر الانقراض من الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية."
من بين الموقعين على الوثيقة "من هو" الشخصيات البارزة في الذكاء الاصطناعي ، بما في ذلك "الأب الروحي" للذكاء الاصطناعي ، جيفري هينتون. جامعة كاليفورنيا ، ستيوارت راسل من بيركلي ؛ و ليكس فريدمان من معهد ماساتشوستس للتكنولوجيا. الموسيقي غرايمز هو أيضًا أحد الموقعين ، مدرجًا ضمن فئة "الشخصيات البارزة الأخرى".
هذا الموضوع ذو علاقة بـ: يرغب الموسيقار غرايمز في "اقتسام 50٪ من الإتاوات" مع الموسيقى المولدة بواسطة الذكاء الاصطناعي
في حين أن البيان قد يبدو غير ضار على السطح ، فإن الرسالة الأساسية هي رسالة مثيرة للجدل إلى حد ما في مجتمع الذكاء الاصطناعي.
يعتقد عدد متزايد من الخبراء على ما يبدو أن التقنيات الحالية قد تؤدي أو ستؤدي حتمًا إلى ظهور أو تطوير نظام ذكاء اصطناعي قادر على تشكيل تهديد وجودي للجنس البشري.
ومع ذلك ، تم التصدي لآرائهم من قبل مجموعة من الخبراء بآراء متعارضة تمامًا. على سبيل المثال ، لاحظ رئيس علماء الذكاء الاصطناعي في Meta Yann LeCun في مناسبات عديدة أنه لا يعتقد بالضرورة أن الذكاء الاصطناعي سيصبح خارج نطاق السيطرة.
لا يوجد الذكاء الاصطناعي الخارق في أي مكان بالقرب من قمة قائمة المخاطر الوجودية.
في جزء كبير منه لأنه غير موجود بعد.إلى أن نحصل على تصميم أساسي حتى للذكاء الاصطناعي على مستوى الكلاب (ناهيك عن المستوى البشري) ، فإن مناقشة كيفية جعله آمنًا أمر سابق لأوانه. https://t.co/ClkZxfofV9
- Yann LeCun (ylecun) 30 مايو 2023
بالنسبة له وللآخرين الذين لا يتفقون مع خطاب "الانقراض" ، مثل أندرو نج ، المؤسس المشارك لـ Google Brain وكبير العلماء السابق في Baidu ، فإن الذكاء الاصطناعي ليس هو المشكلة ، إنه الحل.
على الجانب الآخر من الحجة ، يعتقد خبراء مثل هينتون والرئيس التنفيذي لشركة Conjecture كونور ليهي أن الذكاء الاصطناعي على المستوى البشري أمر لا مفر منه ، وعلى هذا النحو ، حان وقت العمل الآن.
وقع رؤساء جميع مختبرات الذكاء الاصطناعي الكبرى على هذه الرسالة للاعتراف صراحة بخطر الانقراض من الذكاء الاصطناعي العام.
خطوة لا تصدق إلى الأمام ، تهانينا لدان على عمله الرائع في جمع هذا معًا وشكراً لكل موقع على القيام بدوره من أجل مستقبل أفضل! https://t.co/KDkqWvdJcH
- كونور ليهي (NPCollapse) 30 مايو 2023
ومع ذلك ، ليس من الواضح ما هي الإجراءات التي يدعو إليها الموقعون على البيان. الرؤساء التنفيذيون و / أو رؤساء الذكاء الاصطناعي لكل شركة ذكاء اصطناعي كبرى تقريبًا ، بالإضافة إلى علماء مشهورين من مختلف الأوساط الأكاديمية ، هم من بين أولئك الذين وقعوا ، مما يجعل من الواضح أن القصد ليس وقف تطوير هذه الأنظمة التي يحتمل أن تكون خطرة.
في وقت سابق من هذا الشهر ، ظهر الرئيس التنفيذي لشركة OpenAI ، سام التمان ، أحد الموقعين على البيان المذكور أعلاه ، لأول مرة أمام الكونجرس خلال جلسة استماع في مجلس الشيوخ لمناقشة تنظيم الذكاء الاصطناعي. تصدرت شهادته عناوين الصحف بعد أن قضى معظمها في حث المشرعين على تنظيم صناعته.
كما قام مشروع Altman's Worldcoin ، وهو مشروع يجمع بين العملة المشفرة وإثبات الشخصية ، بجولات إعلامية مؤخرًا بعد جمع 115 مليون دولار في تمويل السلسلة C ، مما رفع إجمالي تمويله بعد ثلاث جولات إلى 240 مليون دولار.
المصدر: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war