3 أسباب لأن مؤسستك ستحتاج إلى مقيمي خوارزميات خارجيين

بقلم ساتا سرما هايتور

يضغط قادة الأعمال على كل القيمة التي يمكنهم الاستفادة منها من الذكاء الاصطناعي (AI). وجدت دراسة 2021 KPMG يقول غالبية قادة الأعمال الحكومية والصناعية والخدمات المالية وتجارة التجزئة وعلوم الحياة والرعاية الصحية إن الذكاء الاصطناعي يعمل على الأقل بشكل معتدل في مؤسساتهم. ووجدت الدراسة أيضًا أن نصف المستجيبين قالوا إن منظمتهم سرعت من تبني الذكاء الاصطناعي استجابةً لوباء Covid-19. في المنظمات التي تم فيها تبني الذكاء الاصطناعي ، يقول نصفهم على الأقل أن التكنولوجيا فاقت التوقعات.

أصبحت خوارزميات الذكاء الاصطناعي مسؤولة بشكل متزايد عن مجموعة متنوعة من التفاعلات والابتكارات الحالية - بدءًا من الشخصية توصيات المنتج و خدمة الزبائن تجارب للبنوك قرارات الإقراض وحتى استجابة الشرطة.

ولكن على الرغم من جميع الفوائد التي تقدمها ، فإن خوارزميات الذكاء الاصطناعي تأتي مع مخاطر كبيرة إذا لم يتم مراقبتها وتقييمها بشكل فعال من أجل المرونة والإنصاف وقابلية التفسير والنزاهة. لمساعدة قادة الأعمال في مراقبة وتقييم الذكاء الاصطناعي ، توضح الدراسة المشار إليها أعلاه أن أ يريد عدد متزايد من قادة الأعمال من الحكومة تنظيم الذكاء الاصطناعي من أجل السماح للمنظمات بالاستثمار في التكنولوجيا والعمليات التجارية المناسبة. للحصول على الدعم والإشراف اللازمين ، من الحكمة النظر في التقييمات الخارجية التي يقدمها مزود الخدمة ذو الخبرة في تقديم مثل هذه الخدمات. وإليك ثلاثة أسباب لماذا.

1. الخوارزميات هي "الصناديق السوداء"

تعمل خوارزميات الذكاء الاصطناعي - التي تتعلم من البيانات لحل المشكلات وتحسين المهام - على جعل الأنظمة أكثر ذكاءً ، وتمكينها من جمع الأفكار وتوليدها بشكل أسرع بكثير من أي وقت مضى.

ومع ذلك ، فإن بعض أصحاب المصلحة يعتبرون هذه الخوارزميات بمثابة "صناديق سوداء" ، كما يوضح درو روزين ، العضو المنتدب للتدقيق في KPMG ، وهي شركة خدمات احترافية رائدة. على وجه التحديد ، قد لا يفهم بعض أصحاب المصلحة كيفية توصل الخوارزمية إلى قرار معين ، وبالتالي قد لا يكونوا واثقين من عدالة هذا القرار أو دقته.

يقول روزين: "النتائج المستخلصة من الخوارزمية يمكن أن تكون عرضة للتحيز وسوء تفسير النتائج". "يمكن أن يؤدي ذلك أيضًا إلى بعض المخاطر التي يتعرض لها الكيان لأنها تستفيد من هذه النتائج وتشاركها مع الجمهور وأصحاب المصلحة."

الخوارزمية التي تستخدم بيانات خاطئة ، على سبيل المثال ، غير فعالة في أحسن الأحوال - وضارة في أسوأ الأحوال. كيف يمكن أن يبدو ذلك في الممارسة؟ ضع في اعتبارك روبوت محادثة قائم على الذكاء الاصطناعي يوفر معلومات حساب خاطئة للمستخدمين أو أداة ترجمة لغة آلية تقوم بترجمة النص بشكل غير دقيق. يمكن أن تؤدي كلتا الحالتين إلى أخطاء جسيمة أو تفسيرات خاطئة للهيئات أو الشركات الحكومية ، فضلاً عن المكونات والعملاء الذين يعتمدون على القرارات التي تتخذها تلك الخوارزميات.

هناك عامل آخر يساهم في مشكلة الصندوق الأسود وهو عندما يتسرب التحيز المتأصل في تطوير نماذج الذكاء الاصطناعي ، مما قد يتسبب في اتخاذ قرارات متحيزة. على سبيل المثال ، يستخدم مقرضو الائتمان الذكاء الاصطناعي بشكل متزايد للتنبؤ بالجدارة الائتمانية للمقترضين المحتملين من أجل اتخاذ قرارات الإقراض. ومع ذلك ، قد تنشأ مخاطر عندما تكون المدخلات الرئيسية في الذكاء الاصطناعي ، مثل درجة الائتمان للمقترض المحتمل ، لديه خطأ مادي، مما أدى إلى حرمان هؤلاء الأفراد من القروض.

وهذا يسلط الضوء على الحاجة إلى مُقيِّم خارجي يمكنه العمل كمقيم محايد وتقديم تقييم مركز ، بناءً على المعايير المقبولة ، لمدى ملاءمة وموثوقية البيانات والافتراضات التاريخية التي تدعم الخوارزمية.

2. أصحاب المصلحة والمنظمون يطالبون بالشفافية

في عام 2022 ، لم تكن هناك متطلبات إعداد تقارير حالية للذكاء الاصطناعي المسؤول. ومع ذلك ، يقول روزين ، "تمامًا مثل الطريقة التي أدخلت بها الهيئات الحاكمة التنظيم البيئي والاجتماعي والحكمي لـ ESG تقرير عن بعض مقاييس ESG، إنها مسألة وقت فقط حتى نرى متطلبات إضافية لإعداد التقارير التنظيمية للذكاء الاصطناعي المسؤول ".

في الواقع ، اعتبارًا من 1 يناير 2023 ، مدينة نيويورك القانون المحلي 144 يتطلب إجراء تدقيق التحيز على أداة قرار التوظيف الآلي قبل استخدامها.

وعلى المستوى الاتحادي ، فإن قانون مبادرة الذكاء الاصطناعي الوطنية لعام 2020—الذي يبني على أ 2019 الأمر التنفيذي- يركز على المعايير الفنية والإرشادات الخاصة بالذكاء الاصطناعي. بالإضافة إلى ذلك ، فإن قانون المساءلة الحسابية قد تتطلب تقييمات تأثير أنظمة القرار المؤتمتة وعمليات اتخاذ القرار الحاسمة المعززة. وفي الخارج ، فإن قانون الذكاء الاصطناعي تم اقتراح إطار تنظيمي شامل بأهداف محددة بشأن سلامة الذكاء الاصطناعي والامتثال والحوكمة والجدارة بالثقة.

مع هذه التحولات ، تخضع المنظمات لمجهر الحوكمة. قد يقدم مقيِّم الخوارزمية مثل هذه التقارير التي تتناول المتطلبات التنظيمية وتعزز شفافية أصحاب المصلحة مع تجنب المخاطر التي يسيء أصحاب المصلحة تفسيرها أو ضلل من خلال نتائج التقييم.

3. تستفيد الشركات من إدارة المخاطر على المدى الطويل

يتوقع ستيف كامارا ، الشريك في ممارسة ضمان التكنولوجيا في KPMG ، أن استثمارات الذكاء الاصطناعي ستستمر في النمو مع استمرار الكيانات في عمليات التشغيل الآلي ، وتطوير الابتكارات التي تعزز تجربة العملاء وتوزيع تطوير الذكاء الاصطناعي عبر وظائف الأعمال. للبقاء في المنافسة والربح ، ستحتاج المؤسسات إلى ضوابط فعالة لا تعالج فقط أوجه القصور المباشرة للذكاء الاصطناعي ولكن أيضًا تقلل من أي مخاطر طويلة الأجل مرتبطة بالعمليات التجارية التي يغذيها الذكاء الاصطناعي.

هذا هو المكان الذي يتدخل فيه المقيمون الخارجيون كمورد موثوق به وذكي. نظرًا لأن المؤسسات تتبنى بشكل متزايد نزاهة الذكاء الاصطناعي كأداة تمكين للأعمال ، فقد تصبح الشراكة أقل من خدمة مخصصة وأكثر من التعاون المتسق ، كما يوضح كامارا.

يقول: "إننا نرى طريقًا للمضي قدمًا حيث ستكون هناك حاجة لعلاقة مستمرة بين المنظمات التي تعمل على تطوير وتشغيل الذكاء الاصطناعي على أساس مستمر ومُقيِّم خارجي موضوعي".

نظرة على ما سيأتي بعد ذلك

في المستقبل ، قد تستخدم المؤسسات التقييمات الخارجية على أساس دوري أكثر لأنها تطور نماذج جديدة ، أو تستوعب مصادر بيانات جديدة ، أو تدمج حلول البائعين الخارجيين أو تتنقل في متطلبات الامتثال الجديدة ، على سبيل المثال.

عندما يتم فرض متطلبات تنظيم وامتثال إضافية ، قد يتمكن المقيِّمون الخارجيون من تقديم خدمات لتقييم مدى نجاح المنظمة في نشر الذكاء الاصطناعي أو استخدامه فيما يتعلق بهذه المتطلبات. سيكون هؤلاء المقيّمون في وضع أفضل لمشاركة نتائج التقييم بطريقة واضحة ومتسقة.

للاستفادة من التكنولوجيا مع الحماية أيضًا من قيودها ، يجب على المؤسسة البحث عن مقيّمين خارجيين لتقديم تقارير يمكن الاعتماد عليها بعد ذلك لإظهار قدر أكبر من الشفافية عند نشر الخوارزميات. من هناك ، يمكن لكل من المنظمة وأصحاب المصلحة فهم قوة الذكاء الاصطناعي وحدوده بشكل أفضل.

المصدر: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/