جارتنر: 75% من الشركات الكبرى تستعين بخبراء تحليل السلوك عبر الذكاء الاصطناعي
ظهرت في الآونة الأخيرة أزمة ثقة لدى المستخدمين تجاه حلول الذكاء الاصطناعي وتعلّم الآلات، وذلك نتيجة استمرار ظهور حوادث انتهاك الخصوصية وإساءة التعامل مع البيانات. وعلى الرغم من تصاعد ظهور قيود مشددة من قبل الجهات التنظيمية للحد من هذه الحوادث، إلّا أن جارتنر تتوقع أن تقوم 75% من الشركات الكبرى بتعيين بخبراء تحليل السلوك عبر الذكاء الاصطناعي لحماية الخصوصية وتعزيز ثقة المستخدمين بهدف الحد من الحوادث التي تؤدي إلى إلحاق الضرر بسمعتها أو علامتها التجارية.
تشكل حالات الانحياز تجاه العرق، أو الجنس، أو العمر، أو الموقع الجغرافي والانحياز تجاه مجموعة معيّنة من البيانات من القضايا والمخاطر التي لطالما شابت نماذج تدريب الذكاء الاصطناعي. هذا إلى جانب تلك الخوارزميات المبهمة كتلك المستخدمة في التعلّم المعمق للآلات حيث تخفي الكثير من التفاعلات المستترة والمتبدلة والتي تنتهي على شكل تنبؤات للذكاء الاصطناعي يصعب ترجمتها وفهمها.
وقال جيم هير، نائب الرئيس للأبحاث في جارتنر: "هناك حاجة ملحّة لأدوات ومهارات جديدة لمساعدة الشركات على الكشف عن مصادر حالات الانحياز تلك وغيرها، وبالتالي بناء الثقة في استخدامات نماذج الذكاء الاصطناعي والحد من المخاطر على سمسلوكيعة الشركة وعلامتها التجارية". وأردف السيد هير قائلًا: "هناك زيادة في أعداد مديري البيانات وتحليلها والرؤساء التنفيذيين لإدارة البيانات ممن يعملون على تعيين خبراء استقصائيين لحوادث الذكاء الاصطناعي والمحققين المتخصصين في السلوكيات الانضباطية".