وثائق جديدة تفضح فيس بوك وتضعه في ورطة
ذكر تقرير صحفي أن عملاق مواقع التواصل الاجتماعي "فيس بوك"، لم يحذف سوى 2 % فقط من منشورات خطاب الكراهية في صفحاته، في ضربة جديدة للموقع الذي لا يزال يعاني من العطل الضخم الذي أصابه مطلع الشهر الجاري.
وثائق فيس بوك
وذكرت صحيفة "وول ستريت جورنال" الأمريكية أنها حصلت على وثائق داخلية في "فيس بوك" تظهر حجم المشكلة المستفحلة في الموقع الأزرق، على الرغم من وعود المدير التنفيذي مارك زوكربيرج المتكررة بشأن الإشراف على المحتوى.
وبحسب الوثائق، فإن برامج الذكاء الاصطناعي التي يعتمد عليها "فيس بوك" لم تتمكن إلا من حذف 2 % من إجمالي منشورات خطاب الكراهية.
الموقع الأزرق
وتناقض هذه المعلومات مع تصريحات المسؤولين في الموقع الأزرق بأن الذكاء الاصطناعي الذي يستخدمونه يتسم بالكفاءة والفعالية.
وكان زوكربيرج قال في شهادة أمام الكونجرس الأمريكي، الصيف الماضي: "فيما يتصل بمحاربة الكراهية، لقد شيدنا أنظمة متطورة".
وفي عام 2019، حذر عالم بارز من أن الذكاء الاصطناعي غير فعال في حالة "فيس بوك"، وهو الأمر الذي أكدته الوثائق المسربة أخيرا.
وقال حينها: "المشكلة هي أننا لا نملك نموذجا قادرا على التقاط غالبية المحتوى الضار".
وللمفارقة، قدر الخبير أن أنظمة الذكاء الاصطناعي في الموقع الأزرق لم تحذف سوى 2 % من المحتوى الضار، الذي ينتهك قواعد المنصة.
انظمة الذكاء الاصطناعي
وبحسب وثائق قالت "وول ستريت جورنال": إنها اطلعت عليها فحتى الآن لا تزال أنظمة الذكاء الاصطناعي في فيس بوك غير قادرة على التمييز ما بين المحتوى الضار من غيره، وعلى سبيل المثال، تظل الأنظمة عاجزة عن التفريق ما بين محتوى عن مصارعة الديوك وآخر عن حوادث السيارات.
وتشير الوثائق إلى أن موظفين من فيس بوك، قدَّروا أن خوارزميات الشبكة الاجتماعية الأكثر انتشارًا، تستطيع إزالة "جزء صغير" فقط من المنشورات التي تنتهك قواعدها، وهي نسبة بسيطة مما يتم نشره.
واستبدلت فيس بوك قبل عامين عددًا كبيرًا من الأشخاص الذين كانوا يراجعون المحتوى والتأكد من أنه ضار أم لا، وإحلال أنظمة الذكاء الاصطناعي مكانهم، وهو ما جعل الشركة أكثر اعتمادًا على هذه الأنظمة، وهو ما تسبب بـ"تضخيم نجاحاتها".
ويقر مسؤولون في فيس بوك بأن الأنظمة غير قادرة على تحييد المحتوى الضار والتأكد منه بشكل موثوق، بحسب الوثائق التي نقلت الصحيفة محتواها.