تعرضت فيس بوك لانتقادات شديدة في الأعوام الماضية، ممن يقولون إن الشركة لم تتخذ إجراءات صارمة لإيقاف الخطابات التي تحث على الكراهية والمضايقات ونشر الأخبار الكاذبة.
لنكن منصفين، إن مهمة ضبط نشاط 1.62 مليار مستخدم يوميًّا يولدون معًا 4 بيتابايت من البيانات، تتضمن 350 مليون صورة في اليوم الواحد ليس بالأمر الهيّن.
ليس من السهل أن تكون أكبر منصة اجتماعية في العالم
تتعرض شركة فيس بوك لانتقادات لأنها سمحت لجماعات عدائية بنشر منشورات تحمل طابع التهديد والعنف، وسمحت لجماعات نظرية المؤامرة اليمينية المتطرفة مثل QAnon بحُرية نشر ادعاءات سياسية مغلوطة.
كشفت التحليلات الأكاديمية والحكومية للانتخابات الرئاسية عام 2016 عن أدلة تثبت التدخل الكبير من قبل جهات محلية وأجنبية، ويبدو أيضًا أن هذه التدخلات حدثت في انتخابات 2020.
وظفت فيس بوك 15 ألف مدير محتوى لمتابعة الحالات المُبلَغ عنها، المتعلقة بالسلوك السيء لبعض السياسيين أو بالإساءة إلى الأطفال أو استغلالهم في أعمال إرهابية. تناول المراجعون التقارير والتبليغات عمومًا حسب الترتيب الزمني، ما أدى إلى عدم مراجعة بعض التبليغات المهمة إلا بعد أيام.
حديثًا، أعلنت فيس بوك عن إدخال التعلم الآلي في عملية الإشراف. ستُستخدم خوارزميات من شأنها التحقق من التبليغات الأخطر وتحويلها إلى المشرفين، في حين يواصل المشرفون التعامل مع الإساءات الأقل خطورة مثل انتهاك حقوق النشر والبريد المؤذي.
صرحت فيس بوك أنها ستقيّم خطورة المنشور وفق 3 معايير: مدى الانتشار، والخطورة، واحتمال انتهاك القواعد. مثلًا: يُمنح المنشور الفاحش والمهدد بالعنف في مواقع الاضطرابات العرقية الأولوية القصوى، فإما أن يُزال تلقائيًّا بواسطة خوارزميات التعلم الآلي، وإما أن يُحوَّل إلى المدير للتقييم واتخاذ الإجراءات الفورية.
قال رايان بارنز مدير الإنتاج في فريق سلامة المجتمع في فيس بوك: «لا تزال جميع انتهاكات المحتوى تتلقى بعض المراجعة البشرية. سنستخدم هذا النظام لتحديد أولويات المحتوى تحديدًا أفضل. نتوقع استخدام المزيد من الأتمتة عندما يكون انتهاك المحتوى أقل خطورة، خاصةً إذا لم يكن المحتوى سريع الانتشار».
اتُّهِمَت فيس بوك بإساءة التعامل مع الحسابات في أثناء الاضطرابات الأخيرة، إذ تعرضت الشركة للمقاضاة بعد إطلاق النار المميت من قبل الحراس -جماعة تطالب بتنفيذ القانون في مجتمعهم دون سلطة الدولة- الذين نزلوا في كينوشا- ويسكونسن، بعد الاحتجاجات ضد ضباط الشرطة الذين تسببوا بجروح خطيرة لرجل أسود بعد إطلاق النار عليه في أثناء اعتقاله. تزعم الدعوى أن فيس بوك فشلت في إزالة صفحات الجماعة المتورطة في إطلاق النار.
كشفت دراسة خلال الجائحة أجرتها منظمة غير ربحية 3.8 مليار مشاهدة على فيس بوك لمحتوى مضلل يتعلق بكوفيد-19.
أحيانًا تُوجَّه الانتقادات من مديري فيس بوك الحذرين للغاية. شَكَت صحيفة ذا جارديان في يونيو الماضي أن القراء الذين نشروا صورة تاريخية قد حُظِروا ووجِهَت لهم تحذيرات من فيس بوك، إذ نُشرت صورة رجال من السكان الأصليين شبه عراة مقيدين بسلاسل في غرب أستراليا، التُقطت في تسعينيات القرن التاسع عشر، ردًا على إنكار رئيس الوزراء الأسترالي سكوت موريسون أن بلاده قد تورطت يومًا في العبودية، وقد تراجع موريسون عن تعليقاته بعد نشر المقال والصورة. واعتذر فيسبوك لاحقًا عن التصنيف غير الصحيح للصورة بأنها تعرٍّ غير لائق.
يقول مسؤولو فيسبوك إن تطبيق التعلم الآلي يعد جُزءًا من جهد مستمر لوقف انتشار المعلومات الخطيرة والمسيئة والمضللة، مع ضمان عدم حظر المنشورات المشروعة.
مثال على التحديات التي تواجه فيس بوك
أنشئت مجموعة افتراضية احتجاجية ضخمة تطالب بإعادة فرز أصوات الانتخابات الأمريكية 2020، وقد ضمّت هذه المجموعة 400 ألف عضو في غضون أيام، لم يحجب فيسبوك المجموعة، ومع أن طلب إعادة الفرز ليس مخالفًا للقانون، فإن الموجة الهائلة من المعلومات المضللة بشأن انتهاكات التصويت المزعومة -وهي التهم التي رفضها المسؤولون رفضًا قاطعًا في جميع الولايات- هي تنبيه مقلق بشأن قدرة المعلومات الخاطئة على إنشاء وجهات نظر سياسية.
قال كريس بالو عضو فريق السلامة في فيس بوك: «يتعلق النظام بالدمج بين الذكاء الاصطناعي والمراجعات البشرية للتقليل من الأخطاء. فلن يكون الذكاء الاصطناعي مثاليًّا أبدًا».
اقرأ أيضًا:
كيف تتمكن من معرفة وحظر التطبيقات التي تتتبّعك على فيس بوك؟
كيف يعرف (فيسبوك) سجل بحثك في جوجل؟
بحث جديد يعلم الذكاء الاصطناعي آلية حركة البشر باستخدام فيديوهات الإنترنت
ترجمة: فادي جبارة
تدقيق: محمد الصفتي
مراجعة: أكرم محيي الدين