التخطي إلى المحتوى

ضاعفت Meta تقريبًا كمية المحتوى العنيف الذي أزيلته من منصة Facebook. وخلال الربع الأول من عام 2022، حذفت الشركة نحو 21.7 مليون منشور لمخالفتها قواعدها الخاصة بالعنف والتحريض على العنف، بزيادة عن 12.4 مليون في الربع السابق.

ارتفعت عمليات الإزالة أيضًا خلال الربع عبر منصة Instagram. لكن بشكل طفيف فقط. وأزالت الشركة 2.7 مليون منشور لانتهاكها قواعد العنف ارتفاعا من 2.6 مليون خلال الربع الرابع من عام 2022.

شاركت الشركة المقاييس الجديدة كجزء من تقريرها فصليًا عن تطبيق معايير المجتمع. في التقرير، عزت Meta الزيادة في عمليات الإزالة إلى توسيع تقنية الكشف الاستباقي.

وفقًا للشركة، تمت إزالة أكثر من 98٪ من المشاركات التي حذفتها قبل أن يبلغ المستخدمون عنها. يأتي التقرير في الوقت الذي تواجه فيه ميتا تدقيقًا بشأن وقت استجابتها بعد إطلاق النار الجماعي الأخير في بوفالو.

وكان هناك تباطؤ في إزالة جميع الإصدارات الجديدة من التسجيلات الحية لعمليات إطلاق النار التي تم تداولها على فيسبوك ومنصات وشركات أخرى.

تمت مشاركة نسخة واحدة تم نشرها على Facebook أكثر من 46000 مرة قبل إزالتها بعد أكثر من تسع ساعات من نشرها في الأصل.

يواجه Facebook أسئلة حول رده على عمليات إطلاق النار الجماعية

كما هو الحال مع عمليات إطلاق النار الجماعية السابقة مثل كرايستشيرش، فإن قدرة الناس على التنزيل السريع وعمل نسخ جديدة من التسجيلات الحية قد اختبرت قدرة ميتا على فرض سياساتها.

قال جاي روزين، نائب رئيس Meta Integrity، “أحد التحديات التي نراها مع أحداث مثل هذه هي إنشاء الأشخاص لمحتوى جديد وإصدارات جديدة وروابط خارجية جديدة لمحاولة التهرب من سياساتنا”.

“كما هو الحال مع أي حادث، نواصل تعلم كيفية تحسين عملياتنا وتحسين أنظمتنا لضمان أنه يمكننا اكتشاف أنه يمكننا إزالة المحتوى المخالف بسرعة أكبر في المستقبل.”

شاركت Meta أيضًا الإحصائيات المحدثة حول المحتوى الذي تحذفه عن طريق الخطأ. بالنسبة للمحتوى العنيف، قالت الشركة إنها استعادت 756000 منشور على Facebook تم الطعن فيها بعد إزالتها في البداية.

قالت الشركة إنها تقوم أيضًا بتطوير مقاييس خطأ قوية. لكنها لم توضح ما قد تقيسه بخلاف عمليات إرجاع المحتوى المتنازع عليه.