فيسبوك تطوي عاما من الاخفاقات بالدفاع عن سياساتها التحريرية

عملاقة التواصل ترد على تقارير صحفية تتهم مشريفيها بالاعتماد على معلومات غير دقيقة وغير منظمة وقديمة لتحديد المحتوى المسموح به على الشبكة، مؤكدة قيامها كل اسبوعين بمنتدى عالمي داخلي لتحيين توجهاتها.
مشرفون مطالبون بمراجعة كل منشور في أقل من 10 ثوان والحكم على ألف منشور يوميا
15 ألف شخص من المشرفين والمراجعين للمحتوى حول العالم
اجتماع دوري لمعالجة القضايا التحريرية بأكثر من 100 لغة مختلفة

واشنطن – لآخر مرة في العام 2018، وجدت فيسبوك نفسها مضطرت للدفاع عن سياساتها في الاشراف على المحتوى ردا على تقارير تتهم محرريها ومشريفها بالاعتماد على معلومات غير دقيقة وغير منظمة وقديمة لتحديد المحتوى المسموح به على الشبكة الاجتماعية.

واشار تقرير صادر عن صحيفة نيويورك تايمز الأميركية الى اعتماد مسييري المنصة على وثائق تصل إلى أكثر من 1400 صفحة وتستخدم لتوجيه أكثر من 7500 مشرف في فيسبوك فيما يتعلق بموافقتهم أو رفضهم للمحتوى.

ويتكون الفريق المسؤول عن الأمان على فيسبوك من حوالي 30 ألف شخص، منهم حوالي 15 ألف شخص من المشرفين والمراجعين للمحتوى حول العالم.

وأوضحت فيسبوك أن المشرفين يعملون وفقًا لنظام الحصص، وأن تعويض المراجعين لا يعتمد على مقدار المحتوى الذي يراجعونه، ولا يتوقع من المراجعين الاعتماد على ترجمة غوغل، إذ يتم تزويدهم بالتدريبات والموارد الداعمة، في حين قال التقرير إن المشرفين يحصلون على دخل متدني، ويعملون ضمن ظروف ضاغطة، بحيث ينبغي عليهم مراجعة كل منشور في أقل من عشر ثوان والحكم على ألف منشور في اليوم، مع استخدام ترجمة غوغل.

وعلى سبيل المثال تصف احدى الوثائق بشكل غير دقيق مجرم الحرب البوسنيراتكو ملاديتش بأنه لا يزال هاربًا، بالرغم من أنه قد ألقي القبض عليه في عام 2011، في حين أن هناك شريحة أخرى تصف بشكل خاطئ القانون الهندي.

وأوضحت المنصة أن النقاش حول اعتدال المحتوى يجب أن يستند إلى حقائق، حيث قالت: “إن صحيفة نيويورك تايمز محقة في أننا نحدث سياساتنا بانتظام لمراعاة المعايير الثقافية واللغوية المتغيرة باستمرار في جميع أنحاء العالم. لكن هذه العملية أبعد ما تكون عن مخصصة لأغراض معينة”.

وأضافت فيسبوك أنها تجري تغييرات على السياسات القائمة اعتمادًا على الاتجاهات الجديدة التي يراها المراجعون والتعليقات من داخل الشركة وخارجها، بالإضافة إلى التغييرات غير المتوقعة وفقًا لما يحصل على أرض الواقع.

وأكدت ان ما تشير إليه الصحيفة على أنه اجتماع صباحي بين المهندسين والمحامين لمحاولة معالجة القضايا بأكثر من 100 لغة مختلفة هو في الواقع منتدى عالمي يعقد كل أسبوعين لمناقشة التغييرات المحتملة على سياساتها.

فيسبوك
أكثر من 7500 مشرف يعملون بتوجيهات مشكوك في دقتها

وقالت شركة التواصل الإجتماعي "ادعت صحيفة نيويورك تايمز بشكل خاطئ أننا عندما ناقشنا جهودنا للحد من خطاب الكراهية في ميانمار فإننا سمحنا، من خلال ملفات بواور بوانت الخاطئة، لمجموعة متطرفة بارزة متهمة بالتحريض على الإبادة الجماعية بالبقاء على المنصة لعدة أشهر، لكننا في الوقع، قمنا بتحديد المجموعة كمنظمة للكراهية في شهر أبريل/نيسان 2018، أي قبل ستة أشهر من تواصل الصحيفة معنا لأول مرة بخصوص هذه القصة".

وفقًا لفيسبوك، فقد بدأت المنصة على الفور بإزالة المحتوى الذي يمثل أو يثني أو يدعم منظمة "ما با ذا" في شهر أبريل/نيسان، سواء من خلال عمليات المسح الاستباقية لهذا المحتوى أو عند تلقي التقارير من المستخدمين.

كما ادعى التقرير أن المشرفين على المحتوى يعتمدون على مواد تستند إلى تفسيرات غير صحيحة لبعض القوانين الهندية، حيث تخبر الوثائق المشرفين أن أي مشاركة تنتقص أو تنتقد الأديان تشكل انتهاكًا للقانون الهندي، ويجب أن يتم الإبلاغ عنها وتحديدها للإزالة، فيما توضح وثائق أخرى أنه ينبغي على المشرفين البحث عن عبارة "كشمير الحرة"، بالرغم من قانونية هذا الشعار، كما يتم تحذيرهم من أن تجاهل المشاركات التي تستخدم هذه العبارة يمكن أن يعرض فيسبوك للحظر في الهند.

يذكر ان فيسبوك عاشت العام الأسوأ في تاريخها بعد تقارير متكررت رصدت انتهاكها خصوصية مستخدميها وبيعها بياناتهم، فضلا عن اتهامات مستمرة بعدم الحياد والعجز عن كبح التنمر والعنصرية والتطرف على الشبكة.