المحكمة العليا في فيسبوك تنظر في قضية المحرقة منكر سكويدوارد


مجلس مراقبة ميتا، تم تكليف كيان يشبه المحكمة العليا مع مراجعة الفيسبوك و Instagram الألغاز الأكثر إثارة للجدل المتعلقة بإدارة المحتوى، يتعامل مع قضية تنطوي على مزيج غريب وغير سار: ميم Squidward النازي.

في مشاركة مدونة هذا الأسبوع، قال مجلس الرقابة إنه يبحث في الميم الذي تمت إزالته منذ ذلك الحين والذي تم نشره في سبتمبر 2020 والذي يصور Squidward – رجل الحبار البخيل من سبونج بوب سكوير بانتس– إنكار الهولوكوست. أظهر الميم، الذي نشره مستخدم غير معروف لديه حوالي 9000 متابع، Squidward بجوار فقاعة خطاب مكتوب عليها “حقائق ممتعة حول الهولوكوست”. يبدو أن هذه مسرحية على الشعبية “حقائق ممتعة مع Squidward“، قالب ميم، وإن كان مع جرعة كبيرة من حماقة النازيين الجدد اللاذعة.

يقول مجلس الرقابة إن المنشور كرر عددًا من الأكاذيب التي تشكك أو تنكر وجود الهولوكوست، بما في ذلك نظرية المؤامرة التي تم فضحها تمامًا والتي تدعي أن البنية التحتية المستخدمة لتنفيذ الإبادة الجماعية تم إنشاؤها بعد نهاية الحرب العالمية الثانية. بالإضافة إلى ذلك، تضمن التعليق الذي يظهر أسفل المنشور علامات تتعلق بالميمات الأخرى، والتي يقول مجلس الرقابة إن بعضها “قد يستهدف جماهير جغرافية محددة”. ويقول مجلس الرقابة إن المنشور لم يشاهده سوى حوالي 1000 شخص وحصل على أقل من 1000 إعجاب.

على الرغم من الرئيس التنفيذي مارك زوكربيرج تعليقات 2018 تدافع عن بعض منكري الهولوكوست، الذي قال إنه لم يخطئ “عن عمد” في حقائقه، كما فعلت سياسات ميتا محتوى محظور صراحة الذي ينكر الإبادة الجماعية منذ عام 2020. ويقول ميتا إن تلك المنشورات المحظورة تتضمن محتوى “ينفي أو يدعو إلى الشك أو يقلل من حقيقة حدوث الهولوكوست أو عدد الضحايا أو آليات التدمير المستخدمة”.

ظهر Nazi Squidward على المنصة قبل شهرين من قيام Meta بتغيير سياساتها رسميًا لحظر المحتوى الذي ينكر الهولوكوست على وجه التحديد. أبلغ المستخدمون عن المنشور إلى Meta أربع مرات قبل تغيير قواعده، ثم مرتين بعد ذلك. ويدعي مجلس الرقابة أن العديد من هذه التقارير تم تقييمها من خلال عملية المراجعة التلقائية لشركة Meta على أنها لم تنتهك أي سياسات. تم إغلاق التقارير الأخرى بسبب سياسة الأتمتة المتعلقة بكوفيد-19 الخاصة بشركة Meta، والتي أعطت الأولوية للمحتوى الذي يعتبر “عالي المخاطر” لعدد محدود من المراجعين البشريين للشركة.

في مشاركة مدونة تم تحديثه هذا الصباح، ويقول مركز الشفافية في Meta إنه ترك المحتوى في البداية ولكنه قام بإزالته بعد مزيد من المراجعة. يقول ميتا إن الاختيار الأصلي لترك المنشور كان “خطأ”. وجهتنا Meta إلى مدونتها المنشورة عند الوصول إليها للتعليق.

فلماذا يبحث مجلس الرقابة في الميم إذا تم حذفه بالفعل من المنصة؟ مثل العديد من الحالات التي يتعامل معها مجلس الإدارة، فإن المنشور المحدد المعني يعمل كبديل لمشكلات الإشراف على المحتوى الأكبر التي تلوح في الأفق على فيسبوك وInstagram. في هذه الحالة، يتحدث رد ميتا على النازي سكويدوارد عن قضية أكبر تتعلق بالاستئنافات “التي تتساءل عن الطريقة التي فرضت بها ميتا حظرها على إنكار الهولوكوست”. يمكن أن تؤدي تغييرات السياسة التي أثارها النازي Squidward إلى تغييرات أكبر في كيفية تعامل Facebook وInstagram مع محتوى خطاب الكراهية المحتمل والرد عليه.

ويقبل مجلس الإدارة التعليقات العامة حول عدد من القضايا المتعلقة بالقضية، بما في ذلك التحديات المتمثلة في الاعتماد على الأنظمة التلقائية لاكتشاف محتوى خطاب الكراهية وإزالته بدقة. وبالمثل، يهتم مجلس الإدارة أيضًا بالتعليقات التي تتناول أفضل الممارسات لمنع الأنظمة الآلية من إزالة المحتوى الذي يمكن أن يكون ساخرًا أو أي شكل آخر من أشكال الكلام المقبول عن طريق الخطأ.

يقول أعضاء مجلس الرقابة إنهم سيراجعون التعليقات خلال الأسابيع القليلة المقبلة ثم يقدمون توصيات السياسة إلى Meta. وبينما يتعين على شركة Meta الرد على مجلس الرقابة في غضون 60 يومًا من قرارها، فإن توصياتها المتعلقة بالسياسة غير ملزمة، مما يعني أن شركة Meta يمكنها ببساطة اختيار رفضها إذا رغبت في ذلك. وهذا بالضبط ما حدث في وقت سابق من هذا الأسبوع، عندما أعلنت ميتا ذلك لن يقبل توصية مجلس الرقابة التعليق الفوري لحسابات فيسبوك وإنستغرام الخاصة برئيس الوزراء الكمبودي السابق هون سين.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى