مجلس الرقابة يلغي إزالة ميتا لمنشورات الإجهاض


في مارس 2022، ميتا تمت إزالة زوج من المنشورات على Facebook و Instagram انتقاد مشروع قانون مقترح لولاية كارولينا الجنوبية كان من شأنه أن يكون مرعبًا مُطبَّق عقوبات القتل للباحثين عن الإجهاض. أعرب أحد المستخدمين، وهو من مؤيدي الوصول إلى الإجهاض، عن إحباطه على إنستغرام، واصفًا المشرعين المعنيين بأنهم “مؤيدون جدًا للحياة، وسنقتلك ميتًا إذا قمت بالإجهاض”. تمت إزالة هذا المنشور، وآخر مشابه له على فيسبوك، بواسطة Meta لانتهاك سياساتها التي تحظر التهديدات بالقتل.

في نفس الوقت تقريبًا، أزال ميتا منشورًا آخر متعلقًا بالإجهاض يأتي من منظور مختلف تمامًا. في هذه الحالة، قام أحد مستخدمي فيسبوك بتحميل صورة لزوج من الأيدي الممدودة إلى جانب التعليق: “المنطق المؤيد للإجهاض”، قبل الاستمرار في السخرية من دعاة الإجهاض. وجاء في المنشور: “لا نريد أن تكون فقيرًا أو جائعًا أو غير مرغوب فيه”. “لذلك سنقتلك بدلاً من ذلك.” تبع ذلك تسمية توضيحية تقول “المرضى النفسيين …”. أقل.

جذبت هذه المشاركات الثلاثة انتباه مجلس الرقابة، كيان يشبه المحكمة العليا في ميتا مسؤول عن تقييم القضايا الشائكة المتعلقة بالإشراف على المحتوى في الشركة. في حكم صدر من 18 صفحة اليوم و تمت مشاركتها مع Gizmodo، ألغى مجلس الرقابة قرار Meta الأصلي بإزالة الثلاثة دعامات. ومع ذلك، وللمضي قدمًا إلى أبعد من ذلك، دعا مجلس الإدارة شركة Meta إلى النشر البيانات التي استخدمتها لتقييم مدى دقة تنفيذ سياساتها المتعلقة بالعنف والتحريض. ويقولون إن مجلس الإدارة يريد تلك البيانات لتحديد ما إذا كان ذلك ممكنًا أم لا هذه المشاركات التي تمت إزالتها عن طريق الخطأ كانت قيمًا متطرفة، كما يقول ميتا، أو إذا كانت دليلاً على وجود اتجاه أكبر وأكثر استمرارًا للإفراط في إنفاذ السياسات خطاب على الشبكات الاجتماعية للشركة. في الوقت الحالي، يبدو مجلس الإدارة غير مقتنع بحجة ميتا.

وقال مجلس الإدارة: “لم تزود شركة Meta مجلس الإدارة بتأكيدات كافية بأن الأخطاء في هذه الحالات هي قيم متطرفة، وليست ممثلة لنمط منهجي من عدم الدقة”.

وأشار مجلس الرقابة في حكمه إلى وجود مناقشات حول الإجهاض على وجه الخصوص بعد انعكاس Roe V. Wade في الصيف الماضي، أصبحت أكثر مشحونة ويمكن أن تتضمن تهديدات محظورة بشكل واضح بموجب سياسات Meta. هذه المخاطر العالية تجعل ضمان الوضوح حول ما يعتبر انتهاكًا للقواعد والأهم من ذلك. الأخطاء المتكررة والتحيزات التي ارتكبت وقال مجلس الإدارة إن سياسات التنفيذ الآلية لشركة ميتا يمكن أن تؤدي إلى “أنماط دورية من الرقابة”. إزالة المحتوى المتعلق بالإجهاض عن طريق الخطأ والذي لا ينتهك في الواقع سياسات Meta، والمجلس وأضافويهدد بتعطيل النقاش السياسي عن طريق إسكات الأصوات.

لم تستجب ميتا على الفور لطلب Gizmodo للتعليق، لكن أعضاء مجلس الإدارة قالوا إن الشركة أخبرتهم أن التمييز بين الاستخدام الحرفي وغير الحرفي للغة العنيفة يمثل تحديًا لأنه “يتطلب النظر في عوامل متعددة مثل نية المستخدم، والسوق المحددة”. الفروق الدقيقة في اللغة والسخرية والفكاهة.

ال حكم المجلس وطلب المزيد من البيانات ومن الواضح أن المقصود أن يكون آثار تتجاوز هذه الوظائف الثلاث. يقول مجلس الرقابة أنه اختار المشاركات لأنها تسلط الضوء على التحدي الصعب المتمثل في الإشراف على المحتوى والمتمثل في قياس الخطاب العنيف عند استخدامه كنوع من الكلام. تظهر هذه اللغة الساخنة بشكل خاص عندما يتعلق الأمر بالمعارك حول الإجهاض ولكن يمكن أن يمتد بسهولة إلى خطابات أخرى عالية المخاطر ومثيرة للانقسام السياسي أيضًا.

لماذا تم حذف منشورات الإجهاض؟

تمت إزالة كل منشور قيد المراجعة في البداية بواسطة خدمات الفحص الآلي التابعة لشركة Meta والتي تقوم بالبحث عن علامات “الخطاب العدائي”. أثارت المنشورات أحد مصنفات الكلام العدائي الآلية في النظام ثم تم إرسالها إلى المشرفين البشريين للمراجعة. وبعد مراجعة المشاركات، أكد المشرفون قرار النظام الآلي وقالوا إنهم في الواقع ينتهكون سياسات الشركة الخاصة بالعنف والتحريض، وتحديدًا تلك التي تحظر التهديدات بالقتل. قامت Meta في النهاية بإلغاء هذه القرارات ولكن فقط بعد أن أعلن مجلس الإدارة أنه يدرس طعون المستخدمين.

استأنف المستخدمون قرار ميتا في جميع الحالات الثلاث، مشيرين إلى مجموعة متنوعة من الأسباب التي تبرر لغتهم العدوانية. في استئنافهم، جادل مستخدم الفيسبوك المؤيد لحق الاختيار بأنهم لا يشكلون تهديدًا، بل كانوا يسلطون الضوء على “المنطق المعيب” للمجموعات التي تدعم الوصول إلى الإجهاض. على النقيض من ذلك، قال مؤيد حقوق الإجهاض على فيسبوك، إنه من الشائع أن تفوت ميتا السياق الحاسم في المنشورات المتعلقة بالإجهاض. وقالوا إن بعض المستخدمين اختاروا استخدام الكلمات “de-life” أو “unalive” لمحاولة تجاوز أنظمة الكشف الآلية للشركة. ولم تستجب ميتا على الفور لطلب Gizmodo للتعليق.

أيد زوج آخر من المشرفين البشريين القرار في المنشورات الإخبارية لمجموعة Facebook وInstagram، لكنهم اعترضوا على الحكم في قضية رابط الأخبار على Facebook. استدعى ميتا مراجعًا بشريًا ثالثًا في هذه الحالة، والذي قال هذا الموقف مرة أخرى فعل انتهاك قواعد ميتا. ويشير مجلس الإدارة إلى أن ستة من أصل سبعة مشرفين بشريين مشاركين في هذه العملية، اتخذوا القرار بشكل خاطئ في النهاية. لم يكن أي من المشرفين موجودًا في الولايات المتحدة. وأخبرت شركة Meta مجلس الإدارة أنها لا تستطيع تقديم أي تفاصيل حول سبب اتخاذ المشرفين الستة قرارهم بالطريقة التي اتخذوها لأنهم لا يطلبون من المراجعين توثيق أسباب قراراتهم.

كيفية تخفيف “القتل” عندما يكون الأمر مجازيًا

تتطرق منشورات الإجهاض إلى موضوع مشترك موجود في العديد من الحالات البارزة الأخرى لمجلس الرقابة حيث يتم استخدام الكلمات العنيفة بطريقة بلاغية لا تحرض بالضرورة على العنف. أوضح مثال على ذلك هو القرار الأخير الذي اتخذه مجلس الإدارة بشأن إلغاء إزالة Meta لمنشور Facebook لعام 2022 مع نص يُترجم إلى “الموت لخامنئي”، في إشارة إلى المرشد الأعلى لإيران. وفي هذه الحالة، قال مجلس الإدارة إن قرار إزالة المحتوى اعتمد على القراءة الحرفية لكلمة “موت” وفشل في إدراك أن الشعار نفسه غالبًا ما يتم نشره كشكل من أشكال التعبير السياسي بدلاً من الدعوة إلى العنف. ومجلس الرقابة بالمثل ألغى قرار ميتا بإزالة القصيدة مقارنة الجيش الروسي بالنازيةوالتي تضمنت سطرًا مكتوبًا عليه “اقتلوا الفاشي”.

وقال مجلس الإدارة: “يشعر مجلس الإدارة بالقلق من أن الاستخدام الخطابي للكلمات العنيفة قد يكون مرتبطًا بمعدلات أخطاء عالية بشكل غير متناسب من قبل المشرفين البشريين”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى