تقبل شركات التكنولوجيا الكبرى أموال الدية رسميًا للترويج للكذبة الكبرى


أجرت Meta تحديثًا هادئًا للسياسة العام الماضي مما سمح للمعلنين على Facebook وInstagram بالقول إن انتخابات 2020 كانت مزورة. إنه تغيير يعكس التحولات في Google وبقية صناعة التكنولوجيا. لقد أوضح وادي السيليكون شيئًا واحدًا: لا يمكنك استخدام أنظمته الإعلانية للتشكيك في شرعية نظام الانتخابات الأمريكي – إلا إذا كان لديك بطاقة ائتمان، وفي هذه الحالة سيكونون سعداء بتقديم المساعدة.

حتى الان، سياسة ميتا حظرت الإعلانات التي تزعم حدوث تزوير واسع النطاق للناخبين أو “نزع الشرعية عن الانتخابات” باعتبارها غير قانونية أو فاسدة. وفي أغسطس 2022، قامت الشركة تغيير دقيق وقد حظي ذلك بالملاحظة إلى حد كبير، مما أدى إلى تضييق نطاق سياستها لتشمل فقط “الانتخابات القادمة أو الجارية”. وقالت مصادر لم يذكر اسمها في ميتا لـ وول ستريت جورنال أن المديرين التنفيذيين اتخذوا قرارًا بالسماح بالأكاذيب حول الانتخابات السابقة “على أساس اعتبارات حرية التعبير”.

بمعنى آخر، ستساعدك Meta على الصراخ “لقد سرق جو بايدن الانتخابات الأخيرة”، طالما أنك لا تقول شيئًا مثل “لذا فمن المحتمل أن يفعل ذلك مرة أخرى” كما لو أن هذا ليس استنتاجًا واضحًا.

إنه تحول دراماتيكي، وهو تحول تنضم إليه بقية شركات التكنولوجيا. جوجل في يونيو أعلن أن المعلومات الخاطئة حول الانتخابات الماضية لا تنتهك سياسة المعلومات الخاطئة، في الإعلانات أو غير ذلك، تحت ستار الترويج لـ “المناقشة المفتوحة والنقاش”. بعد عدة أشهر، قام Elon Musk بتعطيل خيار الإبلاغ عن المعلومات الخاطئة تمامًا على المنصة المعروفة سابقًا باسم Twitter.

في الفترة التي سبقت انتخابات عام 2020، اتخذت منصات التكنولوجيا الكبرى موقفًا كبيرًا بشأن مدى قلقها جميعًا بشأن المعلومات المضللة. ألقى مارك زوكربيرج خطابات حول الأخبار المزيفة وأخذنا داخل انتخابات فيسبوك “غرفة الحرب“. جوجل الاستهداف الدقيق المحظور على الإعلانات السياسية ثم أغلقت الإعلانات السياسية تمامًا لاحقًا. أعلن جاك دورسي من تويتر أنه كان مخطئًا بشأن الإشراف على المحتوى وأضاف تسميات للأكاذيب الموجودة على مواقعه الإلكترونية. حسنا، الآن انتهى العرض. قرر وادي السليكون أن القليل من إنكار الانتخابات أمر مقبول. لماذا الآن تجني بضعة دولارات على طول الطريق؟

على مدى السنوات العشر الماضية، أدرك العالم حقيقة بسيطة ثم نسيها بسرعة: فقد قامت جوجل، وميتا، وتويتر، وبقية صناعة التكنولوجيا ببناء آلة عملاقة تجعل من السهل التلاعب بمئات الملايين من الناس في وقت واحد. لفترة من الوقت، كان الجمهور على نفس الصفحة حول ما إذا كان الأشخاص الذين يديرون هذه الآلة مسؤولين أم لا إذا استخدمها شخص ما لإنهاء الديمقراطية. لقد غيرت حملة العلاقات العامة التي استمرت لسنوات هذا الموقف.

الآن، يبدو أن المزيد والمزيد من الناس يعتقدون أن المعلومات المضللة هي العرض المحزن والحتمي لمجتمع مكسور، وليس نتيجة قيام الشركات العملاقة بتغذية الجمهور بالأكاذيب كل يوم.

“قامت ميتا بطرد فرق نزاهة وسلامة الانتخابات التابعة لها وسمحت بتنظيم تمرد 6 يناير العنيف على منصاتها. وقال كايل مورس، نائب المدير التنفيذي لمشروع الرقابة التقنية، في بيان صحفي: “نحن نعلم الآن أن مارك زوكربيرج وميتا سوف يكذبان على الكونجرس، ويعرضان الشعب الأمريكي للخطر، ويهددان باستمرار مستقبل ديمقراطيتنا”. “يحتاج الكونجرس والإدارة إلى التحرك الآن للتأكد من أن Meta وTikTok وGoogle وX وRumble وغيرها من منصات التواصل الاجتماعي لا تساعد وتحرض بشكل فعال الجهات الفاعلة الأجنبية والمحلية التي تقوض ديمقراطيتنا ونسيجنا الاجتماعي بشكل علني”.

ولم تستجب جوجل وتويتر لطلبات التعليق. ورفض متحدث باسم ميتا التعليق لكنه أشار إلى أ مشاركة مدونة حول السياسات الانتخابية للشركة اعتبارًا من عام 2022.

هذه امريكا. يضمن الدستور حقك في قول الأكاذيب، وقد مات عدد لا يحصى من الأشخاص من أجل حمايته. لكنها لا تنص على أن منصات التكنولوجيا يجب أن تحقق ربحًا من تلك الأكاذيب.

عندما تقرر شركات التكنولوجيا نوع المحتوى المسموح به على منصاتها، فهي نفسها ويمارسون حقوقهم في حرية التعبير. وفي أغسطس/آب، ترشح دونالد ترامب 25 إعلان على الفيسبوك بمقطع فيديو قال فيه “لقد فزنا في عام 2016. لقد أجرينا انتخابات مزورة في عام 2020 لكننا حصلنا على أصوات أكثر من أي رئيس حالي”. قبلت شركة ميتا آلاف الدولارات مقابل تلك الإعلانات، ثم قامت بتسليمها لأكثر من 400 ألف شخص، معظمهم فوق سن 65 عامًا. إن الترويج لإعلانات كهذه يعد بيانًا سياسيًا: بعض الأكاذيب سيئة للغاية ولا ينبغي لك سماعها، لكن الأكاذيب الأخرى سيئة للغاية. حسنًا، وإذا دفعت لنا، فسوف نوزعها لك.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى