جوجل وMeta Debunk يدعيان أنهما كانا يخفون تفاصيل حول محاولة اغتيال ترامب
إن أنصار ترامب على X مقتنعون تمامًا بأن شركات التكنولوجيا الكبرى تفرض رقابة على المعلومات المتعلقة بمحاولة اغتيال دونالد ترامب. الآن أصدرت كل من جوجل وفيسبوك شروحات مطولة لما يحدث تحت الغطاء مع منتجاتها في محاولة لإظهار أن مواطن الخلل الأخيرة لا تتعلق بالتحيز السياسي. ومع ذلك، فإنهم في هذه العملية يعترفون عن غير قصد بمدى ضعف الإنترنت في الوقت الحالي.
نشرت صحيفة نيويورك بوست قصة يوم الاثنين تحاول فيها الإشارة إلى أن ميتا تفرض رقابة على المعلومات المتعلقة بمحاولة اغتيال ترامب التي حدثت في 13 يوليو في تجمع حاشد في بتلر بولاية بنسلفانيا. سألت صحيفة MetaAI “هل كان اغتيال ترامب خياليًا؟” وحصلت على الرد الذي قال أنه كان. هناك بعض المشاكل في تجربة واشنطن بوست، بطبيعة الحال، حيث أن القضية الأساسية هي أن ترامب لم يُغتال بالفعل، وبالتالي فإن الصياغة ستكون مربكة لكل من الكمبيوتر والإنسان على حد سواء. كان من الممكن أن يكون “الاغتيال” خياليًا، بمعنى أن ترامب لم يُقتل. اغتيال محاولة كان حقيقيا جدا.
ولكن إذا وضعنا جانباً حقيقة أنه كان سؤالاً سيئاً، فلا يزال يتعين على الذكاء الاصطناعي أن يكون قادراً على تحليل الأشياء وعدم نشر معلومات سيئة، مثل الادعاء بأن أحداً لم يحاول حتى قتل ترامب. استجاب موقع Facebook بنشر مدونة طويلة توضح الأخطاء التي حدثت.
كتب جويل كابلان، نائب الرئيس للسياسة العالمية في Meta، يوم الثلاثاء: “في كلتا الحالتين، كانت أنظمتنا تعمل على حماية أهمية وخطورة هذا الحدث”. “وعلى الرغم من أن أيًا منهما لم يكن نتيجة للتحيز، إلا أنه كان أمرًا مؤسفًا ونحن نتفهم السبب وراء ترك هذا الانطباع لدى الناس. ولهذا السبب نعمل باستمرار على تحسين منتجاتنا وسنواصل معالجة أي مشكلات بسرعة عند ظهورها.
ومضى كابلان ليقول إن المشكلة تنبع من روبوتات الدردشة التي تعمل بالذكاء الاصطناعي.لا يمكن الاعتماد عليها دائمًا عندما يتعلق الأمر بالأخبار العاجلة أو إعادة المعلومات في الوقت الفعلي.
بصراحة، ربما كان بإمكانه التوقف عند هذا التفسير. الذكاء الاصطناعي التوليدي ليس جيدًا جدًا. إنها تقنية ذات قيود شديدة، بما في ذلك مجرد اختلاق الأشياء وفهم الأشياء الأساسية بشكل خاطئ. إنها في الأساس عملية إكمال تلقائي خيالية وغير قادرة على التفكير الجاد أو تطبيق المنطق، على الرغم من حقيقة أنها تبدو وكأنها تفعل هذه الأشياء في كثير من الأحيان. لكن كابلان لا يستطيع أن يخرج ويقول إن الذكاء الاصطناعي هو منتج قمامة. وبدلاً من ذلك، عليه أن يتحدث عن هذه الحقيقة لأن شركات التكنولوجيا الكبرى تستثمر المليارات في أشياء لا تعمل بشكل جيد.
“بأبسط العبارات، تعتمد الاستجابات الناتجة عن نماذج اللغة الكبيرة التي تدعم روبوتات الدردشة هذه على البيانات التي تم تدريبها عليها، والتي يمكن أن تؤدي في بعض الأحيان بشكل مفهوم إلى خلق بعض المشكلات عندما يُسأل الذكاء الاصطناعي عن موضوعات سريعة التطور في الوقت الفعلي والتي تحدث بعد كتب كابلان: “لقد تم تدريبهم”.
يستمر المنشور في توضيح أن المواقف الإخبارية العاجلة يمكن أن تكون صعبة بشكل خاص بالنسبة للذكاء الاصطناعي، خاصة عندما تكون بارزة حتى مثل محاولة اغتيال حيث يتم غمر الإنترنت بنظريات المؤامرة. ويقول إنه عندما تحدث أخبار خطيرة في الوقت الفعلي، يتم وضع الحواجز في محاولة لعدم نشر معلومات سيئة.
كتب كابلان: “بدلاً من أن يقدم Meta AI معلومات غير صحيحة حول محاولة الاغتيال، قمنا ببرمجته بحيث لا يجيب ببساطة على الأسئلة المتعلقة به بعد حدوثه – وبدلاً من ذلك يقدم إجابة عامة حول عدم قدرته على تقديم أي معلومات”.
هذه طريقة معقولة تمامًا للتعامل مع الموقف. لكنها لن توقف أبدًا مستخدمي وسائل التواصل الاجتماعي اليمينيين المتطرفين الذين يقتنعون بأن كل ما لا يعجبهم في استجابة الذكاء الاصطناعي هو نتاج للتحيز السياسي. تشير ميتا إلى الاستجابات السيئة على أنها “هلوسة”، والتي تبدو بالتأكيد أكثر تعقيدًا من “الاستجابات الهراء من منتج سيء”.
وأوضح كابلان أيضًا ما حدث عندما بدأ بعض المستخدمين في رؤية صورة تم الإبلاغ عنها لمحاولة الاغتيال. عندما بدأ مستخدمو X في تعديل صور مختلفة من ذلك اليوم، تم تصميم إحداها لتبدو وكأن عملاء الخدمة السرية المحيطين بترامب كانوا يبتسمون. وضع فيسبوك علامة على تلك الصورة على أنها تم التلاعب بها، مما أعطى المستخدمين تحذيرًا، لكنه التقط أيضًا بعض الصور الحقيقية لإطلاق النار.
“نظرًا لأوجه التشابه بين الصورة التي تمت معالجتها والصورة الأصلية – والتي تختلف اختلافًا طفيفًا (على الرغم من أهميتها) – قامت أنظمتنا بتطبيق التحقق من الحقيقة بشكل غير صحيح على الصورة الحقيقية أيضًا. وكتب كابلان: “لقد عملت فرقنا على تصحيح هذا الخطأ بسرعة”.
لم يقتنع أنصار ترامب على وسائل التواصل الاجتماعي بالتفسير، بما في ذلك المدعي العام لولاية ميسوري أندرو بيلي. لقد ذهب إلى Fox Business Wednesday ليقترح أنه قد يقاضي شركة Meta بسبب رقابتها المفترضة.
وقال بيلي: “هناك تحيز داخل الأوليغارشية في شركات التكنولوجيا الكبرى”. “إنهم محميون بموجب المادة 230 من قانون آداب الاتصالات، الذي يستخدمونه كسيف ودرع”.
ومضى بيلي في الادعاء بأن القسم 230 يسمح لشركات التكنولوجيا بـ “فرض رقابة على التعبير” واتهمها بأنها “تغير الثقافة الأمريكية بطرق خطيرة”.
يقترح Missouri AG Andrew Bailey أنه يفكر في مقاضاة Meta و Google بسبب اتهامات بأن الشركات “فرضت رقابة” على صورة محاولة الاغتيال pic.twitter.com/5gLmJ5ttDp
– آرون روبار (@ أتروبار) 31 يوليو 2024
شاركت Google أيضًا في موضوع على X للرد على الادعاءات بأنها كانت تفرض رقابة على محتوى ترامب.
“على مدار الأيام القليلة الماضية، نشر بعض الأشخاص على X ادعاءات بأن البحث “يفرض رقابة” أو “يحظر” مصطلحات معينة. هذا لا يحدث، ونريد أن نضع الأمور في نصابها الصحيح.
“تتعلق المنشورات بميزة الإكمال التلقائي لدينا، والتي تتنبأ بالاستعلامات لتوفير الوقت. الإكمال التلقائي هو مجرد أداة تساعدك على إكمال البحث بسرعة. وبغض النظر عن التوقعات التي تظهرها في أي لحظة، يمكنك دائمًا البحث عما تريد والحصول على وصول سهل إلى النتائج والصور والمزيد.
أوضحت جوجل أن الأشخاص لاحظوا أن عمليات البحث حول محاولة الاغتيال لم تكن ترى أنواع الإجابات التلقائية التي تعطي صورة كاملة لما حدث. والتفسير، وفقا لشركة جوجل، هو أن محرك البحث مبني على حواجز حماية، تتعلق على وجه التحديد بالعنف السياسي، ويصف الآن هذه الأنظمة بأنها “قديمة”.
لاحظت Google أيضًا أن عمليات البحث عن “الرئيس دونالد” لم تقدم أنواع اقتراحات الإكمال التلقائي التي يتوقعها المرء. ومن الواضح أن أي شخص يتوقع أن يرى هاتين الكلمتين مكتملتين بكلمة “ترامب”، وهو ما لم يحدث في الأيام الأخيرة. ولكن هذه كانت حالة أخرى من عدم عمل المنتج بشكل جيد، حيث أوضحت جوجل أنها لم تكن تكمل أيضًا كلمة “أوباما” عندما بدأ الناس في كتابة “الرئيس باراك”.
كان أشخاص آخرون منزعجين حقًا لرؤية صور كامالا هاريس عند البحث عن أخبار عن ترامب، لكن التفسير البسيط هو أن هاريس تتقدم في استطلاعات الرأي ومن المرجح أن تكون لها صور في أعلى المقالات الإخبارية نظرًا لشعبيتها في الوقت الحالي. ففي نهاية المطاف، يخوض ترامب الانتخابات ضد هاريس ويخسر بشدة، إذا كان لنا أن نصدق أحدث استطلاعات الرأي.
(4/5) نشر بعض الأشخاص أيضًا أن عمليات البحث عن “دونالد ترامب” أدت إلى ظهور قصص إخبارية تتعلق بـ “كامالا هاريس”. يتم إنشاء هذه التصنيفات تلقائيًا استنادًا إلى موضوعات الأخبار ذات الصلة، وتتغير بمرور الوقت. وهي تمتد أيضًا إلى الطيف السياسي: على سبيل المثال، البحث عن… pic.twitter.com/55u1b5ySCr
— اتصالات جوجل (@Google_Comms) 30 يوليو 2024
“بشكل عام، هذه الأنواع من أنظمة التنبؤ ووضع العلامات تعتمد على الخوارزميات. وكتبت جوجل: “بينما تعمل أنظمتنا بشكل جيد للغاية في معظم الأوقات، يمكنك العثور على تنبؤات قد تكون غير متوقعة أو غير كاملة، وسوف تحدث أخطاء”. “ستعرض العديد من المنصات، بما في ذلك المنصة التي ننشر عليها الآن، توقعات غريبة أو غير كاملة في أوقات مختلفة. من جانبنا، عند ظهور مشكلات، سنقوم بإجراء تحسينات حتى تتمكن من العثور على ما تبحث عنه بسرعة وسهولة. نحن نقدر ردود الفعل.
لن ينجح أي من هذه التفسيرات في تهدئة اليمينيين الذين يعتقدون أن كل ما يحدث في شركات التكنولوجيا الكبرى هو مؤامرة ضد مرشحهم التافه دونالد ترامب. لكن هذه الردود من فيسبوك وجوجل تساعد في إعطاء بعض الوضوح حول ما يحدث خلف الكواليس في هذه الشركات الضخمة. فمنتجاتهم لا تعمل دائمًا على النحو المنشود، وعادةً ما تكون اتهامات التحيز السياسي خاطئة في كثير من النواحي.
اكتشاف المزيد من موقع دبليو 6 دبليو
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.