توصلت الدراسة إلى أن التزييف العميق في زمن الحرب يحجب الواقع حقًا

في 14 مارس/آذار، بعد حوالي شهر من اقتحام القوات الروسية غرب أوكرانيا لبدء معركة دامية استمرت لمدة عام، ظهر الرئيس الأوكراني فلاديمير زيلينسكي على محطة تلفزيون أوكرانية وأعلن استسلامه غير المشروط. وبدا أن الرئيس، الذي كان يرتدي قميصه العسكري الأخضر طويل الأكمام، يحدق في الكاميرا ويدعي أن الجيش الأوكراني “يستسلم” وسوف “يتخلى عن أسلحته”.

يظهر فيديو Deepfake لاستسلام فولوديمير زيلينسكي على وسائل التواصل الاجتماعي

وظهر مقطع فيديو قصير آخر على مواقع التواصل الاجتماعي في نفس الوقت تقريبًا، يظهر فيه خصم زيلينسكي، الرئيس الروسي فلاديمير بوتين، وهو يعلن بالمثل عن اتفاق سلام.

ويبدو أن بوتين يقول بينما كان يجلس خلف مكتب خشبي: “لقد نجحنا في التوصل إلى السلام مع أوكرانيا”.

تمت مشاركة مقاطع الفيديو الخاصة بزيلينسكي وبوتين عشرات الآلاف من المرات على مواقع التواصل الاجتماعي المختلفة. لقد كان كلاهما أيضًا افتراءات كاملة، تم تجسيدها في العالم باستخدام تقنية التزييف العميق مدعومة بنماذج الذكاء الاصطناعي للتعلم العميق. إنها من بين أوضح الأمثلة حتى الآن لواقع كان نظريًا: مقاطع الفيديو المزيفة العميقة التي تم استخدامها كسلاح أثناء الحرب.

ربما يمكن لأي شخص لديه قدر بسيط من التدريب على اكتشاف الوسائط المعدلة رقميًا أن يشعر بشيء ما بشأن مقطعي فيديو الاستسلام. أظهر كلا المقطعين إيماءات وجه غريبة وإضاءة وظلال غير طبيعية، وكل منها يشير إلى تلاعب الذكاء الاصطناعي.

ولكن على الرغم من فضح مقطعي الفيديو بسرعة، إلا أن انتشارهما السريع عبر الإنترنت أدى إلى موجة من التعليقات والمقالات الإخبارية التي تحذر من الخطر الحقيقي المتمثل في استخدام مقاطع الفيديو المعدلة لإرباك وتقسيم الجمهور خلال فترة الحرب. يشير بحث جديد إلى أن هذا الارتفاع في التزييف العميق والقلق بشأن توزيعه يمكن أن يساهم في مشكلة أكثر صعوبة في الحل: حيث يتجاهل الناس بسرعة الوسائط المشروعة باعتبارها مزيفة عميقة. وهذا بدوره يؤدي إلى مزيد من تآكل الثقة فيما هو حقيقي على الإنترنت.

كانت تلك بعض النتائج التي لاحظها الباحثون من جامعة كوليدج كورك كجزء من دراسة حديثة نشرت في مجلة PLOS ONE. اختار الباحثون ما يقرب من 5000 تغريدة تم نشرها خلال الأشهر السبعة الأولى من عام 2022 في محاولة لتحليل الدور الذي قد تلعبه التزييف العميق في المعلومات المضللة والدعاية في زمن الحرب. إنها الدراسة الأولى من نوعها التي تقوم بالتحليل التجريبي لتأثير التزييف العميق خلال فترة الحرب.

على الرغم من أن الدراسة تكشف عن الكثير من الصور ومقاطع الفيديو التي تم التلاعب بها بواسطة الذكاء الاصطناعي، إلا أن جزءًا صادمًا من التغريدات التي يُفترض أنها تناقش التزييف العميق، تضمنت في الواقع مستخدمين يصفون بشكل خاطئ الصور ومقاطع الفيديو الحقيقية والشرعية بأنها معدلة رقميًا. تضيف النتائج الأولى من نوعها دليلاً جديدًا يعزز مخاوف الباحثين السابقين في مجال التزييف العميق والذين يخشون من أن ارتفاع جودة وانتشار مقاطع الفيديو المزيفة عبر الإنترنت قد يؤدي إلى سيناريو خبيث حيث يمكن للجهات الفاعلة السيئة ببساطة أن تدعي أن مقطع الفيديو كان “مزيفًا عميقًا” من أجل رفضه.

وقال جون تومي، الباحث في كلية علم النفس التطبيقي في كلية جامعة كاليفورنيا والمؤلف المشارك في الدراسة، لموقع Gizmodo: “ما وجدناه هو أن الناس كانوا يستخدمونه (مصطلح التزييف العميق) ككلمة طنانة لمهاجمة الأشخاص عبر الإنترنت”. يتم استخدام Deepfakes، مثل مصطلح “bot” أو “الأخبار المزيفة” قبله، كسلاح ضد وسائل الإعلام أو المعلومات التي لا يتفق معها المستخدمون ببساطة.

وأضاف: “إنها (الدراسة) تسلط الضوء على كيفية استخدام الناس لفكرة التزييف العميق ويصبحون متشككين للغاية، بطرق عديدة، في وسائل الإعلام الحقيقية، خاصة عندما لا تكون التزييف العميق منتشرة على نطاق واسع كما هي”. “يدرك عدد أكبر من الأشخاص التزييف العميق بدلاً من كونه منتشرًا بالفعل.

وينبع الكثير من عدم التطابق هذا من التغطية الإعلامية المفرطة لهذه القضية. ومن المفارقات أن التغطية حسنة النية من قبل الصحفيين الذين يحذرون من مخاطر التزييف العميق قد تساهم عن غير قصد في تدهور الثقة في وسائل الإعلام بشكل عام.

وكتب الباحثون: “نحن بحاجة إلى النظر فيما إذا كان تركيز الأخبار على التزييف العميق غير متناسب مع التهديد الذي نواجهه حاليًا وما إذا كانت هذه الاستجابة تخلق المزيد من عدم الثقة وتساهم في أزمة معرفية”.

ماذا وجدت الدراسة؟

الدراسة بعنوان “هل تؤدي مقاطع الفيديو المزيفة العميقة إلى تقويض ثقتنا المعرفية؟؟” سعى إلى تحليل الطرق التي يمكن أن تؤدي بها المناقشات حول التزييف العميق خلال فترة الحرب إلى تدهور المعرفة العامة والحقيقة المشتركة. وباستخدام واجهة برمجة التطبيقات الخاصة بتويتر، قام الباحث بسحب 4869 تغريدة ذات صلة تناقش التزييف العميق في الفترة ما بين 1 يناير 2022 و1 أغسطس من نفس العام. يقول توومي إن الباحثين قرروا التركيز على تويتر لأنه يميل إلى التركيز أكثر على الصحافة والنشاط السياسي أكثر من منصات التواصل الاجتماعي الأخرى حيث قد تنتشر التزييفات العميقة أو المناقشات حولها.

ولاحظ الباحث ارتفاعًا طفيفًا في المحتوى المرتبط بالتزييف العميق على تويتر في الأسابيع التي سبقت الغزو الروسي، مع تكهنات المواقع الإخبارية والمعلقين حول ما إذا كان بوتين سيستخدم وسائل الإعلام المعدلة كجزء من خدعة لتبرير العمل العسكري أم لا. ظهر أكبر عدد من التغريدات المتعلقة بالتزييف العميق في الفترة ما بين 14 و16 مارس، في الوقت الذي بدأت فيه مقاطع فيديو زيلينسكي وبوتين تحظى بالاهتمام. على الرغم من أن العديد من مستخدمي تويتر ردوا على تغريدة زيلينسكي انتقدوا جودة التزييف العميق، إلا أن آخرين وصفوه بخوف بأنه سلاح حرب جديد محتمل.

وجاء في إحدى التغريدات: “قد تعتقد أن التزييف العميق غير ضار إذا كنت قد شاهدت فقط مقاطع فيديو سخيفة لـ كيانو ريفز المزيف بعمق”. “لسوء الحظ، يمكن أن تكون التزييف العميق نوعًا جديدًا وشريرًا من الدعاية”، هكذا غرد أحد المستخدمين. “لقد رأينا ذلك الآن من خلال التزييف العميق للزعيمين الروسي والأوكراني.”

وكان التزييف العميق لزيلينسكي مثيرًا للقلق بشكل خاص لأنه نشأ من مصدر إخباري حسن السمعة، وهو قناة “أوكرانية 24”. المطالبات وكان التزييف العميق، الذي ظهر في إحدى برامج البث عبر الإنترنت الخاصة بهم، نتيجة لاختراق خبيث نسبوه إلى الحكومة الروسية. ولم تعلن روسيا مطلقًا مسؤوليتها عن الاختراق المفترض. زيلينسكي نفسه بسرعة نشر مقطع فيديو للمتابعة تعطيل التزييف العميق، ولكن فقط بعد أن لفت الانتباه على وسائل التواصل الاجتماعي. إذا تم تحسين جودة هذا الفيديو بفضل التقدم في نماذج الذكاء الاصطناعي التوليدية سريعة التطور، كان من الممكن أن يحدث ضررًا أكبر بكثير.

وكتب الباحثون: “لقد تم تقويض المؤشر المعتاد لصدق ومصداقية المعلومات عبر الإنترنت، ومصدر الفيديو، بسبب الاختراق”. “لو كان الفيديو أكثر واقعية وتم تصديقه على نطاق واسع، لكان من الممكن أن يكون له تأثير أكثر ضررًا”.

“الدفاع عن التزييف العميق” يكتسب زخمًا

يستخدم الممثلون السيئون والكاذبون بالفعل ما يسمى بـ “دفاعات التزييف العميق”. يحاولون إبعاد أنفسهم عن المساءلة. حاول المحامون الذين يمثلون أحد مثيري الشغب المتورطين في هجمات 6 يناير على مبنى الكابيتول في السابق إقناع هيئة المحلفين بذلك لقطة فيديو تم تقديمهم للمحاكمة ليظهروا بوضوح أن موكلهم وهو يقفز فوق حاجز بسلاح مغلف كان في الواقع تزييفًا عميقًا. وفي النهاية أدين وحكم عليه بالسجن سبع سنوات.

وفي قضية أخرى حديثة، يمثل المحامي ايلون ماسك حاول استحضار دفاع التزييف العميق للتشكيك في مقابلة مشروعة ومغطاة على نطاق واسع عام 2016 مع الملياردير حيث ادعى أن سياراته يمكنها القيادة بشكل مستقل “بأمان أكبر من الشخص”. القاضي في تلك القضية استدعى مناورات المحامي، وهو ما وصفته بأنه تشويش “مثير للقلق العميق” ويمكن أن يلحق ضرراً دائماً بالنظام القانوني. روى موقع Gizmodo مؤخرًا قصة “يهتف العميق أمي“التي وجدت نفسها ضحية لهجوم إعلامي عالمي بعد أن اتهمها مراهق زوراً بالتلاعب بمقطع فيديو يُفترض أنه يظهرها وهي تدخن السجائر الإلكترونية. الفيديو كان حقيقيا.

تحاول كل هذه الحالات، سواء نجحت أم لا، استغلال المخاوف العامة بشأن انتشار التزييف العميق للتشكيك في الواقع. إن هذه الظاهرة، التي يطلق عليها الأكاديميون “عائد الكذاب”، يمكن أن يكون لها آثار كارثية في أوقات الحرب.

يتم حاليًا عرض إصدارات مختلفة من أرباح المخبأ في زمن الحرب في الوقت الفعلي في غزة، حيث من المفترض أن القصص السريعة التي تفضح الصور ومقاطع الفيديو باعتبارها مزيفة لا تصمد أمام التدقيق. في أحد الأمثلة التي تم نشرها على نطاق واسع، ادعى المعلقون أن الصورة التي يُفترض أنها تصور طفلًا إسرائيليًا محترقًا كانت نتاج دعاية أنشأها الذكاء الاصطناعي بعد أن وصفها أحد الأشخاص بأنها غير أصلية. كاشف صور الذكاء الاصطناعي التوليدي. لكن التحليلات الإضافية للصورة أظهرت ذلك يكاد يكون من المؤكد أصيلة. حاول المعلقون المؤيدون لإسرائيل تشويه سمعة وسائل الإعلام الشرعية التي ينشرها الناشطون المؤيدون للفلسطينيين من خلال الادعاء بأنها مزيفة بعمق.

ولم يتكهن توومي بما يمكن أن توحي به النتائج التي توصل إليها في الصراع الروسي الأوكراني بشأن العاصفة المعلوماتية الحالية، لكنه قال إنه قال إن بحثه يثبت أن التزييف العميق، وإنكارها، هو شيء يمكن استخدامه لزرع الارتباك في أوقات الحرب.

“تظهر الأدلة في هذه الدراسة أن الجهود المبذولة لرفع مستوى الوعي حول التزييف العميق قد تقوض ثقتنا في مقاطع الفيديو المشروعة”، قال توومي بالفعل. “مع انتشار التزييف العميق عبر الإنترنت، سيؤدي هذا إلى تحديات متزايدة لشركات الإعلام الإخباري التي يجب أن تكون حذرة في كيفية تصنيف التزييف العميق المشتبه به في حالة إثارة الشكوك حول وسائل الإعلام الحقيقية.”


اكتشاف المزيد من موقع دبليو 6 دبليو

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع دبليو 6 دبليو

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading