Sora من OpenAI هو عملاق “تبا لك” في الواقع


يعلم الجميع أن التضليل عبر الإنترنت يمثل مشكلة كبيرة، وهي مشكلة يمكن القول إنها موجودة بالفعل المجتمعات الممزقة، تلاعبت بالانتخابات، وتسببت في إصابة شرائح معينة من سكان العالم ليفقدوا عقولهم. وبطبيعة الحال، لا يبدو أن أحداً مهتم بشكل خاص بإصلاح هذه المشكلة فعلياً. في الواقع المؤسسات الأكثر مسؤولية بالنسبة للمعلومات المضللة عبر الإنترنت (وبالتالي، فإن الشركات الأكثر قدرة على القيام بشيء حيال ذلك) – أي شركات التكنولوجيا – تبدو عازمة على بذل كل ما في وسعها لجعل المشكلة أسوأ بشكل كبير.

مثال على ذلك: OpenAI أطلقت سورا، مولده الجديد لتحويل النص إلى فيديو، يوم الخميس. تم تصميم النموذج للسماح لمستخدمي الويب بإنشاء مقاطع فيديو عالية الجودة ومدعمة بالذكاء الاصطناعي بمطالبة نصية فقط. يُبهر التطبيق حاليًا الإنترنت بتنوعه الغريب في الصور المرئية، سواء كان ذلك كذلك موكب السنة الصينية الجديدة، رجل يركض للخلف على جهاز المشي في الظلام، قطة في السريرأو سفينتين للقراصنة يحوم في فنجان القهوة.

عند هذه النقطة، وعلى الرغم من مهمتها “المتغيرة للعالم”، فمن الممكن أن نقول إن أكبر مساهمة قدمتها شركة OpenAI في الإنترنت كانت التوليد الفوري لعدد لا يحصى من التيرابايت من الهراء الرقمي. جميع الأدوات المفتوحة والعامة للشركة هي مولدات للمحتوى، وأمثالها، وحذر الخبراء، معدة لاستخدامها في حملات الاحتيال والتضليل.

فيه مشاركة مدونة فيما يتعلق بـ Sora، يعترف فريق OpenAI صراحةً أنه قد تكون هناك بعض الجوانب السلبية المحتملة لتطبيقهم الجديد. قالت الشركة إنها من المحتمل أن تنفذ بعض تقنيات العلامات المائية لوضع علامة على المحتوى الذي أنشأه منشئها، وأنها بصدد التواصل مع الأشخاص ذوي المعرفة لمعرفة كيفية جعل الطوفان الحتمي من حماقة الذكاء الاصطناعي التي سيطلقها Sora أقل قليلاً سامة. ويشير البيان إلى:

سنقوم بإشراك صناع القرار والمعلمين والفنانين حول العالم لفهم مخاوفهم وتحديد حالات الاستخدام الإيجابي لهذه التكنولوجيا الجديدة. على الرغم من الأبحاث والاختبارات المكثفة، لا يمكننا التنبؤ بكل الطرق المفيدة التي سيستخدم بها الأشخاص التكنولوجيا لدينا، ولا جميع الطرق التي سيسيء بها الناس استخدامها.

هذا النوع من تأطير المشكلة أمر مضحك لأنه من الواضح تمامًا كيف سيتم إساءة استخدام أداة OpenAI الجديدة. سيتم استخدامه لإنشاء محتوى مزيف على نطاق هائل – من المحتمل أن يتم استخدام بعض منه لأغراض التضليل السياسي عبر الإنترنت، وبعضها سيتم استخدامه للمساعدة في مجموعة متنوعة من عمليات الاحتيال والاحتيال، وبعضها سيتم استخدامه مليئة بـ “العنف والمحتوى الجنسي” و”صور الكراهية”، كما قالت الشركة بالفعل. كل هذا المحتوى سوف يغمر قنوات التواصل الاجتماعي، مما يجعل من الصعب على الأشخاص العاديين التمييز بين ما هو حقيقي وما هو مزيف، ويجعل الإنترنت بشكل عام أكثر إزعاجًا. لا أعتقد أن الأمر يتطلب لجنة عالمية من الخبراء لمعرفة ذلك.

هناك عدد من الجوانب السلبية الأخرى الواضحة. لسبب واحد، ربما لن يكون لسورا – وآخرين من أمثاله – التأثير البيئي الأكبر. لقد أظهر الباحثون أن مولدات تحويل النص إلى صورة هي أسوأ بكثير، من الناحية البيئية، من مولدات النصوص، ومجرد إنشاء صورة بتقنية الذكاء الاصطناعي يتطلب نفس القدر من الطاقة التي يتطلبها شحن هاتفك الذكي بالكامل. ومن ناحية أخرى، من المرجح أن تضر تقنيات تحويل النص إلى فيديو الجديدة باقتصاد منشئي الفيديو، فلماذا يتعين على الشركات أن تدفع للأشخاص لإنشاء محتوى مرئي عندما يكون كل ما هو ضروري لإنشاء فيديو هو النقر فوق زر؟

وفيما يتعلق بطبقة الشركات في هذا البلد، لا شيء يهم حقًا سوى المال. اللعنة على البيئة، اللعنة على الفنانين، اللعنة على الإنترنت الخالي من المعلومات المضللة، اللعنة على صحة الخطاب السياسي، اللعنة على أي شيء يعيق دافع الربح. أي شيء يمكن تقليصه لكسب المال يجب تقليصه، حتى لو كان برنامجًا حاسوبيًا فائدته الحقيقية الوحيدة هي أنه يمكنه إنشاء فيديو لهامستر رعاة البقر يمتطي تنينًا. مثل وضعه مستخدم X واحد: “هذا هو ما يضحي الحمقى بالبيئة من أجله. غبي. القرف. يحب. هذا.”



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى