تهديد الذكاء الاصطناعي للحرية الإبداعية
عناوين هذا الأسبوع
- الملصقات التي تم إنشاؤها بواسطة الذكاء الاصطناعي من Meta، والتي تم إطلاقها الأسبوع الماضي فقط، هي تسبب بالفعل الفوضى. وسرعان ما أدرك المستخدمون أن بإمكانهم استخدامها لإنشاء صور فاحشة، مثل صور إيلون موسك مع أثداءه، وتلك التي تتضمن جنودًا أطفالًا، ونسخة متعطشة للدماء من شخصيات ديزني. كما سبق بالنسبة لميزة إنشاء الصور في Microsoft Bing، والتي أطلقت اتجاهًا حيث يقوم المستخدمون بإنشاء صور للمشاهير وشخصيات ألعاب الفيديو ارتكاب هجمات 11 سبتمبر.
- أصيب شخص آخر بحادث سيارة أجرة آلية في سان فرانسيسكو. أصيبت الضحية في البداية بسيارة يديرها الإنسان ولكنها تعرضت لها بعد ذلك دهس بواسطة السيارة الآليةالتي توقفت فوقها ورفضت التزحزح رغم صراخها. يبدو أن هذا كله “تحسين السلامة على الطرق” الشيء الذي أعلنته شركات السيارات ذاتية القيادة عن مهمتها لم يتحقق بعد.
- أخيرًا وليس آخرًا: يُظهر تقرير جديد أن الذكاء الاصطناعي يتم استخدامه بالفعل كسلاح من قبل الحكومات الاستبدادية في جميع أنحاء العالم. بيت الحرية كشف أن القادة يستفيدون من أدوات الذكاء الاصطناعي الجديدة لقمع المعارضة ونشر المعلومات المضللة عبر الإنترنت. لقد أجرينا مقابلة مع أحد الباحثين المرتبطين بالتقرير في مقابلة هذا الأسبوع.
القصة الرئيسية: الانقلاب الإبداعي للذكاء الاصطناعي
على الرغم من أن رجال الضجيج الذين يقفون وراء صناعة الذكاء الاصطناعي التوليدي يكرهون الاعتراف بذلك، فإن منتجاتهم ليست إنتاجية بشكل خاص، ولا ذكية بشكل خاص. وبدلاً من ذلك، يمكن وصف المحتوى الآلي الذي تنتجه منصات مثل ChatGPT وDALL-E بقوة مكثفة بشكل أكثر دقة بأنه مشتق من الانحدار – وهو اجترار هريس خوارزمي لآلاف الأعمال الإبداعية الحقيقية التي أنشأها فنانون ومؤلفون من البشر. باختصار: “فن” الذكاء الاصطناعي ليس فنًا، بل هو مجرد منتج تجاري ممل تم إنتاجه بواسطة البرمجيات ومصمم لسهولة التكامل بين الشركات. لجنة التجارة الفيدرالية سمع، الذي تم عقده افتراضيًا عبر البث المباشر عبر الإنترنت، أوضح هذه الحقيقة تمامًا.
تم تصميم جلسة الاستماع هذا الأسبوع، بعنوان “الاقتصاد الإبداعي والذكاء الاصطناعي التوليدي”، للسماح للممثلين من مختلف المهن الإبداعية بفرصة التعبير عن مخاوفهم بشأن الاضطراب التكنولوجي الأخير الذي يجتاح صناعاتهم. ومن جميع الجهات، كانت الدعوة المدوية هي وضع قواعد تنظيمية مؤثرة لحماية العمال.
هذه الرغبة ل ربما كان أفضل مثال على هذا الإجراء هو دوجلاس بريستون، وهو واحد من عشرات المؤلفين المدرجين حاليًا كمدعين في دعوى جماعية ضد OpenAI بسبب استخدام الشركة لموادها لتدريب خوارزمياتها. وخلال تصريحاته، بريستون لاحظت ذلك “سيكون ChatGPT ضعيفًا وعديم الفائدة بدون كتبنا” وأضاف: “فقط تخيل كيف سيكون الأمر إذا تم تدريبه فقط على النص المستخرج من مدونات الويب والآراء وقصص القطط والمواد الإباحية وما شابه ذلك.” وقال أخيرًا: “هذا هو عمل حياتنا، نحن نسكب قلوبنا وأرواحنا في كتبنا”.
تبدو مشكلة الفنانين جميلة واضح: كيف هم البقاء على قيد الحياة في سوق حيث تكون الشركات الكبيرة قادرة على استخدام الذكاء الاصطناعي ليحل محلها – أو، بشكل أكثر دقة، تقليص فرصها وقوتها التفاوضية من خلال أتمتة أجزاء كبيرة من الخدمات الإبداعية؟
وفي الوقت نفسه، تكمن المشكلة بالنسبة لشركات الذكاء الاصطناعي في أن هناك أسئلة قانونية غير محلولة عندما يتعلق الأمر بعدد لا يحصى من الأعمال المملوكة التي استخدمتها شركات مثل OpenAI لتدريب خوارزمياتها التي تحل محل الفنانين/المؤلفين/الموسيقيين. لن يتمكن ChatGPT من إنتاج قصائد وقصص قصيرة بنقرة زر واحدة، ولن يكون لدى DALL-E القدرة على نشر صوره الغريبة، لو لم تلتهم الشركة التي تقف وراءها عشرات الآلاف من الصفحات من المؤلفين المنشورين والمرئيات. الفنانين. إذن، فإن مستقبل صناعة الذكاء الاصطناعي – ومستقبل الإبداع البشري حقًا – سيتم تحديده من خلال جدال مستمر يتكشف حاليًا داخل نظام المحاكم الأمريكية.
المقابلة: ألي فانك يتحدث عن كيفية استخدام الذكاء الاصطناعي كسلاح من قبل الأنظمة الاستبدادية
لقد سعدنا هذا الأسبوع بالتحدث مع ألي فانك، مديرة أبحاث التكنولوجيا والديمقراطية في فريدوم هاوس. نشرت مؤسسة فريدوم هاوس، التي تتابع القضايا المرتبطة بالحريات المدنية وحقوق الإنسان في جميع أنحاء العالم، تقريرها السنوي عن حالة حرية الإنترنت مؤخرًا. هذه السنوات تقرير ركز على الطرق التي تعمل بها أدوات الذكاء الاصطناعي المطورة حديثًا على تعزيز أساليب الحكومات الاستبدادية في الرقابة والتضليل والقمع الشامل للحريات الرقمية. كما قد تتوقع، الأمور لا تسير بشكل جيد في هذا القسم. تم تحرير هذه المقابلة بشكل طفيف من أجل الوضوح والإيجاز.
إحدى النقاط الرئيسية التي تحدثت عنها في التقرير هي كيف يساعد الذكاء الاصطناعي الرقابة الحكومية. هل يمكنك فك هذه النتائج قليلاً؟
ما وجدناه هو أن الذكاء الاصطناعي يسمح بالفعل للحكومات بتطوير نهجها في الرقابة. وقد حاولت الحكومة الصينية، على وجه الخصوص، تنظيم روبوتات الدردشة لتعزيز سيطرتها على المعلومات. إنهم يفعلون ذلك من خلال طريقتين مختلفتين. الأول هو أنهم يحاولون التأكد من عدم تمكن المواطنين الصينيين من الوصول إلى برامج الدردشة التي أنشأتها شركات مقرها في الولايات المتحدة. إنهم يجبرون شركات التكنولوجيا في الصين على عدم دمج ChatGPT في منتجاتهم… نحن نعمل أيضًا على إنشاء روبوتات الدردشة الخاصة بهم حتى يتمكنوا من تضمين ضوابط الرقابة ضمن بيانات التدريب الخاصة بالروبوتات الخاصة بهم. تتطلب اللوائح الحكومية أن تتماشى بيانات التدريب الخاصة بـ Ernie، برنامج الدردشة الآلي الخاص بشركة Baidu، مع ما يريده الحزب الشيوعي الصيني (حزب المجتمع الصيني) وتتوافق مع العناصر الأساسية للدعاية الاشتراكية. إذا لعبت بها، يمكنك رؤية هذا. ويرفض الرد على المطالبات المتعلقة بمذبحة ميدان السلام السماوي.
المعلومات المضللة هي مجال آخر تتحدث عنه. اشرح قليلاً عما يفعله الذكاء الاصطناعي في تلك المساحة.
لقد كنا نعد هذه التقارير منذ سنوات، والأمر الواضح هو أن حملات التضليل الحكومية هي مجرد سمة منتظمة لفضاء المعلومات هذه الأيام. وفي تقرير هذا العام، وجدنا أن 47 حكومة على الأقل، من بين الدول السبعين، نشرت معلقين استخدموا أساليب خادعة أو سرية لمحاولة التلاعب بالمناقشة عبر الإنترنت. لقد كانت شبكات (التضليل) هذه موجودة منذ فترة طويلة. في العديد من البلدان، فهي متطورة للغاية. لقد ظهر سوق كامل لخدمات الاستئجار لدعم هذه الأنواع من الحملات. لذلك يمكنك فقط استئجار أحد المؤثرين على وسائل التواصل الاجتماعي أو أي وكيل آخر مماثل للعمل لديك، وهناك العديد من شركات العلاقات العامة المشبوهة التي تقوم بهذا النوع من العمل لصالح الحكومات.
أعتقد أنه من المهم الاعتراف بأن الذكاء الاصطناعي كان جزءًا من عملية التضليل بأكملها لفترة طويلة. لديك خوارزميات النظام الأساسي التي تم استخدامها منذ فترة طويلة لنشر المعلومات المثيرة أو غير الموثوقة. لديك روبوتات يتم استخدامها عبر وسائل التواصل الاجتماعي لتسهيل انتشار هذه الحملات. لذا فإن استخدام الذكاء الاصطناعي في التضليل ليس بالأمر الجديد. لكن ما نتوقع أن يفعله الذكاء الاصطناعي التوليدي هو تقليل حاجز الدخول إلى سوق المعلومات المضللة، لأنه ميسور التكلفة وسهل الاستخدام ويمكن الوصول إليه. عندما نتحدث عن هذه المساحة، فإننا لا نتحدث فقط عن روبوتات الدردشة، بل نتحدث أيضًا عن الأدوات التي يمكنها إنشاء الصور والفيديو والصوت.
ما نوع الحلول التنظيمية التي تعتقد أنه يجب النظر فيها للحد من الأضرار التي يمكن أن يسببها الذكاء الاصطناعي عبر الإنترنت؟
نعتقد أن هناك الكثير من الدروس المستفادة من المناقشات التي جرت خلال العقد الماضي حول سياسة الإنترنت والتي يمكن تطبيقها على الذكاء الاصطناعي. قد تكون الكثير من التوصيات التي قدمناها بالفعل بشأن حرية الإنترنت مفيدة عندما يتعلق الأمر بمعالجة الذكاء الاصطناعي. لذا، على سبيل المثال، فإن قيام الحكومات بإجبار القطاع الخاص على أن يكون أكثر شفافية بشأن كيفية تصميم منتجاته وما هو تأثيره على حقوق الإنسان يمكن أن يكون مفيدًا للغاية. وفي الوقت نفسه، يعد تسليم بيانات النظام الأساسي إلى باحثين مستقلين توصية مهمة أخرى قدمناها؛ يمكن للباحثين المستقلين دراسة تأثير المنصات على السكان، وما هو تأثيرها على حقوق الإنسان. والشيء الآخر الذي أوصي به حقاً هو تعزيز تنظيم الخصوصية وإصلاح قواعد المراقبة المثيرة للمشاكل. أحد الأشياء التي نظرنا إليها سابقًا هو اللوائح التنظيمية للتأكد من عدم قدرة الحكومات على إساءة استخدام أدوات مراقبة الذكاء الاصطناعي.
اللحاق بكل أخبار Gizmodo للذكاء الاصطناعي هنا، أو ترى جميع آخر الأخبار هنا. للحصول على التحديثات اليومية، اشترك في النشرة الإخبارية المجانية لـGizmodo.
اكتشاف المزيد من موقع دبليو 6 دبليو
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.