ربما يكون إضراب كتاب هوليوود قد انتهى، لكن المعركة حول الذكاء الاصطناعي لم تنته بعد


عناوين هذا الأسبوع

  • أطلقت OpenAI عددًا من التحديثات الكبيرة لـ ChatGPT هذا الأسبوع. وتشمل هذه التحديثات “عيون وآذان وصوت” (على سبيل المثال، يتميز برنامج chatbot الآن بإمكانيات التعرف على الصور، وقدرات تحويل الكلام إلى نص وتحويل النص إلى كلام، وغناء يشبه Siri – لذا فأنت تتحدث بشكل أساسي إلى HAL 9000)، بالإضافة إلى التكامل الجديد الذي يسمح للمستخدمين تصفح الإنترنت المفتوح.
  • في حدث Connect السنوي هذا الأسبوع، أطلقت Meta العنان لعدد كبير من الميزات الجديدة المتعلقة بالذكاء الاصطناعي. الق التحية على الملصقات التي تم إنشاؤها بواسطة الذكاء الاصطناعي. حزة.
  • هل يجب عليك استخدام ChatGPT كمعالج؟ على الاغلب لا. للمزيد من المعلومات حول ذلك، تابعوا مقابلة هذا الأسبوع.
  • وأخيرًا وليس آخرًا: لا يزال الروائيون مقاضاة القرف من شركات الذكاء الاصطناعي لسرقة جميع أعمالها المحمية بحقوق الطبع والنشر وتحويلها إلى طعام لروبوتات الدردشة.

القصة الرئيسية: الطباشير واحد للأخيار

أحد الأسئلة العالقة التي مسكون كان إضراب كتاب هوليوود هو نوع الحماية التي يمكن (أو لا) أن تتحقق لحماية الكتاب من تهديد الذكاء الاصطناعي. في وقت مبكر، أعلنت استوديوهات الأفلام والبث المباشر أنها كذلك متحمس من خلال فكرة أن الخوارزمية يمكنها الآن “كتابة” السيناريو. لماذا لا يكونون كذلك؟ ليس عليك أن تدفع لبرنامج حاسوبي. وهكذا، رفض المسؤولون التنفيذيون في البداية تقديم تنازلات من شأنها أن تحدد كاتب السيناريو بوضوح على أنه كاتب السيناريو بشكل واضح بشر دور.

حسنًا، لقد انتهى الإضراب الآن. والحمد لله، بطريقة أو بأخرى، والكتاب فاز بحماية كبيرة ضد هذا النوع من النزوح الآلي الذي كانوا يخشونه. ولكن إذا كانت تبدو وكأنها لحظة انتصار، فقد تكون مجرد بداية لمعركة مستمرة بين كبار المسؤولين في صناعة الترفيه والعاملين فيها من البشر.

يتضمن عقد WGA الجديد الذي نشأ عن إضراب الكاتب حماية واسعة النطاق لعمال صناعة الترفيه. بالإضافة إلى الامتيازات الإيجابية التي تنطوي على المخلفات والمخاوف الاقتصادية الأخرى، يحدد العقد أيضًا بشكل نهائي وسائل الحماية ضد النزوح عبر الذكاء الاصطناعي. وبموجب العقد، لن يُسمح للاستوديوهات باستخدام الذكاء الاصطناعي لكتابة أو إعادة كتابة المواد الأدبية، ولن تعتبر المواد الناتجة عن الذكاء الاصطناعي مصدرًا للقصص والسيناريوهات، مما يعني أن البشر سيحتفظون بالفضل الوحيد لتطوير الأعمال الإبداعية.. في الوقت نفسه، بينما قد يختار الكاتب استخدام الذكاء الاصطناعي أثناء الكتابة، لا تستطيع الشركة إجباره على استخدامه؛ وأخيرًا، سيتعين على الشركات الكشف للكتاب عما إذا كانت أي مادة مقدمة لهم قد تم إنشاؤها عبر الذكاء الاصطناعي.

باختصار: إنها أخبار جيدة للغاية أن كتاب هوليوود قد حصلوا على بعض الحماية التي تحدد معالمهم بوضوح لن يتم استبداله على الفور بالبرنامج فقط حتى يتمكن مديرو الاستوديو من تجنيب أنفسهم قاصرًا مصروف. بل إن بعض المعلقين كذلك قائلا ذلك لقد قدم إضراب الكاتب للجميع مخططًا لكيفية إنقاذ الجميع وظائف من خطر الأتمتة. وفي الوقت نفسه، يظل من الواضح أن صناعة الترفيه ــ والعديد من الصناعات الأخرى ــ هي كذلك لا تزال تستثمر بكثافة في مفهوم الذكاء الاصطناعي، وستظل كذلك في المستقبل المنظور. سيتعين على العمال مواصلة النضال من أجل حماية أدوارهم في الاقتصاد، حيث تبحث الشركات بشكل متزايد عن وظائف خالية من الأجور، الاختصارات الآلية.

المقابلة: كالي شرودر تتحدث عن سبب عدم استخدام Chatbot للمعالج

صورة للمقال بعنوان الذكاء الاصطناعي هذا الأسبوع: ربما يكون إضراب كتاب هوليوود قد انتهى ولكن المعركة حول الذكاء الاصطناعي لم تنته بعد

صورة: ملحمي

تحدثنا هذا الأسبوع مع كالي شرودر، مستشارة الخصوصية العالمية في مركز معلومات الخصوصية الإلكترونية (EPIC). أردنا التحدث إلى كالي حول حادثة الذي حدث هذا الأسبوع بمشاركة OpenAI. أثارت ليليان ونغ، رئيسة أنظمة السلامة في الشركة، الكثير من الدهشة عندما غردت أنها شعرت بأنها “مسموعة ودافئة” أثناء التحدث إلى ChatGPT. ثم غردت: “لم أجرب العلاج من قبل ولكن ربما هذا هو؟ جربه خاصة إذا كنت تستخدمه عادةً كأداة إنتاجية. كان لدى الناس مخاوف بشأن هذا الأمر، بما في ذلك كالي، الذي أصبح فيما بعد نشرت موضوع على تويتر يشرح لماذا كان برنامج chatbot شريكًا علاجيًا أقل من الأمثل: “يا إلهي، لا تستخدم ChatGPT كعلاج،” غردت كالي. كان علينا فقط معرفة المزيد. تم تحرير هذه المقابلة من أجل الإيجاز والوضوح.

في تغريداتك، بدا الأمر وكأنك تقول إن التحدث إلى برنامج الدردشة الآلي لا ينبغي اعتباره علاجًا حقيقيًا. أنا أتفق مع هذا الشعور ولكن ربما يمكنك توضيح سبب شعورك بهذه الطريقة. لماذا قد لا يكون برنامج الدردشة الآلي المدعم بالذكاء الاصطناعي هو أفضل طريق لشخص يبحث عن مساعدة عقلية؟

أرى أن هذا خطر حقيقي لعدة أسباب. إذا كنت تحاول استخدام أنظمة الذكاء الاصطناعي التوليدية كمعالج، ومشاركة كل هذه المعلومات الشخصية والمؤلمة حقًا مع برنامج الدردشة الآلي… فكل هذه المعلومات تدخل إلى النظام وسيتم استخدامها في النهاية كبيانات تدريب. لذلك يتم استخدام أفكارك الشخصية والخاصة لتدريب مجموعة بيانات هذه الشركة. وقد يكون موجودًا في مجموعة البيانات هذه إلى الأبد. قد لا يكون لديك أي وسيلة لمطالبتهم بحذفه. أو قد لا يتمكن من إزالته. قد لا تعرف ما إذا كان يمكن إرجاعه إليك أم لا. هناك الكثير من الأسباب التي تجعل هذا الوضع برمته يمثل خطرًا كبيرًا.

بالإضافة إلى ذلك، هناك أيضًا حقيقة أن هذه المنصات ليست في الواقع معالجين، فهي ليست حتى بشرية. لذلك، ليس فقط ليس عليهم أي واجب رعاية تجاهك، ولكنهم أيضًا لا يهتمون حرفيًا. إنهم غير قادرين على الاهتمام. كما أنهم ليسوا مسؤولين إذا قدموا لك نصيحة سيئة تؤدي في النهاية إلى تفاقم الأمور بالنسبة لحالتك العقلية.

على المستوى الشخصي، أشعر بالقلق والحزن على حد سواء لأن الأشخاص الذين يعانون من أزمة الصحة العقلية يتواصلون مع الآلات، فقط حتى يتمكنوا من الحصول على شخص ما أو شيء ما يستمع إليهم ويظهر لهم بعض التعاطف. أعتقد أن هذا ربما يتحدث عن بعض المشاكل الأعمق في مجتمعنا.

نعم، إنه يشير بالتأكيد إلى بعض أوجه القصور في نظام الرعاية الصحية لدينا.

مئة بالمئة. أتمنى أن يحصل الجميع على علاج جيد وبأسعار معقولة. أدرك تمامًا أن روبوتات الدردشة هذه تسد الفجوة لأن نظام الرعاية الصحية لدينا قد خذل الناس وليس لدينا خدمات صحة نفسية جيدة. لكن المشكلة هي أن هذه الحلول المزعومة يمكن أن تجعل الأمور أسوأ بكثير بالنسبة للناس. على سبيل المثال، إذا كان الأمر يتعلق فقط بكتابة شخص ما في مذكراته للتعبير عن مشاعره، فسيكون هذا أمرًا واحدًا. لكن روبوتات الدردشة هذه ليست منتدى محايدًا؛ يستجيبون لك. وإذا كان الناس يبحثون عن المساعدة وكانت تلك الاستجابات غير مفيدة، فهذا أمر مقلق. إذا كان الأمر يتعلق باستغلال آلام الناس وما يقولونه، فهذه مشكلة منفصلة تمامًا.

هل لديك أي مخاوف أخرى بشأن العلاج بالذكاء الاصطناعي؟

بعد أن قمت بالتغريد حول هذا الأمر، كان هناك بعض الأشخاص يقولون: “حسنًا، إذا اختار الناس القيام بذلك، فمن أنت لتخبرهم بعدم القيام بذلك؟” هذه نقطة صحيحة. لكن ما يقلقني هو أنه في كثير من الحالات التي تنطوي على تكنولوجيا جديدة، لا يُسمح للأشخاص باتخاذ خيارات مستنيرة لأنه لا يوجد قدر كبير من الوضوح حول كيفية عمل التكنولوجيا. إذا كان الناس على دراية بكيفية بناء هذه الأنظمة، وكيف ينتج ChatGPT المحتوى الذي يقدمه، وأين تذهب المعلومات التي تغذيها، ومدة تخزينها – إذا كانت لديك فكرة واضحة حقًا عن كل ذلك وما زلت مهتمة به، إذن… بالتأكيد، هذا جيد. لكن، في سياق العلاج، لا يزال هناك شيء إشكالي بشأنه لأنه إذا كنت تتواصل بهذه الطريقة، فمن المحتمل تمامًا أنك في حالة عقلية مضطربة حيث، بحكم التعريف، لا تفكر بوضوح. لذلك يصبح السؤال معقدًا للغاية حول ما إذا كانت الموافقة المستنيرة أمرًا حقيقيًا في هذا السياق.

اللحاق بكل أخبار Gizmodo للذكاء الاصطناعي هنا، أو ترى جميع آخر الأخبار هنا. للحصول على التحديثات اليومية، اشترك في النشرة الإخبارية المجانية لـGizmodo.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى