الممثلون الصوتيون يتحدثون علنًا عن لوائح الذكاء الاصطناعي التي يرغبون في الحصول عليها


في نهاية هذا الأسبوع، تبلد-أفترا و NAVA – الرابطة الوطنية لممثلي الصوت – تعاونت في حلقة نقاش في نيويورك كوميك كون حول الذكاء الاصطناعي في مجال الترفيه. المشرفة ليندسي روسو، وهي أيضًا ممثلة صوتية، قدم اللوحة من خلال توضيح أنه “في الوقت الحالي لا توجد حماية قانونية أو تشريعية لأصواتنا، وأحيانا حتى لأمثالنا أو لحركاتنا”. وقالت إن العمل المنظم حاليًا هو الشيء الوحيد الذي يقف بين الشركات والاستخدام المتفشي للتكنولوجيا لاستبدال الممثلين والفنانين العاملين بنسخ طبق الأصل من أعمالهم دون موافقتهم أو تعويضهم أو موافقتهم.

كان دنكان كرابتري-أيرلندا، المدير التنفيذي الوطني وكبير المفاوضين في SAG/AFTRA، ضمن اللجنة، وقد شرح الوضع بوضوح: “القانون لم يواكب هذه التكنولوجيا بأي حال من الأحوال… أفضل مكان لحماية فناني الأداء على الفور هي المفاوضة الجماعية، لأنه في الوقت الحالي هذه الشركات، مثل استوديوهات ألعاب الفيديو، لا يمكنها استخدام صوتك، وشكلك، وما إلى ذلك، دون موافقة النقابات بسبب قوانين العمل الفيدرالية. لذا فهو يمنحنا موقعًا ومنصة لمهاجمة الانتهاكات على الفور”.

يتمحور الاهتمام بممثلي الصوت والذكاء الاصطناعي بشكل خاص حول الأصوات الاصطناعية. وصف تيم فريدلاندر، الرئيس والمؤسس لشركة NAVA، التكنولوجيا المثيرة للقلق على النحو التالي: “التعلم الآلي هو تدريب الأنظمة الخوارزمية والأصوات الاصطناعية هي ما تنشئه هذه الأنظمة. لذلك يتم تسجيل صوتي، وتوليف هذا الصوت، ثم إنشاء نسخة اصطناعية من ذلك الصوت يمكنها أن تقول وتفعل أي شيء في صوتي أو صوت صوتي.

أوضحت أندي نوريس، ممثلة الحركة، أنها وغيرها من فناني التقاط الحركة يتدربون لعقود من الزمن ليكونوا قادرين على إنشاء حركات فريدة ومدروسة لالتقاط الشاشة. الذكاء الاصطناعي “يسرق حركة الفنانين”. وتقول إن عملها “لا يمكن التعرف عليه بشكل واضح” مثل صوتها أو وجهها، لكن هذا يجعلها أكثر عرضة للاستبدال بالذكاء الاصطناعي. “جزء من هذه العملية هو تثقيف الجمهور ومن ثم إخبارهم بأننا أيضًا معرضون للخطر هنا، لأنه إذا تولى الذكاء الاصطناعي أداء الحركة، فلن يعرف الجمهور حتى لأننا لم نحصل على الفضل في البداية.” وذكّرت الجمهور بأنه على الرغم من أن لها الفضل فقط في ذلك الشر المقيم: القريةلقد عملت على العشرات من الألعاب الشهيرة، ولكنك قد لا تعرف ذلك لأن ممثلي التقاط الحركة لا يُنسب إليهم الفضل على نطاق واسع.

تحدث روسو عن كيف أصبح الذكاء الاصطناعي أداة لبعض المعدلين ومجتمع التعديل لإساءة استخدام أصوات الممثلين ووجوههم. تحدثت سيسي جونز، ممثلة الصوت، عن مدى حبها لرؤية إبداع المعجبين، لكنها قالت إنه “أمر محزن للغاية” عندما يتم استخدام الذكاء الاصطناعي مفتوح المصدر لإنشاء شيء يكون نسخة طبق الأصل مباشرة من صوتها لدرجة أن الفرق بين الصوت الاصطناعي وصوت جونز لا يمكن تمييزه تقريبًا. “لقد سُرق صوتي من ال بيت البومة أو ألعاب أخرى واستخدامها دون موافقتي لإنشاء شخصياتي تقول شيئًا لم أقله أبدًا… إنه أمر محبط للغاية أن يكون لدي شيء كرست حياتي فيه – قلبي، روحي، دمي، عرقي، دموعي – وقد اعتاد أن يقول أشياءً لن أقولها أبدًا.

تمثل الموافقة مشكلة كبيرة بالنسبة لممثلي الصوت الذين قد يتعرضون لسرقة أصواتهم بواسطة الذكاء الاصطناعي. وأوضح فريدلاندر أنه يقوم بالكثير من أعمال التعليق الصوتي للحملات السياسية، لكنه – كإنسان – لديه القدرة على قراءة السيناريو، ويقرر ما إذا كان مرتاحًا أخلاقيًا للتعبير عن تلك الآراء، ويختار ما إذا كان سيشارك أم لا. في العمل. أستطيع أن أخرج من تلك الغرفة وأقول: “لا أستطيع أن أقول هذا”. لن أقول هذه الكلمات. صوتي لا يستطيع الخروج من تلك الغرفة.

وشددت اللجنة على أنه على الرغم من هذه المخاوف، إلا أنها ليست مناهضة للذكاء الاصطناعي. قال روسو: “نحن نعلم أن هذه التكنولوجيا موجودة هنا”. “لن يذهب إلى أي مكان، ولكننا نريد التأكد من استخدامه بشكل أخلاقي.” وأكدت اللجنة أن هناك ثلاث ركائز يجب أن تدعم الاستخدام التنظيمي للذكاء الاصطناعي: الموافقة، والتعويض، والشفافية. وقالت كرابتري-أيرلندا: “إننا ندرك جميعًا أن هذا ليس الوقت المناسب لمحاولة منع هذه التكنولوجيا”. “يتعلق الأمر بتوجيه هذه التكنولوجيا في اتجاه يدعم الأشخاص فعليًا، والتأكد من أن التكنولوجيا تخدم الناس، وليس العكس.”

ومضى كرابتري-أيرلاند ليقول إن هذه المعركة مهمة جدًا على الفور لأن “هناك الكثير من هذه الشركات الكبرى، سواء كانت في عالم ألعاب الفيديو أو سواء كانت في عالم التلفزيون والأفلام، التي يبدو أنها تفكر في ذلك”. أنه يجب أن يكون من المقبول أن تدفع لشخص ما مقابل عمل يوم واحد، وإنشاء نسخة طبق الأصل من ذلك، ثم يكون لديك الحق في استخدامه حسب الرغبة دون موافقة أخرى، دون تعويض إضافي. هذا ليس على ما يرام.

تأتي المشكلات أيضًا من حقيقة أنه لا يمكن تدريب نماذج الذكاء الاصطناعي بدون بيانات مُدخلة، أي أصوات أشخاص حقيقيين. “ترغب الشركات في أخذ الأصوات ودمجها وإنشاء ما يسمى بـ “الأصوات الاصطناعية” باستخدام نماذج الذكاء الاصطناعي. لكن الذكاء الاصطناعي كنظام لا يخلق أي شيء من الصفر. قال كرابتري-أيرلندا: “تقوم أنظمة الذكاء الاصطناعي بإنشاء أشياء من البيانات التي تم تدريبها عليها”. “إن أخذ أصوات هؤلاء الأشخاص واستخدامها لتدريب نظام الذكاء الاصطناعي يعد انتهاكًا بقدر ما هو مجرد تكرار أصواتهم الفردية.”

يقول جونز، الذي أنشأ شركة لاستخدام الذكاء الاصطناعي جنبًا إلى جنب مع الممثلين الصوتيين بشكل أخلاقي، إن التكنولوجيا تتقدم بسرعة. “في العام الماضي ربما تطلبت هذه الأنظمة 10 ساعات من الصوت المسجل لإنشاء صوت رقمي قابل للتطبيق. في بداية هذا العام، استغرق الأمر ساعتين. والآن هناك تقنيات يمكنها القيام بذلك في غضون ثلاث ثوانٍ. ما يعنيه هذا هو أنه إذا كنت تشارك في بودكاست واحد، أو تحدثت على TikTok، أو حتى كان لديك رسالة صوتية صادرة، فيمكن تكرار صوتك بشكل مقبول من خلال تقنية الذكاء الاصطناعي المتقدمة دون أن تعرف ذلك على الإطلاق. قال جونز: “أنا ممثل مؤيد للصوت، أنا مؤيد للإبداع، أنا فنان مؤيد للإنسان”. “أريد أن أجد طريقة تمكننا جميعا من الحصول على مقعد على الطاولة، وهو ما لا يحدث حاليا مع الكثير من الشركات الكبرى.”

ذكّرت كرابتري-أيرلندا الجمهور بأن الناس لديهم السلطة: “يحتاج الجميع هنا إلى أن يفهموا حقًا على مستوى الحدس أن هذه القرارات بشأن ما يحدث مع الذكاء الاصطناعي يتخذها البشر. إنه ليس شيئًا يجب أن يحدث لنا. إنها ليست قوة من قوى الطبيعة لا يمكننا السيطرة عليها. هذه قرارات تتعلق بما يحدث ونحن بالتأكيد، كمجتمع، يمكننا أن نقف ونقول، “لا، لا نريد أن يتم تنفيذ هذا بهذه الطريقة”… إذا كنا سنتعلم أي درس مما يدعو إليه الجميع صيف العمل الحار، (إنه) يمكنك الوقوف في وجه هذه الشركات الكبيرة. الناس يفعلون ذلك، وينجحون.”


هل تريد المزيد من أخبار io9؟ تحقق من متى تتوقع الأحدث أعجوبة, حرب النجوم، و ستار تريك الإصدارات، ما هو التالي ل دي سي يونيفرس في السينما والتلفزيون، وكل ما تريد معرفته عن مستقبل دكتور من.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى