يسمح قانون الذكاء الاصطناعي التابع للاتحاد الأوروبي للحكومات بمراقبة الذكاء الاصطناعي بشكل جامح
بكل المقاييس، يبدو قانون الذكاء الاصطناعي للاتحاد الأوروبي وكأنه شيء من شأنه أن يجعل علماء أخلاقيات التكنولوجيا سعداء. ال قانون الذكاء الاصطناعي التاريخيوتسعى شركة أمازون، التي حققت فوزًا تشريعيًا كبيرًا هذا الأسبوع، إلى إنشاء إطار تنظيمي واسع النطاق من شأنه معالجة الأضرار التي تشكلها التكنولوجيا الجديدة. في صيغته الحالية، سيبذل القانون بعض الجهود لجعل الذكاء الاصطناعي أكثر شفافية وشمولية وصديقة للمستهلك في البلدان التي يسري فيها. ما الذي لا يعجبك، أليس كذلك؟
من بين أمور أخرى، سيحظر قانون الذكاء الاصطناعي الاستخدامات المثيرة للجدل للذكاء الاصطناعي، والتي يعتبرها أنظمة “عالية المخاطر”. يتضمن ذلك أشياء مثل أنظمة التعرف على المشاعر في العمل والمدارس، بالإضافة إلى نوع أنظمة التسجيل الاجتماعي التي أصبحت منتشرة جدًا في الصين. وفي الوقت نفسه، يشتمل القانون أيضًا على ضمانات من شأنها أن تجبر الشركات التي تولد محتوى إعلاميًا باستخدام الذكاء الاصطناعي على الكشف عن هذا الاستخدام للمستهلكين.
ويوم الاثنين، وصل المنظمون من الفروع الثلاثة للكتلة اتفاق مؤقت بشأن القانون، وهذا يعني أنه بسبب عدم وجود عبارة أفضل، فقد تم التوصل إلى اتفاق.
ومع ذلك، على الرغم من بعض الانتصارات السياسية، هناك نقاط عمياء كبيرة في القانون الجديد – نقاط تجعل منظمات المجتمع المدني أكثر انزعاجًا إلى حد ما.
وقالت داميني ساتيا، رئيسة مختبر المساءلة الخوارزمية لدى منظمة العفو الدولية، إن منظمتها وآخرين كانوا يراقبون بعناية تطور قانون الذكاء الاصطناعي على مدى السنوات القليلة الماضية، وأنه على الرغم من أن هناك الكثير مما يستحق الاحتفال به في القانون الجديد، إلا أنه ليس كذلك. كافٍ.
والواقع أن البرلمان الأوروبي الخاص بيان صحفي بشأن القانون التاريخي، يعترف بوجود “استثناءات ضيقة (توجد) لاستخدام أنظمة تحديد الهوية البيومترية (RBI)” – بمعنى آخر، تقنية المراقبة الجماعية للشرطة – “في الأماكن العامة لأغراض إنفاذ القانون، رهنًا بالحصول على إذن قضائي مسبق ولأغراض تتعلق بإنفاذ القانون”. قوائم جرائم محددة بدقة”. وكجزء من هذا الإعفاء، يسمح القانون للشرطة باستخدامه تقنية التعرف على الوجه الحية– أداة مثيرة للجدل يطلق عليها اسم “الأورويلية” لقدرته على مراقبة أفراد الجمهور وتصنيفهم – في الحالات التي يتم فيها استخدامه لمنع “تهديد إرهابي محدد وقائم” أو لتحديد هوية أو العثور على شخص يشتبه في ارتكابه جريمة.
وكما قد تتوقعون، بالنسبة لمجموعات مثل منظمة العفو الدولية، يبدو هذا بمثابة نقطة عمياء كبيرة جدًا. ومن وجهة نظر النقاد، ليس هناك ما يوضح كيف يمكن أن ينمو استخدام أجهزة إنفاذ القانون لهذه التقنيات في المستقبل. قال ساتيا: “إن إعفاءات الأمن القومي – كما نعلم من التاريخ – غالبًا ما تكون مجرد وسيلة للحكومات لتنفيذ أنظمة مراقبة موسعة للغاية”.
ويشير ساتيا أيضًا إلى أن قانون الاتحاد الأوروبي قد فشل في مجال بالغ الأهمية آخر. في حين أن القانون يحظر بشكل خاص أنواعًا معينة من الذكاء الاصطناعي “عالي الخطورة”، إلا أن ما لا يفعله هو حظر تصدير هذا الذكاء الاصطناعي إلى دول أخرى. بمعنى آخر، في حين أن معظم الأوروبيين لن يخضعوا لمنتجات مراقبة معينة ومثيرة للجدل، فإن الشركات في الاتحاد الأوروبي ستكون قادرة على بيع هذه الأدوات إلى دول أخرى خارج الكتلة. العفو وقد أشار على وجه التحديد إلى مبيعات شركات الاتحاد الأوروبي لمنتجات المراقبة إلى حكومة الصين لمراقبة سكانها الأويغور، وكذلك إلى إسرائيل للحفاظ على سيطرتها على الفلسطينيين.
وعلى مدى الأسابيع القليلة الماضية، أطلق مستشار منظمة العفو الدولية لشؤون منظمة العفو الدولية، مهير هاكوبيان، سراح العديد من الأشخاص. صياغات إدانة جوانب القانون. وفي إشارة إلى استثناءات إنفاذ القانون، قال هاكوبيان إن الكتلة أعطت الضوء الأخضر “للمراقبة الرقمية البائسة في الدول الأعضاء الـ 27 في الاتحاد الأوروبي، مما يشكل سابقة مدمرة على مستوى العالم فيما يتعلق بتنظيم الذكاء الاصطناعي (AI).” من ناحية أخرى، أظهر موقف القانون تجاه الصادرات “ازدواجية صارخة في المعايير من جانب المشرعين في الاتحاد الأوروبي، الذين من ناحية يقدمون الاتحاد الأوروبي كزعيم عالمي في تعزيز “الذكاء الاصطناعي الآمن والجدير بالثقة والأخلاقي” وعلى الصعيد العالمي”. ومن ناحية أخرى، يرفضون منع شركات الاتحاد الأوروبي من بيع أنظمة الذكاء الاصطناعي التي تنتهك الحقوق إلى بقية العالم. هو قال.
وقد أعربت مجموعات أخرى عن انتقادات مماثلة. وقال كريستوف شمون، مدير السياسة الدولية في مؤسسة الحدود الإلكترونية، إنه على الرغم من أن أجزاء من القانون الجديد تبدو “واعدة”، إلا أن أسلوبه في التعامل مع تقنيات إنفاذ القانون مثير للقلق.
وقال شمعون في رسالة بالبريد الإلكتروني: “لا تزال النسخة النهائية من الصفقة في حالة تغير مستمر، ولكن من الواضح أنه على الرغم من الكثير من اللغة الواعدة بشأن حماية الحقوق الأساسية، فإن اللوائح الجديدة المتعلقة بالمراقبة البيومترية تترك العديد من الأسئلة مفتوحة”. وأضاف: “لقد قلنا دائمًا أن تقنية التعرف على الوجوه من قبل الحكومات تمثل تهديدًا متأصلًا للخصوصية الفردية وحرية التعبير والعدالة الاجتماعية”. “يبدو أن استثناءات إنفاذ القانون في صفقة الذكاء الاصطناعي تجعل حظر التعرف على الوجوه في الأماكن العامة والقيود المفروضة على الشرطة التنبؤية تبدو مثل الجبن السويسري. ومع ذلك، سيتوقف الكثير على التفاصيل الفنية في المفاوضات الجارية وكيفية تطبيق هذه القواعد في الممارسة العملية.
لا تزال تفاصيل سياسة قانون الذكاء الاصطناعي قيد الضبط الدقيق، كما أن العملية التشريعية المعقدة للاتحاد الأوروبي تعني أنه لا تزال هناك فرص لتغيير التفاصيل الدقيقة قليلاً. وقال ساتيا: “لا يزال هناك قدر كبير من العمل الذي يتعين القيام به لوضع اللمسات النهائية على النص الدقيق، وسيكون الشيطان في التفاصيل”. وأضافت أنه من المرجح ألا يتم الانتهاء من النسخة النهائية لمشروع القانون إلا في وقت ما من شهر يناير.
ولمن يتتبعه مناقشة “سلامة الذكاء الاصطناعي”. يمكن أن تكون معقدة، وفي بعض الأحيان، مزعجة للغاية. كان هناك ميل كبير من جانب القادة للحديث حتى الغثيان حول المخاطر التي يشكلها الذكاء الاصطناعي أثناء عدم القيام بالكثير من الأمور الرائعة. على الرغم من أنه ينبغي الثناء على الاتحاد الأوروبي لإصداره قانونًا يتصدى للكثير من التحديات التي يفرضها الذكاء الاصطناعي، إلا أنه يبدو أيضًا من السخرية إلى حد ما أنهم اختاروا تجاهل أشكاله التي يبدو أنها على الأرجح تخرج عن نطاق السيطرة وتتسبب في تفاقم المشكلة. الناس تؤذي. بعد كل شيء، لا يمكن أن يكون الأمر أكثر بؤسًا من مراقبة الشرطة التي يغذيها الذكاء الاصطناعي. إذا كان الناس جادين للغاية بشأن “سلامة” الذكاء الاصطناعي، فلماذا لا تعتبر حالات الاستخدام هذه أولوية أولى بالنسبة للجهات التنظيمية؟
سؤال اليوم: ما الحل مع “متعدد الوسائط”؟
في وقت سابق من هذا الأسبوع، بدأ الناس يقولون إن أحدث نموذج لغة كبير من OpenAI -GPT-4.5- قد تسرب عبر الإنترنت. دانييل نيوجن, الذي نشر على X حول التسريب المفترض، وصف LLM بأنه يتمتع “بقدرات متعددة الوسائط عبر اللغة والصوت والرؤية والفيديو والأبعاد الثلاثية، إلى جانب التفكير المعقد والفهم متعدد الوسائط”. في حين يبدو أن هذا التسرب هو في الواقع وهميةالشيء الوحيد الحقيقي هو أن صناعة الذكاء الاصطناعي مهووسة حاليًا بهذا الشيء “متعدد الوسائط” برمته. الأنظمة متعددة الوسائط، بقدر ما أفهمها، هي تلك التي يتم فيها بناء نظام الذكاء الاصطناعي باستخدام مجموعة متنوعة من أنواع البيانات المختلفة (مثل النصوص والصور والصوت والفيديو)، مما يسمح للنظام بعرض “الإنسان” مثل “القدرات. OpenAI عمليات التكامل الأخيرة لـ ChatGPT (حيث يمكنه الآن “التحدث” و”الاستماع” و”الرؤية”) هي أمثلة جيدة على تعدد الوسائط. ويعتبر حاليًا نقطة انطلاق نحو الذكاء الاصطناعي العام (AGI) – الذكاء العام الاصطناعي – وهو الهدف المرغوب فيه كثيرًا لتطوير الذكاء الاصطناعي.
المزيد من العناوين هذا الأسبوع
- الرئيس التنفيذي لشركة Sports Illustrated يخرج من منصبه بعد فضيحة “صحفيين” الذكاء الاصطناعي. روس ليفينسون، الرئيس التنفيذي السابق الآن في Sports Illustrated، تم طرده من قبل الشركة الأم للنشر، مجموعة ارينا، بعد المنفذ نشر العديد من القصص التي تم إنشاؤها بواسطة الذكاء الاصطناعي باستخدام الخطوط الثانوية وهمية. هذه الفضيحة ليست سوى الأحدث في سلسلة من الحوادث المماثلة حيث تتخذ وسائل الإعلام قرارًا غير أخلاقي للغاية لمحاولة تسلل محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي إلى مواقعها على الويب على أمل ألا يلاحظه أحد.
- مايكروسوفت تريد أن تصبح نووية في مجال الذكاء الاصطناعي. وقد تمكنت شركة مايكروسوفت، شركة البرمجيات المتواضعة التي أسسها بيل جيتس، من تحقيق ذلك إرفاق نفسها بنجم صاعد في صناعة الذكاء الاصطناعي (OpenAI)، وبالتالي تشتري لنفسها عدة سنوات أخرى من الأهمية الثقافية. الآن، لتشغيل عمليات الذكاء الاصطناعي الضخمة التي تشرع فيها الشركتان، تأمل مايكروسوفت في التحول إلى مصدر طاقة مثير للجدل: الطاقة النووية. كان المذكور سابقا أن مايكروسوفت كانت تبحث عن شخص “لقيادة مبادرات المشاريع لجميع جوانب البنية التحتية للطاقة النووية من أجل النمو العالمي”. والآن صحيفة وول ستريت جورنال التقارير أن الشركة تحاول استخدام الذكاء الاصطناعي للتنقل في العملية التنظيمية النووية المعقدة. من المعروف أن هذه العملية تستغرق سنوات، لذا تعتقد مايكروسوفت أن أتمتتها قد تكون مفيدة.
- البابا قلق للغاية بشأن دكتاتورية الذكاء الاصطناعي. كان البابا فرانسيس يفكر ملياً في مخاطر العالم الحديث، وفي هذا الأسبوع تحدث عنها التهديد المتمثل في التكنوقراطية التي يغذيها الذكاء الاصطناعي. ودعا الزعيم الديني إلى معاهدة عالمية ملزمة يمكن استخدامها لمنع “الأنظمة التكنوقراطية” من تشكيل “تهديد لبقائنا”. كلمات قاسية. اعتقد هذا التزييف العميق الذي بدا فيه مخدرًا حيث وصل إليه الجحيم حقًا.
اكتشاف المزيد من موقع دبليو 6 دبليو
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.