معركة تكريس مستقبل الذكاء الاصطناعي في قانون كاليفورنيا

يؤدي مشروع قانون كاليفورنيا الذي يحاول تنظيم نماذج الذكاء الاصطناعي الحدودية الكبيرة إلى خلق مواجهة دراماتيكية حول مستقبل الذكاء الاصطناعي. لسنوات، تم تقسيم الذكاء الاصطناعي إلى “أكسل” و”ديسيل”. يريد التسارع أن يتقدم الذكاء الاصطناعي بسرعة – التحرك بسرعة وتحطيم الأشياء – بينما يريد التسارع أن يتباطأ تطوير الذكاء الاصطناعي من أجل الإنسانية. انحرفت المعركة إلى دائرة الضوء الوطنية عندما أطاح مجلس إدارة OpenAI بسام ألتمان لفترة وجيزة، والعديد منهم منذ ذلك الحين انفصل عن بدء التشغيل باسم سلامة الذكاء الاصطناعي. والآن، يجعل مشروع قانون كاليفورنيا هذه المعركة سياسية.

ما هو SB 1047؟

س.ب 1047 هو مشروع قانون في ولاية كاليفورنيا من شأنه أن يجعل كبار مقدمي نماذج الذكاء الاصطناعي – مثل Meta، وOpenAI، وAnthropic، وMistral – مسؤولين عن المخاطر الكارثية المحتملة لأنظمة الذكاء الاصطناعي الخاصة بهم. تم تمرير مشروع القانون، الذي وضعه عضو مجلس الشيوخ عن الولاية سكوت وينر، عبر مجلس الشيوخ في ولاية كاليفورنيا في شهر مايو أزالت عقبة رئيسية أخرى نحو أن يصبح قانونا هذا الأسبوع.

لماذا يجب أن أهتم؟

حسنًا، قد يصبح هذا أول تنظيم حقيقي للذكاء الاصطناعي في الولايات المتحدة، وهذا يحدث في كاليفورنيا، حيث توجد جميع شركات الذكاء الاصطناعي الكبرى.

وينر يصف الفاتورة باعتبارها وضع “معايير سلامة واضحة ويمكن التنبؤ بها ومنطقية لمطوري أكبر وأقوى أنظمة الذكاء الاصطناعي”. رغم ذلك، لا يرى الجميع الأمر بهذه الطريقة. ويدق كثيرون في وادي السيليكون أجراس الإنذار بأن هذا القانون سيقضي على عصر الذكاء الاصطناعي قبل أن يبدأ.

ماذا يفعل SB 1047 في الواقع؟

يجعل قانون SB 1047 مقدمي نماذج الذكاء الاصطناعي مسؤولين عن أي “أضرار كارثية”، على الرغم من أنه من غير الواضح إلى حد ما ما هي تلك الأضرار. ومع ذلك، يعد هذا أمرًا كبيرًا لأن وادي السيليكون تهرب تاريخيًا من معظم المسؤولية عن أضراره. ويمكّن مشروع القانون المدعي العام في كاليفورنيا من اتخاذ إجراءات قانونية ضد هذه الشركات إذا تسبب أحد نماذج الذكاء الاصطناعي الخاصة بها في ضرر جسيم لسكان كاليفورنيا.

يتضمن SB 1047 أيضًا بند “إيقاف التشغيل” الذي يتطلب بشكل فعال من شركات الذكاء الاصطناعي إنشاء مفتاح إيقاف لنموذج الذكاء الاصطناعي في حالة الطوارئ.

وينشئ مشروع القانون أيضًا “قسم النماذج الحدودية” داخل وزارة التكنولوجيا في كاليفورنيا. ستقوم هذه المجموعة بتنظيم مقدمي نماذج الذكاء الاصطناعي الحدودية، وفرض معايير السلامة التي يجب على كل شركة الالتزام بها. إذا لم تمتثل الشركات للقسم، فيمكن مقاضاتها ومواجهة عقوبات مدنية.

من يدعم مشروع القانون هذا؟

إلى جانب السيناتور وينر، قام اثنان من الباحثين البارزين في مجال الذكاء الاصطناعي، ويُطلق عليهم أحيانًا اسم “عرابو الذكاء الاصطناعي”، وهما جيفري هينتون ويوشوا بنجيو، بوضع أسمائهم على مشروع القانون هذا. وقد كان هذان الشخصان بارزين جدًا في إصدار مكالمات تحذيرية حول مخاطر الذكاء الاصطناعي.

على نطاق أوسع، يتماشى مشروع القانون هذا مع منظور ديسيل، الذي يعتقد أن الذكاء الاصطناعي لديه احتمالية عالية نسبيًا لإنهاء البشرية ويجب تنظيمه على هذا النحو. معظم هؤلاء الأشخاص هم باحثون في مجال الذكاء الاصطناعي، ولا يحاولون فعليًا تحويل منتج الذكاء الاصطناعي إلى سلعة لأنهم، كما تعلمون، يعتقدون أنه قد يؤدي إلى إنهاء البشرية.

ويحظى مشروع القانون برعاية مركز سلامة الذكاء الاصطناعي، الذي يرأسه دان هندريكس. نشرت مجموعته رسالة مفتوحة في مايو 2023 قائلًا إن خطر الذكاء الاصطناعي في انقراض الإنسان يجب أن يؤخذ على محمل الجد مثل الحروب النووية أو الأوبئة. تم التوقيع عليها من قبل سام ألتمان، وبيل جيتس، وغرايمز، والعديد من الأشخاص المؤثرين في مجال التكنولوجيا. إنهم مجموعة مؤثرة ولاعب رئيسي في الترويج لمشروع القانون هذا.

في مارس 2023، دعا ديسيل إلى أ “وقفة” على كل تطوير الذكاء الاصطناعي لتنفيذ البنية التحتية للسلامة. على الرغم من أن الأمر يبدو متطرفًا، إلا أن هناك الكثير من الأشخاص الأذكياء في مجتمع الذكاء الاصطناعي الذين يعتقدون حقًا أن الذكاء الاصطناعي يمكن أن ينهي البشرية. فكرتهم هي أنه إذا كان هناك أي احتمال بأن يؤدي الذكاء الاصطناعي إلى إنهاء البشرية، فيجب علينا تنظيمه بصرامة، في حالة حدوث ذلك.

منطقي. إذن من هو ضد SB 1047؟

إذا كنت على X، فسيبدو الأمر كما لو أن الجميع في Silicon Valley ضد SB 1047. أصحاب رؤوس الأموال، ومؤسسو الشركات الناشئة، وباحثو الذكاء الاصطناعي، وقادة مجتمع الذكاء الاصطناعي مفتوح المصدر يكرهون مشروع القانون هذا. سأصنف هؤلاء الأشخاص بشكل عام على أنهم أكسل، أو على الأقل، هذا هو المكان الذي يصلون فيه إلى هذه المشكلة. ويعمل الكثير منهم في مجال الذكاء الاصطناعي، لكن بعضهم باحثون أيضًا.

الشعور العام هو أن SB 1047 يمكن أن يجبر موفري نماذج الذكاء الاصطناعي مثل Meta وMistral على تقليص جهودهم مفتوحة المصدر أو إيقافها تمامًا. يجعلهم مشروع القانون هذا مسؤولين عن الجهات الفاعلة السيئة التي تستخدم نماذج الذكاء الاصطناعي الخاصة بهم، وقد لا تتحمل هذه الشركات تلك المسؤولية بسبب صعوبات وضع قيود على الذكاء الاصطناعي التوليدي، والطبيعة المفتوحة للمنتجات.

قال Anjney Midha، الشريك العام لشركة A16Z ومدير مجلس إدارة شركة Mistral، في مقابلة مع Gizmodo: “سوف يقتل ويسحق ويبطئ النظام البيئي للشركات الناشئة مفتوحة المصدر تمامًا”. “إن مشروع القانون هذا يشبه محاولة تضييق الخناق على التقدم في المطبعة، بدلاً من التركيز على المكان الذي ينبغي أن يكون فيه، وهو استخدامات المطبعة”.

وقال أيون ستويكا، أستاذ علوم الكمبيوتر في جامعة بيركلي والرئيس التنفيذي لشركة Databricks، في مؤتمر صحفي: “المصدر المفتوح هو أفضل أمل لنا للبقاء في المقدمة من خلال الجمع بين اختبارات السلامة الشفافة للنماذج الناشئة، بدلاً من السماح لعدد قليل من الشركات القوية بالتحكم في الذكاء الاصطناعي في سرية”. مقابلة.

مدها وستويكا ليسا الوحيدين الذين ينظرون إلى تنظيم الذكاء الاصطناعي على أنه أمر وجودي لهذه الصناعة. لقد ساهم الذكاء الاصطناعي مفتوح المصدر في تشغيل مشهد الشركات الناشئة الأكثر ازدهارًا في وادي السيليكون منذ سنوات. يقول معارضو SB 1047 إن مشروع القانون سيفيد الشركات القائمة المغلقة في شركات التكنولوجيا الكبرى بدلاً من ذلك النظام البيئي المزدهر والمفتوح.

قال جيريمي نيكسون، مؤسس AGI House، الذي يعمل كمركز لمسابقات الذكاء الاصطناعي مفتوحة المصدر في وادي السيليكون: “أرى حقًا أن هذا وسيلة لعرقلة تطوير الذكاء الاصطناعي مفتوح المصدر، كجزء من استراتيجية أوسع لإبطاء الذكاء الاصطناعي”. “ينبع مشروع القانون من مجتمع مهتم جدًا بإيقاف الذكاء الاصطناعي مؤقتًا بشكل عام.”

هذا يبدو تقنيًا حقًا. هل يستطيع المشرعون الحصول على كل هذا الضيق؟

إنه أمر تقني بالتأكيد، وقد خلق ذلك بعض المشكلات. ينطبق SB 1047 فقط على النماذج الحدودية “الكبيرة”، ولكن ما هو الحجم الكبير؟ يعرّفها مشروع القانون على أنها نماذج ذكاء اصطناعي تم تدريبها على 10^26 FLOPS، وهي كمية محددة وكبيرة جدًا من قوة الحوسبة وفقًا لمعايير اليوم. المشكلة هي أن الذكاء الاصطناعي ينمو بسرعة كبيرة، والنماذج الحديثة من عام 2023 تبدو صغيرة مقارنة بمعايير 2024. إن لصق العلم في الرمال لا يعمل بشكل جيد بالنسبة لحقل يتحرك بهذه السرعة.

وليس من الواضح أيضًا ما إذا كان من الممكن منع أنظمة الذكاء الاصطناعي بشكل كامل من سوء التصرف. الحقيقة هي أننا لا نعرف الكثير عن كيفية عمل ماجستير إدارة الأعمال، كما أن نماذج الذكاء الاصطناعي الرائدة اليوم من OpenAI وAnthropic وGoogle مكسورة الحماية طوال الوقت. ولهذا السبب يقول بعض الباحثين إن الهيئات التنظيمية يجب أن تركز على الجهات الفاعلة السيئة، وليس على مقدمي النماذج.

قال رافيد شفارتز زيف، الأستاذ المساعد الذي يدرس الذكاء الاصطناعي في جامعة نيويورك إلى جانب يان ليكون، في مقابلة: “مع الذكاء الاصطناعي، تحتاج إلى تنظيم حالة الاستخدام، والإجراء، وليس النماذج نفسها”. “يمكن لأفضل الباحثين في العالم قضاء كميات لا حصر لها من الوقت في نموذج الذكاء الاصطناعي، ولا يزال الناس قادرين على كسر حمايته.”

يتعلق جزء تقني آخر من مشروع القانون هذا بنماذج الذكاء الاصطناعي مفتوحة المصدر. إذا أخذت شركة ناشئة Meta’s Llama 3، أحد أكثر نماذج الذكاء الاصطناعي مفتوحة المصدر شيوعًا، وقامت بضبطه ليكون شيئًا مختلفًا تمامًا، فهل لا تزال Meta مسؤولة عن نموذج الذكاء الاصطناعي هذا؟ وبموجب مشروع القانون هذا، يبدو أنه من الممكن بالتأكيد تحميل ميتا المسؤولية، لكن معارضي مشروع القانون يجدون أن هذا غير عادل وليس النهج الصحيح.

سؤال سريع: هل الذكاء الاصطناعي هو في الواقع حرية التعبير؟

غير واضح. يرى الكثيرون في مجتمع الذكاء الاصطناعي أن الذكاء الاصطناعي مفتوح المصدر هو نوع من حرية التعبير (ولهذا السبب أشار إليه مدها على أنه مطبعة). الفرضية هي أن الكود الأساسي لنموذج الذكاء الاصطناعي هو شكل من أشكال التعبير، ومخرجات النموذج هي تعبيرات أيضًا. لقد وقع القانون تاريخياً تحت التعديل الأول في عدة حالات.

جادل ثلاثة من أساتذة القانون مقال عن الحرب القانونية أن نماذج الذكاء الاصطناعي ليست حرية تعبير تمامًا. على سبيل المثال، يقولون إن الأوزان التي تشكل نموذج الذكاء الاصطناعي لا يكتبها البشر ولكن يتم إنشاؤها من خلال عمليات التعلم الآلي الواسعة. البشر بالكاد يستطيعون قراءتها.

أما بالنسبة لمخرجات نماذج الذكاء الاصطناعي الحدودي، فإن هذه الأنظمة تختلف قليلاً عن خوارزميات وسائل التواصل الاجتماعي، والتي اعتبرت أنها تندرج تحت التعديل الأول في الماضي. نماذج الذكاء الاصطناعي لا تأخذ وجهة نظر محددة، بل تقول الكثير من الأشياء. ولهذا السبب، يقول أساتذة القانون هؤلاء إن قانون SB 1047 قد لا يمس التعديل الأول.

إذا ما هو التالي؟

يتجه مشروع القانون نحو التصويت السريع في أغسطس والذي من شأنه إرسال مشروع القانون إلى مكتب الحاكم جافين نيوسوم. يجب إزالة بعض العقبات الرئيسية للوصول إلى هناك، وحتى ذلك الحين، قد لا يوقع نيوسوم عليها بسبب الضغط من وادي السيليكون. أرسلت مجموعة تجارية تقنية كبيرة للتو رسالة إلى نيوسوم تخبره بعدم التوقيع على SB 1047.

ومع ذلك، قد يرغب نيوسوم في وضع سابقة للأمة في مجال الذكاء الاصطناعي. إذا دخل قانون SB 1047 حيز التنفيذ، فقد يغير بشكل جذري مشهد الذكاء الاصطناعي في أمريكا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى