بايدن يصدر أول أمر تنفيذي للذكاء الاصطناعي في البلاد
تمضي إدارة بايدن قدمًا بإصدار أمر تنفيذي هو الأول من نوعه في مجال الذكاء الاصطناعي يهدف إلى إنشاء معايير جديدة لسلامة الذكاء الاصطناعي وإنشاء حواجز حماية جديدة لمنع سوء الاستخدام المحتمل. اليوم أمر تنفيذي يمثل نقطة تحول رئيسية في تنظيم الذكاء الاصطناعي، حيث يتصارع المشرعون في الحكومات في جميع أنحاء العالم مع أفضل السبل لمنع الضرر في التكنولوجيا الناشئة والتي لا يمكن التنبؤ بها.
ينقسم أمر بايدن إلى ثماني فئات:
- معايير جديدة لسلامة وأمن الذكاء الاصطناعي
- حماية خصوصية الأمريكيين
- النهوض بالمساواة والحقوق المدنية
- الدفاع عن المستهلكين والمرضى والطلاب
- دعم العمال
- تشجيع الابتكار والمنافسة
- النهوض بالقيادة الأمريكية في الخارج
- ضمان الاستخدام الحكومي المسؤول والفعال للذكاء الاصطناعي
وفيما يتعلق بالمسألة القياسية، سيطلب الأمر من شركات الذكاء الاصطناعي الكبرى مشاركة نتائج اختبارات السلامة الخاصة بها مع الحكومة وتطوير أدوات جديدة لضمان أن أنظمة الذكاء الاصطناعي آمنة وجديرة بالثقة. كما أنها تدعو مطوري الذكاء الاصطناعي إلى تطوير مجموعة متنوعة من الأدوات والمعايير الجديدة للحماية من جميع أنواع سيناريوهات كارثة الذكاء الاصطناعيمن الأسلحة البيولوجية التي ينتجها الذكاء الاصطناعي إلى عمليات الاحتيال والهجمات الإلكترونية بمساعدة الذكاء الاصطناعي.
ستعمل الوكالات الحكومية الفيدرالية جنبًا إلى جنب مع الصناعة الخاصة هنا. على سبيل المثال، سيكون المعهد الوطني للمعايير والتكنولوجيا مسؤولا عن تطوير معايير لنماذج الذكاء الاصطناعي “الفريق الأحمر” قبل إطلاقها للعامة. وفي الوقت نفسه، ستنظر وزارة الطاقة ووزارة الأمن الداخلي في التهديدات المحتملة للبنية التحتية والأنظمة الحيوية الأخرى.
وفي أماكن أخرى، يركز الأمر على الجهود المبذولة لمنع حدوث ذلك من استخدام الذكاء الاصطناعي للتمييز ضد الناس. وبالمثل، يدعو الأمر إلى تطوير معايير جديدة للعدالة الجنائية وأفضل الممارسات لتحديد كيفية استخدام الذكاء الاصطناعي في إصدار الأحكام، والإفراج المشروط، والإفراج قبل المحاكمة، وكذلك في المراقبة والشرطة التنبؤية. لا يدعو نص الأمر بشكل خاص إلى الحظر التام لأي من حالات الاستخدام هذه، وهو ما كان يأمل بعض المدافعين عن الخصوصية في تحقيقه.
بالإضافة إلى استخدامات الذكاء الاصطناعي، يحاول أمر بايدن أيضًا معالجة البيانات المستخدمة لتدريب النماذج القوية بشكل متزايد. ويدعو الأمر على وجه التحديد الوكالات الحكومية إلى تقييم كيفية جمع واستخدام المعلومات المتاحة تجاريا، بما في ذلك تلك التي يتم شراؤها من وسطاء البيانات.
النظام يبني الالتزامات الطوعية السابقة من سبع من شركات الذكاء الاصطناعي الرائدة في العالم حول العلامات المائية ومتطلبات الاختبار. وتصل هذه “الالتزامات” في الأساس إلى ضبط النفس من جانب عمالقة التكنولوجيا. وعلى النقيض من ذلك، يغير هذا الأمر وزن القلم التنفيذي، على الرغم من أنه من غير الواضح إلى أي مدى ستذهب الوكالات الحكومية لمعاقبة الشركات التي تعتبر غير متوافقة مع المبادئ التوجيهية الجديدة. ولا يزال نائب كبير موظفي البيت الأبيض بروس ريد قال لشبكة سي إن بي سي وهو يعتقد أن هذه المبادئ التوجيهية وغيرها تتضمن في علامة الأمر “أقوى مجموعة من الإجراءات التي اتخذتها أي حكومة في العالم على الإطلاق بشأن سلامة وأمن وثقة الذكاء الاصطناعي”.
هذه قصة متطورة، وسوف نقوم بتحديث هذه الصفحة بمعلومات إضافية.
اكتشاف المزيد من موقع دبليو 6 دبليو
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.