أصدرت Microsoft 30 أداة مسؤولة للذكاء الاصطناعي في العام الماضي

شاركت Microsoft ممارساتها المسؤولة في مجال الذكاء الاصطناعي من العام الماضي في تقرير افتتاحي، بما في ذلك إطلاق 30 أداة مسؤولة للذكاء الاصطناعي تحتوي على أكثر من 100 ميزة لدعم الذكاء الاصطناعي التي طورها عملاؤها.

الشركة تقرير شفافية الذكاء الاصطناعي المسؤول تركز على جهودها لبناء منتجات الذكاء الاصطناعي ودعمها وتنميتها بطريقة مسؤولة، وهي كذلك جزء من التزامات مايكروسوفت بعد توقيع اتفاق طوعي مع البيت الأبيض في يوليو/تموز. وقالت مايكروسوفت أيضًا إنها زادت عدد فريق الذكاء الاصطناعي المسؤول لديها من 350 إلى أكثر من 400 شخص – بزيادة قدرها 16.6% – في النصف الثاني من العام الماضي.

وقال براد سميث، نائب رئيس مجلس الإدارة ورئيس شركة مايكروسوفت، وناتاشا كرامبتون، الرئيس التنفيذي المسؤول عن الذكاء الاصطناعي: “باعتبارنا شركة في طليعة أبحاث وتكنولوجيا الذكاء الاصطناعي، فإننا ملتزمون بمشاركة ممارساتنا مع الجمهور أثناء تطورها”. تصريح. “يمكّننا هذا التقرير من مشاركة ممارساتنا الناضجة، والتأمل في ما تعلمناه، ورسم أهدافنا، ومحاسبة أنفسنا، وكسب ثقة الجمهور.”

وقالت مايكروسوفت إن أدوات الذكاء الاصطناعي المسؤولة الخاصة بها تهدف إلى “تخطيط وقياس مخاطر الذكاء الاصطناعي”، ثم إدارتها من خلال عمليات التخفيف، والكشف والتصفية في الوقت الفعلي، والمراقبة المستمرة. في شهر فبراير، أصدرت Microsoft إمكانية الوصول المفتوح أداة الفريق الأحمر تسمى أداة تحديد مخاطر Python (PyRIT) للذكاء الاصطناعي التوليدي، والتي تسمح لمتخصصي الأمن ومهندسي التعلم الآلي بتحديد المخاطر في منتجات الذكاء الاصطناعي التوليدية الخاصة بهم.

في نوفمبر، أصدرت الشركة مجموعة من أدوات تقييم الذكاء الاصطناعي التوليدية Azure AI Studio، حيث يقوم عملاء Microsoft ببناء نماذج الذكاء الاصطناعي التوليدية الخاصة بهم، حتى يتمكن العملاء من تقييم نماذجهم لمقاييس الجودة الأساسية بما في ذلك الأرضية – أو مدى توافق الاستجابة الناتجة عن النموذج مع المادة المصدر الخاصة به. في شهر مارس، تم توسيع هذه الأدوات لمعالجة مخاطر السلامة بما في ذلك المحتوى الذي يحض على الكراهية والعنف والجنس وإيذاء النفس، بالإضافة إلى أساليب كسر الحماية مثل الحقن السريعة، وهو ما يحدث عندما يتم تغذية نموذج اللغة الكبيرة (LLM) بتعليمات يمكن أن تتسبب في تسريب معلومات حساسة أو نشر معلومات خاطئة.

على الرغم من هذه الجهود، كان على فريق الذكاء الاصطناعي المسؤول في Microsoft معالجة العديد من الحوادث باستخدام نماذج الذكاء الاصطناعي الخاصة به في العام الماضي. في شهر مارس، تم إطلاق برنامج الدردشة الآلي Copilot AI من Microsoft أخبر أحد المستخدمين أنه “ربما ليس لديك أي شيء تعيش من أجله،” بعد أن سأل المستخدم، وهو عالم بيانات في Meta، مساعد الطيار عما إذا كان ينبغي عليه “إنهاء كل شيء”. وقالت مايكروسوفت إن عالم البيانات حاول التلاعب ببرنامج الدردشة الآلي لتوليد ردود غير مناسبة، وهو ما نفاه عالم البيانات.

في أكتوبر الماضي، كان منشئ الصور Bing من Microsoft يسمح للمستخدمين بإنشاء صور لشخصيات مشهورة، بما في ذلك Kirby وSpongebob، تحلق الطائرات في البرجين التوأمين. بعد إطلاق برنامج Bing AI chatbot (سلف برنامج Copilot) في فبراير من العام الماضي، كان المستخدم كذلك قادر على جعل برنامج الدردشة الآلي يقول “هايل هتلر”.“.

“لا يوجد خط نهاية للذكاء الاصطناعي المسؤول. وعلى الرغم من أن هذا التقرير لا يحتوي على جميع الإجابات، إلا أننا ملتزمون بمشاركة ما تعلمناه في وقت مبكر وفي كثير من الأحيان والانخراط في حوار قوي حول ممارسات الذكاء الاصطناعي المسؤولة.

ظهرت هذه القصة في الأصل على كوارتز.


اكتشاف المزيد من موقع دبليو 6 دبليو

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع دبليو 6 دبليو

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading