موظفو OpenAI المسؤولون عن السلامة يقفزون من السفينة
أطلقت OpenAI موقعها فريق المحاذاة الفائقة منذ عام تقريبًا وكان الهدف النهائي هو التحكم في أنظمة الذكاء الاصطناعي الافتراضية فائقة الذكاء ومنعها من الانقلاب على البشر. وبطبيعة الحال، كان الكثير من الناس يشعرون بالقلق – لماذا كان من الضروري وجود فريق مثل هذا في المقام الأول؟ الآن، حدث شيء أكثر إثارة للقلق: قادة الفريق، ايليا سوتسكيفر وجان لايكي، فقط قم بإنهاء OpenAI.
تعد استقالة قيادة Superalignment الأحدث في سلسلة من حالات المغادرة الملحوظة من الشركة، والتي جاء بعضها من داخل فريق Sutskever وLeike الذي يركز على السلامة. بالعودة إلى نوفمبر من عام 2023، قاد Sutskever ومجلس إدارة OpenAI جهدًا فاشلاً للإطاحة بالرئيس التنفيذي Sam Altman. وبعد ستة أشهر، ترك العديد من موظفي OpenAI الشركة والذين كانوا إما يتحدثون بصراحة عن سلامة الذكاء الاصطناعي أو عملوا في فرق السلامة الرئيسية.
انتهى الأمر بسوتسكفير بالاعتذار عن الانقلاب (يا صديقي السيئ!) ووقع خطابًا إلى جانب 738 موظفًا في OpenAI (من إجمالي 770 موظفًا) يطالبون فيه بإعادة ألتمان والرئيس جريج بروكمان. ومع ذلك، وفقا لأ نسخة من الرسالة التي حصلت عليها صحيفة نيويورك تايمز مع 702 توقيع (النسخة العامة الأكثر اكتمالا التي يمكن أن تجدها جيزمودو)، فإن العديد من الموظفين الذين استقالوا الآن إما لم يوقعوا على إظهار الدعم لقيادة OpenAI أو كانوا متخلفين عن القيام بذلك.
أسماء أعضاء فريق Superalignment، جان لايكي، وليوبولد أشنبرينر، وويليام سوندرز – الذين استقالوا منذ ذلك الحين – لا تظهر إلى جانب أكثر من 700 موظف آخر في OpenAI يظهرون الدعم لألتمان وبروكمان في مرات‘ ينسخ. كما أن باحث الذكاء الاصطناعي المشهور عالميًا أندريه كارباثي وموظفو OpenAI السابقون دانييل كوكوتايلو وكولين أوكيف لا يظهرون أيضًا في هذه النسخة المبكرة من الرسالة وقد غادروا OpenAI منذ ذلك الحين. ربما يكون هؤلاء الأفراد قد وقعوا على النسخة الأحدث من الرسالة للإشارة إلى الدعم، ولكن إذا كان الأمر كذلك، فيبدو أنهم كانوا آخر من فعل ذلك.
تواصلت Gizmodo مع OpenAI للتعليق على من سيقود فريق Superalignment من الآن فصاعدًا ولكننا لم نسمع أي رد على الفور.
على نطاق أوسع، كانت السلامة في OpenAI دائمًا قضية مثيرة للخلاف. هذا ما تسبب في ظهور داريو ودانييلا أمودي في عام 2021 لبدء شركة الذكاء الاصطناعي الخاصة بهم، أنثروبي، إلى جانب تسعة موظفين سابقين آخرين في OpenAI. كانت المخاوف المتعلقة بالسلامة أيضًا هي ما دفع أعضاء مجلس إدارة OpenAI غير الربحي إلى الإطاحة بألتمان وبروكمان. تم استبدال أعضاء مجلس الإدارة هؤلاء ببعض رواد الأعمال سيئي السمعة في وادي السيليكون.
لا يزال لدى OpenAI الكثير من الأشخاص الذين يعملون في مجال السلامة في الشركة. بعد كل شيء، فإن المهمة المعلنة للشركة الناشئة هي إنشاء الذكاء الاصطناعي العام (AGI) بشكل آمن لصالح البشرية! ومع ذلك، إليك قائمة Gizmodo الحالية للمدافعين البارزين عن سلامة الذكاء الاصطناعي الذين تركوا OpenAI منذ الإطاحة بألتمان. انقر على سطح المكتب أو استمر في التمرير على الهاتف المحمول.
اكتشاف المزيد من موقع دبليو 6 دبليو
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.