قام فريق OpenAI التابع لـ Ilya Sutskever ببناء أدوات للتحكم في الذكاء الاصطناعي الخارق


تقول ورقة بحثية جديدة صدرت عن OpenAI يوم الخميس إن الذكاء الاصطناعي الخارق قادم، وتقوم الشركة بتطوير أدوات لضمان عدم تحوله ضد البشر. تم إدراج إيليا سوتسكيفر، كبير العلماء في OpenAI، كمؤلف رئيسي في هذا المقال ورق، ولكن ليس مشاركة مدونة وقد رافق ذلك الأمر، ولا يزال دوره في الشركة غير واضح.

وقال OpenAI في مقال: “نعتقد أن الذكاء الفائق – الذكاء الاصطناعي الأكثر ذكاءً إلى حد كبير من البشر – يمكن تطويره في غضون السنوات العشر المقبلة”. مشاركة مدونة. “إن اكتشاف كيفية مواءمة أنظمة الذكاء الاصطناعي الخارقة المستقبلية لتكون آمنة لم يكن أكثر أهمية من أي وقت مضى، وأصبح الآن من الأسهل من أي وقت مضى تحقيق تقدم تجريبي في هذه المشكلة.”

“التعميم من الضعيف إلى القوي” هو البحث الأول الذي أعده فريق إيليا سوتسكيفر وجان لايكي “Superalignment”، تم إنشاؤها في يوليو للتأكد من أن أنظمة الذكاء الاصطناعي الأكثر ذكاءً من البشر ستظل تتبع القواعد البشرية. الحل المقترح؟ يحتاج OpenAI إلى تصميم نماذج ذكاء اصطناعي صغيرة لتعليم نماذج الذكاء الاصطناعي الخارقة.

حاليًا، يستخدم OpenAI البشر “لمحاذاة” ChatGPT من خلال إعطائه تعليقات جيدة أو تعليقات سلبية. هذه هي الطريقة التي تضمن بها OpenAI أن ChatGPT لن يعطي الأشخاص تعليمات حول كيفية صنع النابالم في المنزل، أو أي نتائج خطيرة أخرى. مع ازدياد ذكاء ChatGPT، تعترف OpenAI بأن البشر لن يكونوا كافيين لتدريب هذه النماذج، لذلك نحن بحاجة إلى تدريب ذكاء اصطناعي أقل تعقيدًا للقيام بذلك نيابة عنا.

هذه هي أول علامة على الحياة من Ilya Sutskever في OpenAI منذ أن أعلن Sam Altman أن الجميع تقريبًا عادوا إلى OpenAI بينما تركوا مكانة Sutskever اعلى في الهواء. كان Sutskever، أحد مؤسسي OpenAI، أحد أعضاء مجلس الإدارة وراء ذلك إطلاق ألتمانوهو صوت رائد في مجتمع الذكاء الاصطناعي لنشر الذكاء الاصطناعي بشكل مسؤول. لم يعد يقود الشركة إلى الأمام ولكن لا يزال من الممكن أن يكون له دور هناك.

القائد الآخر لفريق Superalignment في OpenAI، Leike، أعطى مجد لايليا بتهمة “إذكاء النيران” يوم الخميس، لكنه أثنى على الآخرين “لدفع الأمور إلى الأمام كل يوم”. تثير التعليقات سؤالاً حول ما إذا كان Sutskever قد بدأ هذا المشروع، لكنه لم يكن موجودًا لإنهائه.

وقالت المصادر إنه كان غير مرئي في الشركة خلال الأسابيع القليلة الماضية وقام بتعيين محامٍ مهتم بالتجارة. أدلى جان ليك وأعضاء آخرون في فريق Superalignment في OpenAI بتصريحات عامة حول هذه الورقة التاريخية، لكن Sutskever لم يقل كلمة واحدة، فقط أعاد التغريد.

ووجدت الدراسة أن تدريب نماذج الذكاء الاصطناعي الكبيرة مع نماذج الذكاء الاصطناعي الأصغر، أو ما يسمونه “التعميم من الضعيف إلى القوي” يؤدي إلى مستوى أعلى من الدقة في ظروف متعددة، مقارنة بالتدريب البشري. استخدمت معظم الدراسات GPT-2 لتدريب GPT-4. من المهم ملاحظة أن OpenAI تقول إنها غير مقتنعة بأن هذا “حل” للمحاذاة الفائقة، فهو مجرد إطار عمل واعد لتدريب ذكاء اصطناعي خارق.

قال باحثو OpenAI في الدراسة: “ستكون النماذج الخارقة على نطاق واسع قوية بشكل غير عادي، وإذا أسيء استخدامها أو تم تحريفها مع القيم الإنسانية، فمن المحتمل أن تسبب ضررًا كارثيًا”، مشيرين إلى أنه من غير الواضح كيفية دراسة هذا الموضوع تجريبيًا. “نعتقد أنه أصبح الآن من الأسهل إحراز تقدم بشأن هذه المشكلة أكثر من أي وقت مضى.”

كانت هناك تكهنات كبيرة بذلك كان OpenAI قريبًا من AGI في تشرين الثاني (نوفمبر)، على الرغم من أن معظمها لم يكن حاسماً. تؤكد هذه الورقة أن OpenAI تعمل بنشاط على بناء أدوات للتحكم في الذكاء الاصطناعي العام، لكنها لا تؤكد وجود الذكاء الاصطناعي العام. أما إيليا سوتسكيفر، فلا يزال وضعه في طي النسيان الغريب. لم يؤكد OpenAI منصبه في الشركة، لكن فريقه قام بهدوء بإجراء بحث رائد أثناء قيامه بإعادة تغريد إعلانات الشركة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى