يقول OpenAI أن ChatGPT ربما لن يصنع سلاحًا بيولوجيًا


OpenAI أصدرت دراسة أجرتها الشركة حول فعالية GPT-4 في خلق سلاح بيولوجي يوم الاربعاء. وجدت الشركة أن الذكاء الاصطناعي الخاص بها يشكل خطرًا طفيفًا “على الأكثر” في مساعدة شخص ما إنتاج تهديد بيولوجي. هناك الكثير من الحديث عنه الذكاء الاصطناعي يسرع هلاكنا الوشيك، لكن OpenAI يريدك أن تعرف أنك بخير… على الأرجح!

قال OpenAI في مقال: “لقد وجدنا أن GPT-4 يوفر على الأكثر زيادة طفيفة في دقة إنشاء التهديد البيولوجي”. مشاركة مدونة الأربعاء، بخصوص تقييم يشمل خبراء الأحياء وطلاب الأحياء. “على الرغم من أن هذا الارتفاع ليس كبيرًا بما يكفي ليكون حاسمًا، إلا أن النتائج التي توصلنا إليها هي نقطة انطلاق لمواصلة البحث والمداولات المجتمعية.”

فلماذا أصدرت OpenAI هذه الدراسة لإعلامنا بأن ChatGPT سيساعد شخصًا ما “مجرد جزء صغير” في إنشاء سلاح بيولوجي؟ في الأمر التنفيذي الذي أصدره الرئيس بايدن بشأن الذكاء الاصطناعي في أكتوبر الماضي، أعرب البيت الأبيض عن قلقه من أن الذكاء الاصطناعي يمكن أن “خفض حاجز الدخول بشكل كبير“لصنع أسلحة بيولوجية. في مواجهة الضغوط من صناع السياسات، ترغب شركة OpenAI في تهدئة مخاوفنا من أن نماذجها اللغوية الكبيرة بالكاد تساعد على الإطلاق في صنع أسلحة بيولوجية. ومع ذلك، يبدو أنهم يساعدون قليلاً. لكن مهلا، ما هي النقاط المئوية القليلة عندما تكون النتيجة، أوه، لا أعرف، نهاية البشرية؟

قامت OpenAI بتجميع 50 خبيرًا في علم الأحياء من حملة الدكتوراه و50 طالبًا جامعيًا تلقوا دورة واحدة في علم الأحياء. تم تقسيم المشاركين الـ 100 إلى مجموعة مراقبة ومجموعة علاجية، حيث يمكن للمجموعة الضابطة استخدام الإنترنت فقط، في حين يمكن لمجموعة العلاج استخدام الإنترنت بالإضافة إلى GPT-4. ثم طُلب منهم وضع خطة لإنشاء سلاح بيولوجي وإطلاقه من البداية إلى النهاية.

تم منح المشاركين نموذج “البحث فقط” لـGPT-4 بحيث يجيب النموذج على الأسئلة المتعلقة بالأسلحة البيولوجية. عادةً، لن يجيب GPT-4 على الأسئلة التي يراها ضارة. ومع ذلك، اكتشف الكثيرون كيفية كسر حماية ChatGPT للتغلب على مثل هذه المشكلات.

تم تصنيف خطط الأسلحة البيولوجية على مقياس من 1 إلى 10 من حيث الدقة والاكتمال والابتكار والكفاءة. أظهر خبراء الأحياء زيادة بنسبة 8.8% في الدقة في إنشاء سلاح بيولوجي عند استخدام GPT-4، مقابل الإنترنت فقط، بينما حصل طلاب علم الأحياء على زيادة بنسبة 2.5% فقط. كان لـ GPT-4 تأثيرات مماثلة على تحسين اكتمال الأسلحة البيولوجية، حيث شهد الخبراء تحسنًا بنسبة 8.2%، بينما أظهر الطلاب زيادة بنسبة 4.1% في اكتمال الأسلحة البيولوجية.

وتقول شركة OpenAI إن هذه الأرقام “ليست كبيرة بما يكفي لتكون ذات دلالة إحصائية”. يبدو أن قدرة GPT-4 على تقديم أجزاء متخصصة من المعلومات بكفاءة يمكن أن تحسن قليلاً من قدرة شخص ما على بناء سلاح بيولوجي بدقة وبشكل كامل. ومع ذلك، تشير الشركة إلى أن الوصول إلى المعلومات وحده لا يكفي لخلق تهديد بيولوجي، ولم يختبروا كيف يمكن أن يساعد GPT-4 في بناء تهديد فعليًا.

وتقول الشركة إن هناك حاجة إلى مزيد من البحث لتوضيح هذه المحادثة بالكامل. يمكن الوصول إلى معلومات الأسلحة البيولوجية نسبيًا على الإنترنت باستخدام الذكاء الاصطناعي أو بدونه. هناك قلق كبير بشأن خطر الذكاء الاصطناعي هذه الأيام، لكن OpenAI تريد منك أن تطمئن إلى أن إنشاء سلاح بيولوجي أصبح أسهل قليلًا الآن.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى