شركاء OpenAI مع مختبر Los Alamos لإنقاذنا من الذكاء الاصطناعي

تتعاون OpenAI مع مختبر لوس ألاموس الوطني لدراسة كيفية استخدام الذكاء الاصطناعي لمحاربة التهديدات البيولوجية التي يمكن أن تنشأ من قبل غير الخبراء باستخدام أدوات الذكاء الاصطناعي، وفقًا لإعلانات المنظمتين يوم الأربعاء. مختبر لوس ألاموس، الذي أنشئ لأول مرة في نيو مكسيكو خلال الحرب العالمية الثانية لتطوير القنبلة الذرية، وصف هذا الجهد بأنه دراسة “الأولى من نوعها” حول الأمن البيولوجي للذكاء الاصطناعي والطرق التي يمكن بها استخدام الذكاء الاصطناعي في بيئة المختبر.

الفرق بين البيانين الصادرين يوم الأربعاء عن OpenAI ومختبر Los Alamos مذهل للغاية. ويحاول بيان OpenAI تصوير الشراكة على أنها مجرد دراسة حول كيفية استخدام الذكاء الاصطناعي “بشكل آمن من قبل العلماء في البيئات المختبرية لتعزيز البحوث العلمية الحيوية”. ومع ذلك، يركز مختبر لوس ألاموس بشكل أكبر على حقيقة أن الأبحاث السابقة “وجدت أن ChatGPT-4 قدم دفعة طفيفة في توفير المعلومات التي يمكن أن تؤدي إلى خلق تهديدات بيولوجية”.

لقد تركزت الكثير من المناقشات العامة حول التهديدات التي يشكلها الذكاء الاصطناعي حول إنشاء كيان مدرك لذاته ويمكنه تطوير عقل خاص به وإيذاء البشرية بطريقة ما. يشعر البعض بالقلق من أن تحقيق AGI – الذكاء العام المتقدم، حيث يمكن للذكاء الاصطناعي أن يؤدي تفكيرًا ومنطقًا متقدمًا بدلاً من العمل كمولد كلمات رائع للإكمال التلقائي – قد يؤدي إلى موقف على غرار Skynet. وبينما اتجه العديد من مؤيدي الذكاء الاصطناعي مثل Elon Musk والرئيس التنفيذي لشركة OpenAI Sam Altman إلى هذا التوصيف، يبدو أن التهديد الأكثر إلحاحًا الذي يجب معالجته هو التأكد من عدم استخدام الأشخاص لأدوات مثل ChatGPT لإنشاء أسلحة بيولوجية.

وقال مختبر لوس ألاموس في بيان نشر على موقعه الإلكتروني: “يمكن أن تشكل التهديدات البيولوجية التي يدعمها الذكاء الاصطناعي خطرا كبيرا، لكن العمل الحالي لم يقيم كيف يمكن للنماذج الحدودية متعددة الوسائط أن تخفض حاجز الدخول أمام غير الخبراء لخلق تهديد بيولوجي”. موقع إلكتروني.

من المحتمل أن يعود الموقع المختلف للرسائل الواردة من المنظمتين إلى حقيقة أن OpenAI قد لا تكون مرتاحة للاعتراف بتداعيات الأمن القومي الناجمة عن تسليط الضوء على أن منتجها يمكن أن يستخدم من قبل الإرهابيين. ولتوضيح نقطة أكثر دقة، يستخدم بيان لوس ألاموس مصطلحي “التهديد” أو “التهديدات” خمس مرات، في حين يستخدمه بيان OpenAI مرة واحدة فقط.

وقال إريك ليبرون، عالم الأبحاث في لوس ألاموس، في بيان يوم الأربعاء: “إن الجانب الإيجابي المحتمل لقدرات الذكاء الاصطناعي المتنامية لا نهاية له”. “ومع ذلك، فإن قياس وفهم أي مخاطر محتملة أو إساءة استخدام الذكاء الاصطناعي المتقدم المتعلق بالتهديدات البيولوجية لا يزال غير مستكشف إلى حد كبير. ويعد هذا العمل مع OpenAI خطوة مهمة نحو إنشاء إطار لتقييم النماذج الحالية والمستقبلية، وضمان التطوير المسؤول ونشر تقنيات الذكاء الاصطناعي.

تم الوصول إلى متحدث باسم OpenAI للتعليق عبر البريد الإلكتروني، وحاول التأكيد على فكرة أن الذكاء الاصطناعي في حد ذاته لا يشكل تهديدًا، مما يشير إلى أن إساءة استخدام الذكاء الاصطناعي كان التهديد الحقيقي.

وقال المتحدث باسم OpenAI: “إن تكنولوجيا الذكاء الاصطناعي مثيرة لأنها أصبحت محركًا قويًا للاكتشاف والتقدم في العلوم والتكنولوجيا”. “في حين أن هذا سيؤدي إلى فوائد إيجابية للمجتمع إلى حد كبير، فمن المتصور أن نفس النماذج الموجودة في أيدي ممثل سيئ قد تستخدمها لتجميع المعلومات التي تؤدي إلى إمكانية وجود “كيفية التوجيه” للتهديدات البيولوجية. من المهم أن نأخذ في الاعتبار أن الذكاء الاصطناعي في حد ذاته لا يشكل تهديدًا، بل إن كيفية إساءة استخدامه هي التهديد.

إن فكرة أن الذكاء الاصطناعي في حد ذاته لا يشكل تهديدًا تتعارض بالطبع مع ما قاله ألتمان نفسه في الماضي.

وتابع المتحدث قائلاً: “لقد ركزت التقييمات السابقة في الغالب على فهم ما إذا كانت تقنيات الذكاء الاصطناعي هذه يمكن أن توفر أدلة إرشادية دقيقة”. “ومع ذلك، في حين أن الممثل السيئ قد يتمكن من الوصول إلى دليل دقيق للقيام بشيء شائن، فإن هذا لا يعني أنه سيكون قادرًا على ذلك. على سبيل المثال، قد تعلم أنك بحاجة إلى الحفاظ على العقم أثناء زراعة الخلايا أو استخدام مواصفات جماعية، ولكن إذا لم تكن لديك خبرة في القيام بذلك من قبل، فقد يكون من الصعب جدًا تحقيقه.

وهنا حاول بيان المتحدث باسم OpenAI العودة إلى الرسالة الأصلية بأن الأمر كله يتعلق بفهم أفضل للعمل المعملي.

وقال المتحدث: “من خلال التصغير، نحاول على نطاق أوسع أن نفهم أين وكيف تضيف تقنيات الذكاء الاصطناعي هذه قيمة إلى سير العمل”. “يعد الوصول إلى المعلومات (على سبيل المثال، إنشاء بروتوكول دقيق) أحد المجالات التي يمكن تحقيق ذلك فيها، ولكن من غير الواضح مدى قدرة تقنيات الذكاء الاصطناعي هذه على مساعدتك في تعلم كيفية تنفيذ بروتوكول في المختبر بنجاح (أو أنشطة أخرى في العالم الحقيقي مثل الركل” كرة قدم أو رسم صورة). سيسعى أول تقييم تكنولوجي تجريبي لدينا إلى فهم كيف يمكّن الذكاء الاصطناعي الأفراد من تعلم كيفية عمل البروتوكولات في العالم الحقيقي، مما سيمنحنا فهمًا أفضل ليس فقط لكيفية المساعدة في تمكين العلم ولكن أيضًا ما إذا كان سيمكن جهة فاعلة سيئة من التنفيذ نشاط شنيع في المختبر.”

الوقت وحده هو الذي سيحدد ما إذا كانت هذه الفكرة صالحة أم لا، فلا ينبغي إلقاء اللوم على الذكاء الاصطناعي، بل على الأشخاص الذين يسيئون استخدام الذكاء الاصطناعي. إنه موقف معقول بالنسبة لمعظم التقدم التكنولوجي حتى تأخذ في الاعتبار حالة الأسلحة النووية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى