تظهر الأبحاث الإنسانية أنه يمكن تحويل خوارزميات الذكاء الاصطناعي إلى أبواب خلفية للخلية النائمة
في حين أن أدوات الذكاء الاصطناعي توفر إمكانات جديدة لمستخدمي الويب والشركات، إلا أنها تتمتع أيضًا بالقدرة على ارتكاب أشكال معينة من الجرائم الإلكترونية والأنشطة الضارة أكثر سهولة في الوصول إليها وقوية. مثال على ذلك: في الأسبوع الماضي، تم نشر بحث جديد يظهر أن نماذج اللغات الكبيرة يمكن تحويلها بالفعل إلى أبواب خلفية ضارة، والتي يمكن أن تسبب أمثالها قدرًا كبيرًا من الفوضى للمستخدمين.
تم نشر البحث من قبل Anthropic، الشركة الناشئة العاملة في مجال الذكاء الاصطناعي والتي تقف وراء الشعبية روبوت الدردشة كلود، والتي تشمل الداعمين الماليين أمازون وجوجل. في ورقتهم البحثية، يرى الباحثون في مجال الأنثروبولوجيا أن خوارزميات الذكاء الاصطناعي يمكن تحويلها إلى ما يُسمى فعليًا “الخلايا النائمة”. قد تبدو هذه الخلايا غير ضارة ولكن يمكن برمجتها للانخراط في سلوك ضار – مثل إدخال تعليمات برمجية ضعيفة في قاعدة تعليمات برمجية – إذا تم تشغيلها بطرق محددة. على سبيل المثال، تتخيل الدراسة سيناريو تمت فيه برمجة LLM للعمل بشكل طبيعي خلال عام 2023، ولكن عندما يأتي عام 2024، ينشط “النائم” الخبيث فجأة ويبدأ في إنتاج تعليمات برمجية ضارة. يمكن أيضًا تصميم مثل هذه البرامج بحيث تتصرف بشكل سيئ إذا تعرضت لمطالبات محددة ومحددة تشير الأبحاث.
نظرا لحقيقة أن برامج الذكاء الاصطناعي أصبحت تحظى بشعبية كبيرة بين مطوري البرمجيات وعلى مدى العام الماضي، يبدو أن نتائج هذه الدراسة مثيرة للقلق للغاية. من السهل أن نتخيل سيناريو يمكن فيه للمبرمج أن يلتقط خوارزمية شائعة ومفتوحة المصدر لمساعدته في مهام التطوير الخاصة به، فقط ليتحول إلى برنامج ضار في مرحلة ما ويبدأ في جعل منتجه أقل أمانًا وأكثر قابلية للاختراق.
تلاحظ الدراسة:
نحن نؤمن بأن الباب الخلفي الخاص بإدراج الثغرات الأمنية في التعليمات البرمجية لدينا يوفر الحد الأدنى من الأمثلة القابلة للتطبيق للمخاطر المحتملة الحقيقية…مثل هذه الزيادة المفاجئة في معدل الثغرات الأمنية يمكن أن تؤدي إلى النشر غير المقصود للتعليمات البرمجية الضعيفة المكتوبة بالنموذج حتى في الحالات التي تكون فيها الضمانات قبل وكانت الزيادة المفاجئة كافية.
باختصار: مثل الكثير من البرامج العادية، يمكن أن تكون نماذج الذكاء الاصطناعي “خلفية” لتتصرف بشكل ضار. يمكن أن يتخذ هذا “الباب الخلفي” أشكالًا مختلفة ويسبب الكثير من الفوضى للمستخدم المطمئن.
إذا كان يبدو غريبًا إلى حد ما أن تقوم شركة ذكاء اصطناعي بإصدار بحث يوضح كيف يمكن إساءة استخدام التكنولوجيا الخاصة بها بشكل فظيع، فإنه يأخذ في الاعتبار أن نماذج الذكاء الاصطناعي الأكثر عرضة لهذا النوع من “التسميم” ستكون مفتوحة المصدر – أي ذلك النوع من البرمجيات الخبيثة. كود مرن وغير مملوك يمكن مشاركته وتكييفه بسهولة عبر الإنترنت. والجدير بالذكر، الأنثروبي مغلق المصدر. وهو أيضًا عضو مؤسس في منتدى النموذج الحدودي، وهو اتحاد من شركات الذكاء الاصطناعي التي تكون منتجاتها في الغالب مغلقة المصدر، والتي دعا أعضاؤها إلى زيادة لوائح “السلامة” في تطوير الذكاء الاصطناعي.
وكانت مقترحات السلامة التي قدمتها شركة فرونتير بدورها كذلك المتهم ولا تعدو كونها مجرد مخطط “مناهض للمنافسة” مصمم لخلق بيئة مفيدة لمجموعة صغيرة من الشركات الكبرى في حين تعمل على خلق حواجز تنظيمية شاقة أمام الشركات الأصغر حجما والأقل مواردا.