لماذا كان عالم الذكاء الاصطناعي بأكمله يتحدث عن “Q” هذا الأسبوع؟


في أعقاب OpenAI الصادمة التي حدثت الأسبوع الماضي صراع على السلطة، كان هناك إعلان أخير كان بمثابة نوع من الخاتمة للفوضى المترامية الأطراف: تقرير من رويترز التي كشفت عن اختراق مذهل في الشركة الناشئة. يُزعم أن هذا الاختراق حدث عبر برنامج غير معروف يُطلق عليه اسم “Q-Star” أو “Q*”.

وفقًا للتقرير، فإن أحد الأشياء التي ربما تكون قد أشعلت الصراع الداخلي في شركة الذكاء الاصطناعي المؤثرة كان هذا “الاكتشاف” المتعلق بـ Q. قبل الإطاحة بألتمان، زُعم أن العديد من موظفي OpenAI كتبوا إلى مجلس إدارة الشركة حول “اكتشاف قوي للذكاء الاصطناعي قالوا إنه قد يهدد البشرية”. وزعمت رويترز نقلاً عن مصادر مجهولة أن هذه الرسالة كانت “أحد العوامل ضمن قائمة أطول من التظلمات التي قدمها مجلس الإدارة والتي أدت إلى إقالة ألتمان”.

بصراحة، بدت القصة مجنونة جدًا. ما هو هذا البرنامج الجديد الغريب ولماذا تسبب في كل هذه الفوضى في OpenAI؟ زعمت رويترز أن برنامج Q* تمكن من السماح لعميل الذكاء الاصطناعي بإجراء “الرياضيات على مستوى المدرسة الابتدائية”، وهو تقدم تكنولوجي مذهل، إذا كان صحيحًا، فقد يعجل بتحقيق نجاحات أكبر في إنشاء ذكاء اصطناعي عام، أو AGI، حسبما ذكرت المصادر. آخر تقرير من المعلومات كرر إلى حد كبير العديد من النقاط التي وردت في مقال رويترز.

ومع ذلك، لم تشارك الشركة التفاصيل المحيطة ببرنامج Q المفترض، ولم يتبق سوى التقارير مجهولة المصدر والتكهنات المنتشرة عبر الإنترنت حول الطبيعة الحقيقية للبرنامج.

وتكهن البعض بأن البرنامج قد يكون له علاقة (بسبب اسمه) بـ Q-learning، وهو شكل من أشكال التعلم الآلي. إذن، نعم، ما هو Q-learning، وكيف يمكن تطبيقه على برنامج OpenAI السري؟

بشكل عام، هناك طريقتان مختلفتان لتعليم برنامج الذكاء الاصطناعي القيام بشيء ما. واحدة من هذه المعروفة باسم “التعلم الخاضع للإشراف”، ويعمل عن طريق تغذية عملاء الذكاء الاصطناعي بشرائح كبيرة من البيانات “المسمى”.، والتي يتم استخدامها بعد ذلك لتدريب البرنامج على أداء وظيفة بمفرده (عادةً ما تكون هذه الوظيفة أكثر تصنيفًا للبيانات). على العموم، تم إنشاء برامج مثل ChatGPT، وهو روبوت توليد المحتوى الخاص بـ OpenAI باستخدام شكل من أشكال التعلم تحت الإشراف.

وفي الوقت نفسه، يعد التعلم غير الخاضع للرقابة أحد أشكال التعلم الآلي حيث يُسمح لخوارزميات الذكاء الاصطناعي بالتدقيق عبر شرائح كبيرة من البيانات غير المصنفة، في محاولة للعثور على أنماط لتصنيفها. يمكن نشر هذا النوع من الذكاء الاصطناعي لعدد من الأغراض المختلفة، مثل إنشاء نوع من الذكاء الاصطناعي أنظمة التوصية تستخدمه شركات مثل Netflix وSpotify لاقتراح محتوى جديد للمستخدمين بناءً على اختيارات المستهلكين السابقة.

أخيرًا، هناك التعلم المعزز، أو RL، وهو فئة من تعلم الآلة التي تحفز برنامج الذكاء الاصطناعي على تحقيق هدف داخل بيئة معينة. Q-learning هو فئة فرعية من التعلم المعزز. في RL، يعامل الباحثون عملاء الذكاء الاصطناعي مثل الكلب الذي يحاولون تدريبه. تتم “مكافأة” البرامج إذا اتخذت إجراءات معينة للتأثير على نتائج معينة، ويتم معاقبتها إذا اتخذت إجراءات أخرى. وبهذه الطريقة، يتم “تدريب” البرنامج بشكل فعال للحصول على أفضل النتائج في موقف معين. في Q-learning، يبدو أن الوكيل يعمل من خلال التجربة والخطأ للعثور على أفضل طريقة لتحقيق الهدف الذي تمت برمجته لتحقيقه.

ما علاقة كل هذا بالاختراق المفترض في “الرياضيات” لشركة OpenAI؟ يمكن للمرء أن يتكهن بأن البرنامج الذي تمكن (كما يُزعم) من القيام بعمليات حسابية بسيطة ربما وصل إلى تلك القدرة عبر شكل ما من أشكال RL المرتبطة بـ Q. بعد كل هذا، يشكك العديد من الخبراء إلى حد ما فيما إذا كانت برامج الذكاء الاصطناعي قادرة بالفعل على حل المسائل الرياضية حتى الآن. ويبدو أن آخرين يعتقدون أنه حتى لو كان الذكاء الاصطناعي قادرًا على تحقيق مثل هذه الأهداف، فإنه يفعل ذلك لن يترجم بالضرورة إلى اختراقات أوسع في الذكاء الاصطناعي العام. مراجعة معهد ماساتشوستس للتكنولوجيا للتكنولوجيا، تحدث مع:

لقد حاول الباحثون لسنوات الحصول على نماذج الذكاء الاصطناعي لحل المسائل الرياضية. يمكن للنماذج اللغوية مثل ChatGPT وGPT-4 إجراء بعض العمليات الحسابية، ولكن ليس بشكل جيد أو موثوق. تقول ويندا لي، محاضرة الذكاء الاصطناعي في جامعة إدنبره، إننا لا نملك حاليًا الخوارزميات أو حتى البنى الصحيحة التي تمكننا من حل المسائل الرياضية بشكل موثوق باستخدام الذكاء الاصطناعي. يضيف لي أن التعلم العميق والمحولات (نوع من الشبكات العصبية)، وهو ما تستخدمه نماذج اللغة، ممتازان في التعرف على الأنماط، لكن هذا وحده لا يكفي على الأرجح.

باختصار: نحن لا نعرف الكثير عن Q، ومع ذلك، إذا صدقنا الخبراء، فإن الضجيج المحيط به قد يكون مجرد ضجيج.

سؤال اليوم: بجدية، ما الذي حدث مع سام التمان؟

صورة للمقال بعنوان لماذا يتحدث عالم الذكاء الاصطناعي بأكمله عن "سؤال"  هذا الاسبوع

صورة: جاستن سوليفان (صور جيتي)

على الرغم من عودته إلى OpenAI، إلا أنه من الجدير بالاعتبار أننا ما زلنا لا نعرف ما الذي حدث مع Sam Altman الأسبوع الماضي. في مقابلة شخصية كما فعل مع The Verge يوم الأربعاء، لم يقدم ألتمان أي شيء تقريبًا فيما يتعلق بما أدى إلى الصراع الدرامي على السلطة في شركته الأسبوع الماضي. على الرغم من الحث المستمر من مراسل المنفذ، رفع ألتمان يديه وقال إنه لن يتحدث عن الأمر في المستقبل المنظور. “أتفهم تمامًا سبب رغبة الناس في الحصول على إجابة في الوقت الحالي. قال الرئيس التنفيذي المنتعش: “لكنني أعتقد أيضًا أنه من غير المعقول تمامًا توقع ذلك”. وبدلاً من ذلك، فإن أكثر ما تمكنت The Verge من استخلاصه من المدير التنفيذي لـ OpenAI هو أن الشركة في خضم إجراء “مراجعة مستقلة” لما حدث – وهي عملية، كما قال، لا يريد “التدخل فيها”. مع. ملكنا التغطية الخاصة لبرنامج القرف الأسبوع الماضي فسرها وفقًا لسرد يتضمن صراعًا بين أخلاقيات مجلس الإدارة ودفع ألتمان الدؤوب لتكنولوجيا OpenAI الآلية التجارية. ومع ذلك، فهذه الرواية هي مجرد: رواية. لا نعرف التفاصيل المحددة لما أدى إلى الإطاحة بسام، على الرغم من أننا نرغب في ذلك بالتأكيد.

عناوين أخرى لهذا الأسبوع

  • تستخدم إسرائيل الذكاء الاصطناعي للتعرف على المسلحين الفلسطينيين المشتبه بهم. إذا كنت قلقًا من أن الحكومات لن تضيع أي وقت في تسليح الذكاء الاصطناعي لاستخدامه في الحروب الحديثة، فاستمع إلى هذا. قصة من صحيفة الجارديان تظهر أن إسرائيل حاليا باستخدام برنامج الذكاء الاصطناعي الذي يطلق عليه اسم “حبسورة” أو “الإنجيل” لتحديد الأهداف العسكرية الواضحة داخل فلسطين. يُستخدم البرنامج “لإنتاج أهداف بوتيرة سريعة”، حسبما جاء في بيان نُشر على الموقع الإلكتروني لقوات الدفاع الإسرائيلية على ما يبدو، وقالت مصادر لصحيفة الغارديان إن البرنامج ساعد الجيش الإسرائيلي على بناء قاعدة بيانات تضم حوالي 30.000 إلى 40.000 من المسلحين المشتبه بهم. تقارير المنفذ: “أنظمة مثل الإنجيل … (قالت المصادر) لعبت دورًا حاسمًا في بناء قوائم الأفراد المسموح باغتيالهم”.
  • تحدث إيلون ماسك عن قضايا حقوق النشر الخاصة بالذكاء الاصطناعي هذا الأسبوع، وكالعادة، بدا غبيًا. دعاوى قضائية متعددة جادلوا بأن شركات التكنولوجيا تقوم في الأساس بسرقة وإعادة تغليف المواد المحمية بحقوق الطبع والنشر، مما يسمح لها بتحقيق الدخل من أعمال الآخرين (عادة المؤلفين والفنانين البصريين) مجانًا. خاض إيلون ماسك في هذه المحادثة المثيرة للجدل أثناء لقائه مقابلة Dealbook غريبة الحمار هذا الاسبوع. وبطبيعة الحال، بدت الأفكار التي شاركها أقل من المفهوم. قال وأنا أقتبس: “لا أعرف، باستثناء أن أقول أنه بحلول الوقت الذي يتم فيه البت في هذه الدعاوى القضائية، سيكون لدينا إله رقمي. لذا، يمكنك أن تسأل Digital God في تلك المرحلة. أم. لن يتم البت في هذه الدعاوى القضائية في إطار زمني مناسب.” جميل يا إيلون. عليك فقط أن تراقب هذا الإله الرقمي. وفي الوقت نفسه، في العالم الحقيقي، سيتعين على الخبراء القانونيين والتنظيميين التعامل مع الاضطرابات التي تسببها هذه التكنولوجيا باستمرار للأشخاص الأقل حظًا من كبار المسؤولين في وادي السيليكون.
  • تستمر سيارات الأجرة الآلية في الرحلات البحرية في النضال. لقد مرت شركة Cruise، شركة الروبوتات المملوكة لشركة جنرال موتورز، بعام صعب حقًا. وقد استقال مديرها التنفيذي الأسبوع الماضي، بعد زوبعة من الجدل الذي شمل العديد من الحوادث المؤسفة التي تعرضت لها الشركة في سان فرانسيسكو. هذا الاسبوع، تم الإبلاغ عنه أن جنرال موتورز ستقلص استثماراتها في الشركة. وبحسب ما ورد قالت ماري بارا، الرئيس التنفيذي لشركة جنرال موتورز، في مؤتمر للمستثمرين يوم الأربعاء: “نتوقع أن تكون وتيرة توسع كروز أكثر تعمدًا عند استئناف العمليات، مما يؤدي إلى انخفاض كبير في الإنفاق في عام 2024 مقارنة بعام 2023”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى