يقول رئيس منظمة العفو الدولية في ميتا أليس هذا ذكيًا

الذكاء الاصطناعي غبي جدًا بحيث لا يمكن تنظيمه الآن، وفقًا لرئيس أبحاث الذكاء الاصطناعي في Meta في مقابلة مع The الأوقات المالية. حاول يان ليكون، كبير علماء الذكاء الاصطناعي في ميتا، استبعاد معظم المخاوف المبالغ فيها بشأن الذكاء الاصطناعي، بينما قدم وجهة نظر تحررية ضد أي محاولة حقيقية لتنظيم مجال الذكاء الاصطناعي الذي يتوسع بسرعة.

LeCun هو حائز على جائزة تورينج وشخصية رائدة في مجال الرؤية الحاسوبية والشبكات العصبية، ويتم الاستشهاد بعمله في هذا المجال بين كبار الباحثين الآخرين في مجال الذكاء الاصطناعي، وهو السبب وراء ازدهارنا الحالي في الذكاء الاصطناعي. وقارن الباحث الشهير تنظيم الذكاء الاصطناعي الآن بما كان سيحدث لو أعاقت الحكومات الإنترنت المبكر. ويقول إن وضع حد للذكاء الاصطناعي الآن سيكون مثل تنظيم شركات الطيران النفاثة قبل اختراعها.

تتمحور تعليقاته حول كيفية تركيز أي تنظيم اليوم على “المخاطر الوجودية” للأنظمة “التي يمكنها حتى منافسة القطط من حيث قدرات التعلم، والتي لا نملكها في الوقت الحالي. ووصف ذلك بأنه “يؤدي إلى نتائج عكسية” بينما قال إن المتشككين في الذكاء الاصطناعي “يريدون الاستيلاء التنظيمي تحت ستار سلامة الذكاء الاصطناعي”.

يهاجم رأي LeCun أشخاصًا مثل جيفري هينتون، وهو “الأب الروحي للذكاء الاصطناعي”. الذي خرج مؤخرًا لصالح تنظيم الذكاء الاصطناعي. وأشار هينتون إلى أن الذكاء الاصطناعي القائم على نماذجنا اللغوية الكبيرة الحالية سوف يصبح متقدمًا جدًا لدرجة أنه يمكن أن يضر البشرية، سواء من خلال الجهات البشرية السيئة أو من خلال نوع ما من الوعي الذاتي.

كان LeCun رافضًا تمامًا لمخاوف هينتون بشأن التفرد المفترض الذي لا مفر منهقائلين إن معظم الناس تأثروا كثيرًا بأفلام مثل المنهي تخيل وقتًا تصبح فيه آلات التفكير أكثر ذكاءً من البشر العاديين. وبدلا من ذلك، قال إن نماذج الذكاء الاصطناعي “لا تفهم كيف يعمل العالم. إنهم غير قادرين على التخطيط. إنهم غير قادرين على التفكير الحقيقي.

ما يشير إليه هو مفهوم الذكاء العام الاصطناعي، أو AGI. شركات مثل OpenAI ادعى أن التحول إلى الذكاء الآلي الحقيقي قريب، لكن LeCun وصف هذا بأنه “مفرط في التفاؤل” لأنه يتطلب العديد من “الاختراقات المفاهيمية” للوصول إلى تلك المرحلة في الذكاء الاصطناعي. ببساطة، يقول إن العلماء ليس لديهم فكرة حقيقية عن كيفية الانتقال من ChatGPT إلى Skynet، على الأقل حتى الآن.

إنه تغيير لطيف في الوتيرة أن تسمع باحثًا بارزًا في مجال الذكاء الاصطناعي يحاول تخفيف الضجيج المحيط بالذكاء الاصطناعي، ولكن بعد ذلك يقوم LeCun بإثارة شكاوى معظم أخلاقيات الذكاء الاصطناعي. إنه لا يذكر التحيز الرهيب الذي أظهره مولدات الفن AI, نماذج اللغة، او حتى المركبات ذاتية القيادة. كما أنه لم يذكر كيف يساعد الذكاء الاصطناعي في ظهور أ موجة جديدة من التضليل والمعلومات المضللة عبر الإنترنت.

كان LeCun مسؤولاً عن روبوت أبحاث Meta’s Galactica AI. وكان من المفترض أن يساعد المساعد الباحثين على تسريع عملهم، ولكن قام ميتا بسحب الروبوت إلى وضع عدم الاتصال في تشرين الثاني (نوفمبر) الماضي، بعد أن اكتشف العلماء أنها تستشهد بالنصوص بشكل غير صحيح، بل وتؤلف المجلات. LeCun أنين حول إزالة الروبوتات، قائلًا: “لم يعد من الممكن الحصول على بعض المتعة من خلال إساءة استخدامها بشكل عرضي. سعيد؟”

في نهاية المطاف، سيصبح الذكاء الاصطناعي أكثر ذكاءً، وأكثر ذكاءً من البشر، كما اعترف ليكون. لكنه ادعى أنه بدلاً من إلحاق الضرر، تصور أن الذكاء الاصطناعي سيساعدنا أو يعالج تحديات مجتمعية أكبر مثل علاج السرطان أو إصلاح تغير المناخ. كما تعلمون، الأشياء التبشيرية المعتادة المتعلقة بالتكنولوجيا.

“الذكاء لا علاقة له بالرغبة في الهيمنة. وقال لصحيفة فايننشال تايمز: “هذا ليس صحيحا حتى بالنسبة للبشر”. “لو كان صحيحًا أن أذكى البشر يريدون السيطرة على الآخرين، لكان ألبرت أينشتاين وغيره من العلماء أغنياء وأقوياء، لكنهم لم يكونوا كذلك”.

هذا يتجاهل مكانة أينشتاين المشهورة عالميًا خلال حياته، لكن من المؤكد أن الذكاء ليس علامة ضرورية لكونك لقيطًا. انها مماثلة ل ما قاله في الماضي حيث ادعى أن المجتمع لديه القدرة على “منع الشر من أن يكون له قوة لا نهائية”. لكن هذا التفاؤل لن يساعد هؤلاء مواجهة فقدان الوظيفة لأن شركتهم تعتقد ذلك يمكن توفير المال بواسطة استبدال الموظفين بالذكاء الاصطناعي.


اكتشاف المزيد من موقع دبليو 6 دبليو

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع دبليو 6 دبليو

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading