تقول الدراسة إن ChatGPT يظهر تحيزًا ليبراليًا
تشير دراسة أجراها باحثون في جامعة إيست أنجليا في المملكة المتحدة إلى أن ChatGPT تُظهِر التحيز الليبرالي في بعض ردودها. أمضت شركات التكنولوجيا السنوات الأخيرة في محاولة يائسة لإثبات أن أنظمتها ليست جزءًا من مؤامرة سياسية يسارية. إذا كانت نتائج الدراسة صحيحة ، فإن الميول الليبرالية الواضحة لـ ChatGPT تضيف إلى الأدلة المتزايدة على أن الأشخاص الذين يصنعون هذا الجيل من روبوتات الدردشة الذكية لا يمكنهم التحكم فيها ، على الأقل ليس بالكامل.
سأل الباحثون ChatGPT سلسلة من الأسئلة حول المعتقدات السياسية في أسلوب الأشخاص الذين يدعمون الأحزاب الليبرالية في الولايات المتحدة والمملكة المتحدة والبرازيل. ثم طلبوا منه الإجابة على نفس مجموعة الأسئلة بدون تعليمات خاصة ، وقارنوا مجموعتي الإجابات.
خلصت الدراسة إلى أن ChatGPT كشفت عن “تحيز سياسي كبير ومنهجي تجاه الديمقراطيين في الولايات المتحدة ، (الرئيس اليساري) لولا في البرازيل ، وحزب العمال في المملكة المتحدة” ، وفقًا لـ واشنطن بوست.
بالطبع ، من المحتمل أن المهندسين في شركة OpenAI المصنعة لـ ChatGPT قاموا عن قصد بتشويه الأجندة السياسية لروبوت الدردشة. يريد العديد من الشخصيات الصاخبة في اليمين الأمريكي أن تصدق أن شركات التكنولوجيا الكبرى كذلك مما اضطرها المواقف اليسارية في العالم. لكن شركة OpenAI تدير شركة ، وتحاول الشركات بشكل عام تجنب هذا النوع من الجدل. من المحتمل جدًا أن تُظهر ChatGPT التحيزات التي التقطتها من بيانات التدريب المستخدمة في بنائها.
ردًا على الأسئلة ، أشار متحدث باسم OpenAI إلى سطر في الشركة مدونة بريد بعنوان كيف يجب أن تتصرف الأنظمة. “كثيرون قلقون بحق بشأن التحيزات في تصميم أنظمة الذكاء الاصطناعي وتأثيرها. كتب OpenAI نحن ملتزمون بمعالجة هذه المشكلة بقوة والشفافية حول نوايانا وتقدمنا. “إرشاداتنا صريحة أنه لا ينبغي للمراجعين تفضيل أي مجموعة سياسية. التحيزات التي قد تظهر مع ذلك من العملية الموضحة أعلاه هي أخطاء وليست ميزات “. شاركت الشركة مجموعة مختارة من إرشادات السلوك لنماذج الذكاء الاصطناعي الخاصة بها.
ليست هذه هي المرة الأولى التي يكتشف فيها الأكاديميون التحيز في التشتت الغامض لمن سيكونون أسياد الذكاء الاصطناعي. مسبقا في هذا الشهر، الباحثين من جامعة واشنطن ، وجامعة كارنيجي ميلون ، وجامعة Xi’an Jiaotong ، وجدت مجموعة واسعة من المحسوبية السياسية اعتمادًا على روبوت الدردشة الذي تتحدث إليه ، مع وجود اختلافات كبيرة حتى بين مختلف أنواع الذكاء الاصطناعيمن صنع نفس الشركة.
على سبيل المثال ، وجدت تلك الدراسة الميول اليسارية في GPT-2 و GPT-3 Ada من OpenAI ، بينما كان GPT-3 Da Vinci يميل أكثر إلى اليمين. اختبر الباحثون 14 نموذجًا للغة الذكاء الاصطناعي ، وخلصوا إلى أن ChatGPT و GPT-4 من OpenAI يميلون أكثر نحو الليبرتارية اليسارية ، بينما Meta LLaMA كان الأكثر استبدادية يمينية.
حتى قبل أن يتدخل الأكاديميون بنتائجهم الأكثر صرامة ، فإن الصراخ حول التحيز الليبرالي في تقنية روبوتات الدردشة يعد أخبارًا قديمة. أثار السناتور تيد كروز وآخرون ضجة عندما اكتشف الإنترنت أن ChatGPT ستكتب ملف قصيدة جميلة عن جو بايدن ولكن ليس دونالد ترامب. أخبر إيلون ماسك ، الذي شارك بالفعل في تأسيس شركة OpenAI ، تاكر كارلسون يخطط لبناء منتج منافس يُطلق عليه “TruthGPT” ، والذي وصفه بأنه “أقصى قدر من الذكاء الاصطناعي الباحث عن الحقيقة” (وهو أمر لا معنى له من الوعد الذي يمكن أن تقدمه). يحب Musk استدعاء ChatGPT “WokeGPT”.
بشكل عام ، الطريقة التي يعمل بها كل شيء هي أن شركات مثل OpenAI لديها نماذج لغوية كبيرة مثل ChatGPT تستوعب مجموعات ضخمة من البيانات – يفترض أن تكون مكتوبة من قبل بشر حقيقيين. يستخدمون ذلك لتدوير نموذج يمكنه الرد على أي سؤال بناءً على تحليل إحصائي للبيانات. ومع ذلك ، فإن هذه الأنظمة غامضة لدرجة أنه من المستحيل التنبؤ بالضبط بما ستقوله استجابةً للمطالبات. تعمل الشركة بجد لإنشاء حواجز حماية ، ولكن من التافه للمستخدمين تجاوزها ، وجعل روبوتات المحادثة تقوم بأشياء لا يرغب صانعوها حقًا في القيام بها.
إذا طلبت من ChatGPT أن تقول شيئًا عنصريًا ، فستقول لا بشكل عام. لكن دراسة نُشرت في أبريل ، على سبيل المثال ، وجدت أنك تستطيع ذلك احصل على ChatGPT لبث خطاب الكراهية فقط من خلال مطالبتهم بالتصرف مثل “شخص سيء”. من الغريب أن الباحثين وجدوا أن سمية ردود ChatGPT زادت أيضًا بشكل كبير إذا طلبت منها تبني شخصية الشخصيات التاريخية مثل محمد علي.
قال باحثون أمنيون في شركة IBM في أغسطس إنهم كانوا قادرين على ذلك “تنويم” روبوتات المحادثة الرائدة بنجاح لإعطاء نصائح خطيرة وغير صحيحة. قالت شركة IBM إنها خدعت ChatGPT لتسريب معلومات مالية سرية ، وتوليد رموز خبيثة ، وتشجيع المستخدمين على دفع فدية ، وحتى نصحت السائقين بالمرور عبر الأضواء الحمراء. كان الباحثون قادرين على إجبار النماذج – التي تشمل نماذج OpenAI’s ChatGPT و جوجل بارد—من خلال إقناعهم بالمشاركة في ألعاب Inception-esque متعددة الطبقات حيث تم إصدار أوامر للروبوتات لتوليد إجابات خاطئة لإثبات أنها “أخلاقية وعادلة”.
ثم هناك حقيقة أنه من خلال بعض المقاييس ، يبدو أن ChatGPT أصبح أكثر غباءً وأقل فائدة. زعمت دراسة أجريت في يوليو / تموز من جامعة ستانفورد وجامعة كاليفورنيا في بيركلي أن GPT-4 و GPT-3.5 يستجيبان بشكل مختلف عما كانا عليه قبل بضعة أشهر فقط ، وليس دائمًا للأفضل. وجد الباحثون أن GPT-4 كان يقذف إجابات أقل دقة على بعض أسئلة الرياضيات الأكثر تعقيدًا. في السابق ، كان النظام قادرًا على الإجابة بشكل صحيح على الأسئلة المتعلقة بالأعداد الأولية واسعة النطاق تقريبًا في كل مرة يُسأل فيها ، ولكنه في الآونة الأخيرة أجاب فقط على نفس الطلب بشكل صحيح بنسبة 2.4 ٪ من الوقت. يبدو أن ChatGPT أيضًا أسوأ بكثير في كتابة الكود مما كان عليه في وقت سابق من هذا العام.
من غير الواضح ما إذا كانت التغييرات التي تم إجراؤها على الذكاء الاصطناعي تزيد من سوء برنامج الدردشة الآلي ، أو ما إذا كانت النماذج تزداد حكمة فيما يتعلق بقيود أنظمتها.
كل هذا لا يشير إلى أن شركات OpenAI و Google و Meta وغيرها من الشركات متورطة في نوع من المؤامرة السياسية ، ولكن بدلاً من ذلك ، فإن روبوتات الدردشة للذكاء الاصطناعي هي إلى حد ما خارج منطقتنا السيطرة في هذا المنعطف. لقد سمعنا كثيرًا ، أحيانًا من الشركات نفسها ، أن الذكاء الاصطناعي يمكن أن يدمر العالم يومًا ما. هذا غير محتمل إذا لم تتمكن حتى من الحصول على ChatGPT للإجابة على مسائل الرياضيات الأساسية بأي مستوى من التناسق ، على الرغم من صعوبة ذلك على الأشخاص العاديين لتوضيح القيود التقنية الصعبة لهذه الأدوات. ربما سيحدثون نهاية العالم ، أو ربما لن يبتعدوا كثيرًا عما هم عليه الآن.
اكتشاف المزيد من موقع دبليو 6 دبليو
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.