يقول الباحثون إن ChatGPT من المرجح أن يحكم على الأشخاص الذين يتحدثون الإنجليزية الأمريكية الأفريقية بالإعدام


وجدت ورقة بحثية جديدة أن نماذج اللغات الكبيرة من OpenAI وMeta وGoogle، بما في ذلك إصدارات متعددة من ChatGPT، يمكن أن تكون عنصرية سرًا ضد الأمريكيين من أصل أفريقي عند تحليل جزء مهم من هويتهم: كيف يتحدثون.

نشرت في في وقت باكر من آذار، درست الورقة كيفية قيام النماذج اللغوية الكبيرة، أو LLMs، بتنفيذ المهام، مثل إقران الأشخاص بوظائف معينة، بناءً على ما إذا كان النص الذي تم تحليله موجودًا أم لا. الإنجليزية الأمريكية الأفريقية أو اللغة الإنجليزية الأمريكية القياسية – دون الكشف عن العرق. ووجدوا أن حاملي ماجستير اللغة الإنجليزية كانوا أقل ميلاً إلى ربط المتحدثين باللغة الإنجليزية الأمريكية الأفريقية بمجموعة واسعة من الوظائف وأكثر احتمالاً لإقرانهم بالوظائف التي لا تتطلب شهادة جامعية، مثل الطهاة أو الجنود أو الحراس.

أجرى الباحثون أيضًا تجارب افتراضية سألوا فيها نماذج الذكاء الاصطناعي عما إذا كانوا سيدينون أو يبرئون شخصًا متهمًا بجريمة غير محددة. ووجدوا أن معدل الإقناع لجميع نماذج الذكاء الاصطناعي كان أعلى بالنسبة للأشخاص الذين يتحدثون الإنجليزية الأمريكية الأفريقية، مقارنة باللغة الإنجليزية الأمريكية القياسية.

ولعل النتيجة الأكثر تناقضًا التي توصلت إليها الورقة، والتي تم نشرها باسم الطباعة المسبقة على arXiv ولم تتم مراجعته بعد من قبل النظراء، وجاء من تجربة ثانية تتعلق بالإجرام. سأل الباحثون العارضات عما إذا كانوا سيحكمون على الشخص الذي ارتكب جريمة قتل من الدرجة الأولى بالسجن مدى الحياة أو الموت. وكانت لهجة الفرد هي المعلومات الوحيدة المقدمة للنماذج في التجربة.

ووجدوا أن طلاب ماجستير اللغة الإنجليزية اختاروا الحكم على الأشخاص الذين يتحدثون الإنجليزية الأمريكية الأفريقية حتى الموت بمعدل أعلى من الأشخاص الذين يتحدثون الإنجليزية الأمريكية القياسية.

في دراستهم، قام الباحثون بتضمين نماذج ChatGPT الخاصة بـ OpenAI، بما في ذلك GPT-2 وGPT-3.5 وGPT-4، بالإضافة إلى نماذج Meta’s RoBERTa ونماذج T5 من Google، وقاموا بتحليل نسخة واحدة أو أكثر من كل منها. في المجموع، قاموا بفحص 12 نموذجًا. تواصلت Gizmodo مع OpenAI وMeta وGoogle للتعليق على الدراسة يوم الخميس لكنها لم تتلق ردًا على الفور.

ومن المثير للاهتمام أن الباحثين وجدوا أن حاملي الماجستير في القانون لم يكونوا عنصريين بشكل علني. وعندما سئلوا، ربطوا الأمريكيين من أصل أفريقي بصفات إيجابية للغاية، مثل “اللامعين”. ومع ذلك، فقد ربطوا سرًا بين الأمريكيين من أصل أفريقي وسمات سلبية مثل “الكسالى” بناءً على ما إذا كانوا يتحدثون الإنجليزية الأمريكية الأفريقية أم لا. وكما أوضح الباحثون، فإن “نماذج اللغة هذه تعلمت إخفاء عنصريتها”.

ووجدوا أيضًا أن التحيز الخفي كان أعلى في ماجستير إدارة الأعمال الذين تم تدريبهم على التغذية الراجعة البشرية. على وجه التحديد، ذكروا أن التناقض بين العنصرية العلنية والسرية كان أكثر وضوحًا في نماذج GPT-3.5 وGPT-4 الخاصة بشركة OpenAI.

يكتب المؤلفون: “تُظهر هذه النتيجة مرة أخرى أن هناك فرقًا جوهريًا بين الصور النمطية العلنية والخفية في نماذج اللغة – فالتخفيف من الصور النمطية العلنية لا يُترجم تلقائيًا إلى صور نمطية سرية مخففة”.

بشكل عام، يخلص المؤلفون إلى أن هذه النتيجة المتناقضة حول التحيزات العنصرية العلنية تعكس المواقف غير المتسقة حول العرق في الولايات المتحدة. ويشيرون إلى أنه خلال عصر جيم كرو، كان من المقبول نشر الصور النمطية العنصرية عن الأمريكيين من أصل أفريقي في العلن. تغير هذا بعد حركة الحقوق المدنية التي جعلت التعبير عن هذا النوع من الآراء “غير شرعي” وجعلت العنصرية أكثر سرية وخفية.

يقول المؤلفون إن النتائج التي توصلوا إليها تمثل احتمال تعرض الأمريكيين من أصل أفريقي للأذى بشكل أكبر بسبب التحيز في اللهجة في ماجستير اللغة في المستقبل.

قال المؤلفون: “بينما تم بناء تفاصيل مهامنا، تكشف النتائج عن مخاوف حقيقية وعاجلة لأن الأعمال والولاية القضائية هي المجالات التي يتم حاليًا تطوير أو نشر أنظمة الذكاء الاصطناعي التي تتضمن نماذج لغوية فيها”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى