قد يكون OpenAI في مشكلة بسبب هلوسة ChatGPT حول الناس


OpenAI تحت التدقيق في الاتحاد الأوروبي مرة أخرى – هذه المرة هلوسة ChatGPT عن الناس.

قدمت مجموعة غير ربحية معنية بحقوق الخصوصية تدعى noyb شكوى يوم الاثنين إلى هيئة حماية البيانات النمساوية (DPA) ضد شركة الذكاء الاصطناعي نيابة عن أحد الأفراد بسبب عدم قدرتها على تصحيح المعلومات التي أنشأها ChatGPT عن الأشخاص.

بالرغم من الهلوسة، أو ميل نماذج اللغات الكبيرة (LLMs) مثل ChatGPT لتكوين معلومات مزيفة أو لا معنى لها، أمر شائع، تركز شكوى noyb على اللائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي. اللائحة العامة لحماية البيانات ينظم كيفية التعامل مع البيانات الشخصية للأشخاص في الكتلة يتم جمعها وتخزينها.

على الرغم من متطلبات اللائحة العامة لحماية البيانات، “تعترف OpenAI علنًا بأنها غير قادرة على تصحيح المعلومات غير الصحيحة على ChatGPT”، كما قال نويب في بيان، مضيفًا أن الشركة أيضًا “لا يمكنها تحديد مصدر البيانات أو البيانات التي يخزنها ChatGPT حول الأشخاص الأفراد”. وأنها “تدرك جيدًا هذه المشكلة، ولكن لا يبدو أنها تهتم بها”.

وبموجب اللائحة العامة لحماية البيانات، يحق للأفراد في الاتحاد الأوروبي تصحيح المعلومات غير الصحيحة عنهم، مما يجعل OpenAI غير متوافق مع القاعدة بسبب عدم قدرتها على تصحيح البيانات، حسبما قال نويب في شكواه.

في حين أن الهلوسة “قد تكون مقبولة” في الواجبات المنزلية، إلا أن نويب قال إنها “غير مقبولة” عندما يتعلق الأمر بتوليد معلومات عن الناس. صاحب الشكوى في قضية noyb ضد OpenAI هو فرد عام سأل ChatGPT عن عيد ميلاده، ولكن “تم تزويده بشكل متكرر بمعلومات غير صحيحة”، وفقًا لـ noyb. ثم زُعم أن OpenAI “رفضت طلبه بتصحيح البيانات أو مسحها، بحجة أنه لم يكن من الممكن تصحيح البيانات”. وبدلاً من ذلك، يُزعم أن OpenAI أخبرت صاحب الشكوى أنه يمكنها تصفية البيانات أو حظرها بناءً على مطالبات معينة، مثل اسم صاحب الشكوى.

تطلب المجموعة من DPA التحقيق في كيفية معالجة OpenAI للبيانات، وكيف تضمن الشركة بيانات شخصية دقيقة في تدريب ماجستير إدارة الأعمال لديها. يطلب noyb أيضًا من DPA أن يأمر OpenAI بالامتثال لطلب مقدم الشكوى للوصول إلى البيانات – أ الحق بموجب القانون العام لحماية البيانات الذي يتطلب الشركات لتوضيح للأفراد ما هي البيانات المتوفرة لديهم وما هي مصادر البيانات.

ولم تستجب OpenAI على الفور لطلب التعليق.

وقال ماارتجي دي جراف، محامي حماية البيانات في noyb، في بيان: “إن الالتزام بالامتثال لطلبات الوصول ينطبق على جميع الشركات”. “من الواضح أنه من الممكن الاحتفاظ بسجلات لبيانات التدريب التي تم استخدامها على الأقل لديك فكرة عن مصادر المعلومات. ويبدو أنه مع كل “ابتكار”، تعتقد مجموعة أخرى من الشركات أن منتجاتها لا يجب أن تمتثل للقانون.”

قد يؤدي عدم الامتثال لقواعد اللائحة العامة لحماية البيانات (GDPR). يؤدي إلى غرامات تصل إلى 20 مليون يورو أو 4٪ من حجم الأعمال السنوي العالمي — أي القيمة أعلى — بل وأضرار أكبر إذا اختار الأفراد البحث عنها. تواجه OpenAI بالفعل حالات مماثلة لحماية البيانات في الدول الأعضاء في الاتحاد الأوروبي إيطاليا و بولندا.

ظهرت هذه المقالة في الأصل على كوارتز.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى