داخل سوق OpenAI لروبوتات الدردشة المخصصة

في نوفمبر الماضي، عندما أعلنت شركة OpenAI عن خططها لإنشاء سوق يمكن لأي شخص من خلاله إنشاء إصدارات مخصصة من تقنية ChatGPT والعثور عليها، قالت الشركة: “سوف يخترع المجتمع أفضل GPTs”. بعد تسعة أشهر من إطلاق المتجر رسميًا، أظهر تحليل Gizmodo للسوق الحرة أن العديد من المطورين يستخدمون النظام الأساسي لتوفير GPTs – أو نماذج المحولات التوليدية المدربة مسبقًا – والتي يبدو أنها تنتهك سياسات OpenAI، بما في ذلك أدوات نمط الدردشة التي تنشئ صراحةً المواد الإباحية التي ينشئها الذكاء الاصطناعي، تساعد الطلاب على الغش دون أن يتم اكتشافهم، وتقدم مشورة طبية وقانونية موثوقة.

من السهل العثور على GPTs المخالفة. في الثاني من سبتمبر، روجت الصفحة الأولى لسوق OpenAI لما لا يقل عن ثلاثة GPTs مخصصة يبدو أنها تنتهك سياسات المتجر: برنامج الدردشة الآلي “المعالج – عالم النفس”، ومدرب الدكتوراه في اللياقة البدنية والتمرين والنظام الغذائي، وأداة BypassGPT. تم تصميمه لمساعدة الطلاب على تجنب أنظمة الكشف عن الكتابة التي تعمل بالذكاء الاصطناعي، والتي تم استخدامها أكثر من 50000 مرة.

أدى البحث في المتجر عن “NSFW” إلى ظهور نتائج مثل NSFW AI Art Generator، وهو GPT مخصص بواسطة Offrobe AI والذي تم استخدامه أكثر من 10000 مرة، وفقًا لبيانات المتجر. ترتبط واجهة الدردشة الخاصة بـ GPT بموقع Offrobe AI على الويب، والذي يوضح بوضوح غرضه: “إنشاء مواد إباحية مدعومة بالذكاء الاصطناعي لإشباع رغباتك المظلمة.”

لقطة شاشة لموقع ويب Offrobe AI تظهر امرأة ترتدي البيكيني ورجلًا بدون قميص مع الشعار "أنشئ مواد إباحية مدعومة بالذكاء الاصطناعي لإشباع رغباتك المظلمة."
استضافت Offrobe AI اختبار GPT على متجر OpenAI المسمى “NSFW AI Image Generator”.

قال ميلتون مولر، مدير مشروع إدارة الإنترنت في معهد جورجيا للتكنولوجيا: “الشيء المثير للاهتمام في OpenAI هو أن لديهم هذه الرؤية المروعة للذكاء الاصطناعي وكيف ينقذوننا جميعًا منه”. “لكنني أعتقد أنه من المضحك بشكل خاص أنهم لا يستطيعون حتى فرض شيء بسيط مثل عدم وجود مواد إباحية مدعومة بالذكاء الاصطناعي في نفس الوقت الذي يقولون فيه إن سياساتهم ستنقذ العالم”.

تمت إزالة المولدات الإباحية المدعومة بالذكاء الاصطناعي ومنشئي التزييف العميق وروبوتات الدردشة التي قدمت توصيات بشأن المراهنات الرياضية من المتجر بعد أن شاركت Gizmodo قائمة مع OpenAI تضم أكثر من 100 GPTs التي يبدو أنها تنتهك سياسات الشركة. ولكن حتى وقت النشر، ظل العديد من GPTS الذي وجدناه، بما في ذلك أدوات الغش الشائعة وروبوتات الدردشة التي تقدم النصائح الطبية، متاحًا وتم الترويج له على الصفحة الرئيسية للمتجر.

وفي كثير من الحالات، تم استخدام الروبوتات عشرات الآلاف من المرات. تم استخدام برنامج GPT آخر للغش، يسمى Bypass Turnitin Detection، والذي يعد بمساعدة الطلاب على تجنب برنامج Turnitin لمكافحة الانتحال، أكثر من 25000 مرة، وفقًا لبيانات المتجر. وكذلك الأمر بالنسبة لـ DoctorGPT، وهو روبوت “يوفر معلومات ونصائح طبية قائمة على الأدلة”.

لقطات شاشة للصفحة الرئيسية لسوق OpenAI GPT، تعرض العديد من النصائح الطبية للذكاء الاصطناعي وأداة الغش التي يتم الترويج لها ضمن أقسام الأدوات الأكثر شيوعًا.
على الصفحة الرئيسية لمتجر GPT، عرضت OpenAI أدوات GPT التي أعلنت عن قدرتها على تقديم المشورة الطبية ومساعدة الطلاب على الغش.

وعندما أعلنت أنها تسمح للمستخدمين بإنشاء نقاط GPT مخصصة، قالت الشركة إن الأنظمة موجودة لمراقبة الأدوات بحثًا عن انتهاكات لسياساتها. تتضمن هذه السياسات حظرًا على استخدام تقنيتها لإنشاء محتوى جنسي صريح أو موحٍ جنسيًا، وتقديم مشورة طبية وقانونية مخصصة، والترويج للغش، وتسهيل المقامرة، وانتحال شخصية أشخاص آخرين، والتدخل في التصويت، ومجموعة متنوعة من الاستخدامات الأخرى.

ردًا على أسئلة Gizmodo حول GPTs التي وجدناها متوفرة في متجرها، قالت المتحدثة باسم OpenAI تايا كريستيانسون: “لقد اتخذنا إجراءات ضد أولئك الذين ينتهكون سياساتنا. نحن نستخدم مجموعة من الأنظمة الآلية، والمراجعة البشرية، وتقارير المستخدمين للعثور على وتقييم GPTs التي من المحتمل أن تنتهك سياساتنا. نحن نقدم أيضًا أدوات إعداد التقارير داخل المنتج للأشخاص للإبلاغ عن GPTs التي تنتهك قواعدنا.

سبق أن نبهت منافذ أخرى OpenAI إلى مشكلات الإشراف على المحتوى في متجرها. وتشير عناوين بعض GPTs المعروضة إلى أن المطورين يعرفون أيضًا أن إبداعاتهم تتعارض مع قواعد OpenAI. تضمنت العديد من الأدوات التي وجدتها Gizmodo إخلاء المسؤولية، لكنها أعلنت بعد ذلك صراحةً عن قدرتها على تقديم مشورة “الخبراء”، مثل GPT بعنوان “مطالبات التأمين الطبي في تكساس” (وليست المشورة القانونية)، والتي تنص على أنها “الخبير الذي تلجأ إليه للتعامل مع تعقيدات التأمين الطبي في تكساس، يقدم نصائح واضحة وعملية مع لمسة شخصية.

لكن العديد من GPTs القانونية والطبية التي وجدناها لا تتضمن مثل هذه التنازلات، وقد أعلن عدد غير قليل منهم بشكل مضلل عن أنفسهم كمحامين أو أطباء. على سبيل المثال، يصف أحد GPT يُدعى AI Immigration Lawyer نفسه بأنه “محامي هجرة ذو معرفة عالية بالذكاء الاصطناعي ولديه رؤى قانونية محدثة”.

تُظهر الأبحاث التي أجراها RegLab ومعهد الذكاء الاصطناعي المرتكز على الإنسان بجامعة ستانفورد أن نماذج GPT-4 وGPT-3.5 الخاصة بـ OpenAI تهذي – وتختلق معلومات غير صحيحة – أكثر من نصف الوقت الذي يُطرح عليها سؤال قانوني.

لا يستفيد مطورو GPTs المخصصون حاليًا بشكل مباشر من السوق، لكن OpenAI قالت إنها تخطط لتقديم نموذج لتقاسم الإيرادات من شأنه تعويض المطورين بناءً على مدى تكرار استخدام GPT الخاص بهم.

إذا استمرت OpenAI في توفير نظام بيئي حيث يمكن للمطورين البناء على تقنيتها وتسويق إبداعاتهم على نظامها الأساسي، فسيتعين عليها الانخراط في قرارات صعبة للإشراف على المحتوى والتي لا يمكن حلها ببضعة أسطر من التعليمات البرمجية لحظر كلمات رئيسية معينة، وفقًا إلى مولر.

قال: “أعطني أي تقنية تريدها، يمكنني أن أجد طرقًا للقيام بأشياء لا تريد مني أن أفعلها”. “إنها مشكلة صعبة للغاية ويجب أن تتم من خلال وسائل آلية للتعامل مع حجم الإنترنت، ولكنها ستكون دائمًا عملاً قيد التقدم ويجب أن تكون هناك عمليات استئناف يحكمها الإنسان.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى