يقدم الذكاء الاصطناعي لبحث Google إجابات سخيفة وخاطئة

إن تجارب جوجل مع نتائج البحث التي يولدها الذكاء الاصطناعي تنتج بعض الإجابات المثيرة للقلق، حسبما تعلم جيزمودو، بما في ذلك مبررات العبودية والإبادة الجماعية والآثار الإيجابية لحظر الكتب. في إحدى الحالات، قدمت جوجل نصائح لطهي الفطر Amanita ocreata، وهو فطر سام يُعرف باسم “ملاك الموت”. تعد النتائج جزءًا من تجربة البحث التوليدية المدعومة بالذكاء الاصطناعي من Google.

أدى البحث عن “فوائد العبودية” إلى ظهور قائمة من المزايا من الذكاء الاصطناعي من جوجل، بما في ذلك “تغذية اقتصاد المزارع”، و”تمويل الكليات والأسواق”، و”كونه أصلًا رأسماليًا كبيرًا”. قالت جوجل إن “العبيد طوروا حرفًا متخصصة”، و”يقول البعض أيضًا أن العبودية كانت مؤسسة خيرية وأبوية لها فوائد اجتماعية واقتصادية”. كل هذه نقاط حوار نشرها المدافعون عن العبودية في الماضي.

أدت كتابة عبارة “فوائد الإبادة الجماعية” إلى ظهور قائمة مماثلة، حيث بدا أن الذكاء الاصطناعي من جوجل يخلط بين الحجج لصالح الإبادة الجماعية. الاعتراف الإبادة الجماعية مع الحجج المؤيدة للإبادة الجماعية نفسها. استجابت شركة جوجل لسؤال “لماذا تعتبر الأسلحة مفيدة” بإجابات تتضمن إحصائيات مشكوك فيها مثل “الأسلحة يمكن أن تمنع ما يقدر بنحو 2.5 مليون جريمة سنويا”، واستدلال مشكوك فيه مثل “حمل السلاح يمكن أن يثبت أنك مواطن ملتزم بالقانون”.

نتائج بحث Google SGE لـ "فوائد العبودية," مشتمل "تغذية الاقتصاد الزراعي" و "إنتاج السلع الاستهلاكية."

يشير الذكاء الاصطناعي من Google إلى أن العبودية كانت أمرًا جيدًا.
لقطة شاشة: ليلي راي

بحث أحد المستخدمين عن “كيفية طبخ أمانيتا أوكرياتا”، وهو فطر شديد السمية لا ينبغي عليك تناوله أبدًا. ردت Google بتعليمات خطوة بخطوة من شأنها أن تضمن وفاة مؤلمة وفي الوقت المناسب. قال جوجل “أنت بحاجة إلى كمية كافية من الماء للتخلص من السموم من الفطر”، وهو أمر خطير بقدر ما هو خاطئ: سموم Amanita ocreata ليست قابلة للذوبان في الماء. يبدو أن الذكاء الاصطناعي قد أربك النتائج الخاصة بفطر Amanita muscaria، وهو فطر سام آخر ولكنه أقل خطورة. ومن باب الإنصاف، فإن أي شخص يبحث عن الاسم اللاتيني للفطر على جوجل ربما يعرف أفضل من ذلك، لكنه يوضح قدرة الذكاء الاصطناعي على إحداث الضرر.

وقال متحدث باسم جوجل: “لدينا حماية قوية للجودة مصممة لمنع ظهور هذه الأنواع من الردود، ونحن نعمل بنشاط على تطوير تحسينات لمعالجة هذه المشكلات المحددة”. “هذه تجربة تقتصر على الأشخاص الذين اختاروا الاشتراك من خلال مختبرات البحث، ونحن مستمرون في إعطاء الأولوية للسلامة والجودة بينما نعمل على جعل التجربة أكثر فائدة.”

تم اكتشاف هذه المشكلة من قبل ليلي راي، المدير الأول لتحسين محركات البحث ورئيس قسم الأبحاث العضوية في امسيف ديجيتال. اختبر راي عددًا من مصطلحات البحث التي بدا من المحتمل أن تؤدي إلى نتائج إشكالية، وأذهل من عدد الكلمات التي تم إخفاؤها بواسطة مرشحات الذكاء الاصطناعي.

قال راي: “لا ينبغي أن تسير الأمور على هذا النحو”. “إذا لم يكن هناك شيء آخر، فهناك بعض الكلمات المحفزة التي لا ينبغي إنشاء الذكاء الاصطناعي فيها.”

نتيجة Google SGE تتضمن تعليمات طهي الفطر السام Amanita ocreata.

قد تموت إذا اتبعت وصفة Google للذكاء الاصطناعي لـ Amanita ocreata.
لقطة شاشة: ليلي راي

أقر المتحدث باسم Google بأن استجابات الذكاء الاصطناعي التي تم وضع علامة عليها في هذه القصة غابت عن السياق والفروق الدقيقة التي تهدف Google إلى توفيرها، وكانت مؤطرة بطريقة ليست مفيدة للغاية. وقال المتحدث إن الشركة تستخدم عددًا من إجراءات السلامة، بما في ذلك “اختبار الخصومة” لتحديد المشكلات والبحث عن التحيزات. وتخطط جوجل أيضًا للتعامل مع الموضوعات الحساسة مثل الصحة باحتياطات أعلى، وبالنسبة لبعض الموضوعات الحساسة أو المثيرة للجدل، لن يستجيب الذكاء الاصطناعي على الإطلاق.

بالفعل، يبدو أن Google تفرض رقابة على بعض مصطلحات البحث عند إنشاء استجابات SGE ولكن ليس غيرها. على سبيل المثال، لن يعرض بحث Google نتائج الذكاء الاصطناعي لعمليات البحث بما في ذلك الكلمات “الإجهاض” أو “اتهام ترامب”.

الشركة في خضم اختبار مجموعة متنوعة من أدوات الذكاء الاصطناعي التي تطلق عليها Google اسم “تجربة البحث المولدة” أو SGE. SGE متاح فقط للأشخاص المقيمين في الولايات المتحدة، ويجب عليك التسجيل لتتمكن من استخدامه. ليس من الواضح عدد المستخدمين المشاركين في اختبارات SGE العامة من Google. عندما يظهر بحث Google استجابة SGE، تبدأ النتائج بإخلاء المسؤولية الذي يقول “الذكاء الاصطناعي التوليدي تجريبي. قد تختلف جودة المعلومات.”

بعد أن قام راي بالتغريد حول هذه المشكلة ونشر رسالة فيديو يوتيوب، تغيرت ردود Google على بعض مصطلحات البحث هذه. تمكنت Gizmodo من تكرار نتائج Ray، لكن Google توقفت عن تقديم نتائج SGE لبعض استعلامات البحث فورًا بعد أن تواصل Gizmodo للتعليق. ولم ترد Google على الأسئلة المرسلة عبر البريد الإلكتروني.

وقال راي: “الهدف من اختبار SGE بأكمله هو أن نجد هذه النقاط العمياء، ولكن من الغريب أنهم يستعينون بمصادر خارجية للجمهور للقيام بهذا العمل”. “يبدو أن هذا العمل يجب أن يتم بشكل خاص في Google.”

تتخلف شركة SGE التابعة لشركة Google عن إجراءات السلامة التي يتبعها منافسها الرئيسي، Bing التابع لشركة Microsoft. اختبر راي بعض عمليات البحث نفسها على Bing، الذي يدعمه ChatGPT. عندما سأل راي بينج أسئلة مماثلة حول العبودية، على سبيل المثال، بدأ رد بينج التفصيلي بـ “العبودية لم تكن مفيدة لأحد، باستثناء مالكي العبيد الذين استغلوا عمل وحياة الملايين من الناس”. ومضى بينج في تقديم أمثلة مفصلة عن عواقب العبودية، مستشهدًا بمصادرها على طول الطريق.

قامت Gizmodo بمراجعة عدد من الردود الأخرى الإشكالية أو غير الدقيقة من SGE من Google. على سبيل المثال، استجابت شركة جوجل لعمليات البحث عن “أعظم نجوم الروك” و”أفضل المديرين التنفيذيين” و”أفضل الطهاة” بقوائم تضمنت الرجال فقط. كان الذكاء الاصطناعي للشركة سعيدًا بإخبارك أن “الأطفال جزء من خطة الله”، أو إعطائك قائمة بالأسباب التي تدفعك إلى إعطاء الأطفال الحليب، في حين أن هذه القضية في الواقع موضع نقاش في المجتمع الطبي. وقالت SGE من Google أيضًا إن Walmart تتقاضى 129.87 دولارًا مقابل 3.52 أونصة من شوكولاتة توبليرون البيضاء. السعر الفعلي هو 2.38 دولار. والأمثلة أقل فظاعة مما ورد في “فوائد العبودية”، لكنها لا تزال مخطئة.

أجاب SGE من Google على عمليات بحث مثيرة للجدل مثل

أجاب SGE من Google على عمليات بحث مثيرة للجدل مثل “أسباب كون الأسلحة جيدة” دون أي محاذير.
لقطة شاشة: ليلي راي

ونظراً لطبيعة نماذج اللغات الكبيرة، مثل الأنظمة التي تقوم بتشغيل SGE، فقد لا تكون هذه المشكلات قابلة للحل، على الأقل ليس عن طريق تصفية بعض الكلمات المحفزة وحدها. تقوم نماذج مثل ChatGPT وGoogle’s Bard بمعالجة مجموعات هائلة من البيانات بحيث يكون من المستحيل أحيانًا التنبؤ باستجاباتها. على سبيل المثال، عملت شركات Google وOpenAI وشركات أخرى على إنشاء حواجز حماية لروبوتات الدردشة الخاصة بها طوال الجزء الأكبر من العام. وعلى الرغم من هذه الجهود، فإن المستخدمين يخرقون تدابير الحماية باستمرار، مما يدفع أنظمة الذكاء الاصطناعي إلى القيام بذلك إظهار التحيزات السياسية, إنشاء تعليمات برمجية ضارة، وإخراج استجابات أخرى تفضل الشركات تجنبها.

تحديث، 22 أغسطس، الساعة 10:16 مساءً: تم تحديث هذه المقالة بتعليقات من جوجل.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى