صديقتك التي تعمل بالذكاء الاصطناعي هي عبارة عن عرض رعب لجمع البيانات


وحيدا في عيد الحب؟ يمكن للذكاء الاصطناعي أن يساعد. على الأقل، هذا ما سيخبرك به عدد من الشركات التي تبيع برامج الدردشة “الرومانسية”. ولكن بينما تتكشف قصة حبك للروبوت، هناك مقايضة قد لا تدرك أنك تقوم بها. وفقًا لدراسة جديدة من مشروع Mozilla *الخصوصية غير متضمنة، الصديقات والأصدقاء منظمة العفو الدولية يجمعون معلومات شخصية صادمة، وجميعهم تقريبًا يبيعون أو يشاركون البيانات التي يجمعونها.

قال ميشا ريكوف، الباحث في موزيلا، في بيان صحفي: “لكي أكون صريحًا تمامًا، فإن الصديقات والأصدقاء الذين يستخدمون الذكاء الاصطناعي ليسوا أصدقاءك”. “على الرغم من أنه يتم تسويقها على أنها شيء من شأنه أن يعزز صحتك العقلية ورفاهيتك، إلا أنها تتخصص في تقديم التبعية والوحدة والسمية، وكل ذلك مع الحصول على أكبر قدر ممكن من البيانات منك.”

حفرت موزيلا في 11 روبوتات محادثة رومانسية مختلفة تعمل بالذكاء الاصطناعي، بما في ذلك التطبيقات الشهيرة مثل Replika وChai وRomantic AI وEVA AI Chat Bot & Soulmate وCrushOn.AI. حصل كل فرد على علامة “الخصوصية غير مشمولة”، مما يضع روبوتات الدردشة هذه ضمن أسوأ فئات المنتجات التي استعرضتها موزيلا على الإطلاق. التطبيقات المذكورة في هذه القصة لم تستجب على الفور لطلبات التعليق.

لقد سمعت قصصًا عن مشكلات البيانات من قبل، ولكن وفقًا لموزيلا، تنتهك صديقات الذكاء الاصطناعي خصوصيتك “بطرق جديدة مزعجة”. على سبيل المثال، يقوم CrushOn.AI بجمع التفاصيل بما في ذلك معلومات حول الصحة الجنسية واستخدام الأدوية ورعاية تأكيد الجنس. قد تبيع 90% من التطبيقات بيانات المستخدم أو تشاركها للإعلانات المستهدفة وأغراض أخرى، ولن يسمح لك أكثر من النصف بحذف البيانات التي تجمعها. وكان الأمن أيضا مشكلة. هناك تطبيق واحد فقط، وهو Genesia AI Friend & Partner، يلبي الحد الأدنى من معايير الأمان الخاصة بـ Mozilla.

إحدى النتائج الأكثر إثارة للدهشة جاءت عندما قامت موزيلا بإحصاء أدوات التتبع في هذه التطبيقات، وهي عبارة عن أجزاء صغيرة من التعليمات البرمجية التي تجمع البيانات وتشاركها مع شركات أخرى للإعلان وأغراض أخرى. وجدت موزيلا أن تطبيقات الذكاء الاصطناعي تستخدم ما معدله 2,663 متتبعًا في الدقيقة، على الرغم من أن هذا العدد قد تم رفعه بواسطة Romantic AI، الذي اتصل بـ 24,354 متتبعًا في دقيقة واحدة فقط من استخدام التطبيق.

تعد فوضى الخصوصية أكثر إثارة للقلق لأن التطبيقات تشجعك بشكل نشط على مشاركة تفاصيل أكثر شخصية بكثير من نوع الأشياء التي قد تدخلها في تطبيق نموذجي. يدفع EVA AI Chat Bot & Soulmate المستخدمين إلى “مشاركة جميع أسرارهم ورغباتهم”، ويطلبون على وجه التحديد الصور والتسجيلات الصوتية. تجدر الإشارة إلى أن EVA كان برنامج الدردشة الآلي الوحيد الذي لم يتأثر بكيفية استخدامه لتلك البيانات، على الرغم من أن التطبيق كان به مشكلات أمنية.

وبغض النظر عن مشكلات البيانات، قدمت التطبيقات أيضًا بعض الادعاءات المشكوك فيها حول ما هي مفيدة له. تعتبر EVA AI Chat Bot & Soulmate نفسها “مزودًا للبرامج والمحتوى الذي تم تطويره لتحسين حالتك المزاجية ورفاهيتك”. يقول الذكاء الاصطناعي الرومانسي إنه “هنا للحفاظ على صحتك العقلية”. عندما تقرأ شروط وخدمات الشركة، فإنهم يبذلون قصارى جهدهم لإبعاد أنفسهم عن مطالباتهم الخاصة. على سبيل المثال، تنص سياسات الذكاء الاصطناعي الرومانسي على أنها “ليست مقدم رعاية صحية أو خدمة طبية ولا تقدم رعاية طبية أو خدمة صحة عقلية أو أي خدمة مهنية أخرى”.

ربما يكون هذا أساسًا قانونيًا مهمًا يجب تغطيته، نظرًا لتاريخ هذه التطبيقات. وبحسب ما ورد شجعت Replika محاولة الرجل القيام بذلك اغتيال ملكة إنجلترا. يُزعم أن روبوت الدردشة Chai شجعت المستخدم على الانتحار.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى