شركة برامج تجسس روسية تستخدم ChatGPT للمراقبة


مرحبًا بكم في AI This Week، تقرير Gizmodo الأسبوعي حيث نتعمق في ما يحدث في مجال الذكاء الاصطناعي.

هذا الأسبوع، فوربس ذكرت أن شركة برامج تجسس روسية تدعى Social Links بدأت في استخدام ChatGPT لإجراء تحليل المشاعر. هذا المجال المخيف الذي من خلاله يقوم رجال الشرطة والجواسيس بجمع وتحليل بيانات وسائل التواصل الاجتماعي لفهم شعور مستخدمي الويب تجاه الأشياء، تحليل المشاعر هي إحدى حالات الاستخدام الأكثر سطحية لروبوت الدردشة الصغير الذي لم يظهر بعد.

الروابط الاجتماعية، والتي كانت في السابق بدأت منصات ميتا بتهمة المراقبة المزعومة للمستخدمين، أظهرت استخدامها غير التقليدي لـ ChatGPT في مؤتمر أمني في باريس هذا الأسبوع. وتمكنت الشركة من استغلال قدرة برنامج الدردشة الآلي على تلخيص النص وتحليله للتنقل خلال أجزاء كبيرة من البيانات، واستيعابها بسرعة. وفي عرض توضيحي، قامت الشركة بإدخال البيانات التي تم جمعها بواسطة أداة خاصة بها إلى ChatGPT؛ وكتبت فوربس أن البيانات، المتعلقة بالمشاركات عبر الإنترنت حول الجدل الأخير في إسبانيا، تم تحليلها بعد ذلك بواسطة برنامج الدردشة الآلي، الذي صنفها على أنها “إيجابية أو سلبية أو محايدة، وعرض النتائج في رسم بياني تفاعلي”.

من الواضح أن المدافعين عن الخصوصية وجدوا هذا أمرًا مزعجًا بعض الشيء، ليس فقط بسبب هذه الحالة تحديدًا، ولكن بسبب ما تقوله عن كيفية قيام الذكاء الاصطناعي بتصعيد صلاحيات صناعة المراقبة بشكل عام.

وقال روري مير، المدير المساعد لتنظيم المجتمع في مؤسسة الحدود الإلكترونية، إن الذكاء الاصطناعي يمكن أن يساعد جهات إنفاذ القانون على توسيع نطاق جهود المراقبة، مما يسمح لفرق أصغر من رجال الشرطة بمراقبة مجموعات أكبر بسهولة. بالفعل، تستخدم وكالات الشرطة في كثير من الأحيان ملفات تعريف مزيفة لدمج نفسها في المجتمعات عبر الإنترنت؛ وقال مير إن هذا النوع من المراقبة له تأثير مروع على الخطاب عبر الإنترنت. وأضاف: “الشيء المخيف في أشياء مثل ChatGPT هو أنها تستطيع توسيع نطاق هذا النوع من العمليات”. يمكن للذكاء الاصطناعي أن “يسهل على رجال الشرطة إجراء التحليل بشكل أسرع” على البيانات التي يجمعونها خلال هذه العمليات السرية، مما يعني أن “أدوات الذكاء الاصطناعي تتيح (بشكل فعال)” المراقبة عبر الإنترنت.

وأشار مير أيضًا إلى مشكلة صارخة في هذا النوع من استخدام الذكاء الاصطناعي: تمتلك روبوتات الدردشة سجلًا سيئًا جدًا من العبث وتحقيق نتائج سيئة. وقال مير: “إن الذكاء الاصطناعي مثير للقلق حقًا في السيناريوهات عالية المخاطر مثل هذه”. “إنه شيء واحد أن تجعل ChatGPT يقرأ مسودة مقالك بحيث يمكنك أن تسأله “ما مدى قبول هذا؟” ولكن عندما تنتقل إلى نطاق تحديد ما إذا كان شخص ما قد حصل على وظيفة، أو سكن، أو في هذه الحالة، تحديد ما إذا كان شخص ما يحظى باهتمام غير ضروري من الشرطة أم لا، عندها تصبح تلك التحيزات، ليست مجرد شيء لحسابه، ولكن سببًا لعدم استخدامه بهذه الطريقة (على الإطلاق).”

وأضاف مير أن “الصندوق الأسود” لبيانات تدريب الذكاء الاصطناعي يعني أنه من الصعب التأكد مما إذا كانت استجابة الخوارزمية جديرة بالثقة أم لا. “أعني أن هذه الأشياء تم تدريبها على بيانات Reddit و4chan،” قال ضاحكًا. “لذا فإن التحيزات التي تأتي من تلك البيانات الأساسية سوف تظهر مرة أخرى في فسيفساء مخرجاتها.”

سؤال اليوم: هل فعل سام التمان هذا؟

صورة لمقالة بعنوان ChatGPT هي أداة مراقبة رائعة على ما يبدو

صورة: جاستن سوليفان (صور جيتي)

في واحدة من أكثر المفاجآت إثارة للصدمة في تاريخ التكنولوجيا الحديث، تمت إقالة سام ألتمان من منصبه كرئيس تنفيذي لشركة OpenAI. يوم الجمعة، تصريح تم إصداره من قبل الشركة معلنة عن انتقال مفاجئ للقيادة. “السيد. وتأتي رحيل ألتمان في أعقاب عملية مراجعة تداولية أجراها مجلس الإدارة، والتي خلصت إلى أنه لم يكن صريحًا دائمًا في اتصالاته مع مجلس الإدارة، مما أعاق قدرته على ممارسة مسؤولياته. لم يعد مجلس الإدارة يثق في قدرته على مواصلة قيادة OpenAl. وفي ظل فراغ السلطة المباشر الذي أحدثه هذا التحول الصادم للأحداث، يبدو أن مجلس الإدارة اختار ميرا موراتي، كبير مسؤولي التكنولوجيا في الشركة، للعمل كرئيس تنفيذي مؤقت، حسبما جاء في البيان الصحفي. حتى الآن، من غير الواضح تمامًا ما الذي كان من الممكن أن يفعله سام للسماح بحدوث مثل هذا التدهور المهني الكارثي. عليك أن تفشل بجدية لتتحول من كونك أمير المدينة في وادي السيليكون إلى المنبوذ على مدار اليوم. أنا في انتظار الدبابيس والإبر لسماع ما حدث بالضبط هنا.

المزيد من العناوين الرئيسية لهذا الأسبوع

  • تبدو الرعاية الصحية الآلية وكأنها كابوس حقيقي. دعوى قضائية جديدة يدعي ذلك تستخدم شركة UnitedHealthcare خوارزمية ذكاء اصطناعي معيبة للغاية “لتجاوز” أحكام الأطباء عندما يتعلق الأمر بالمرضى، مما يسمح لعملاق التأمين برفض تغطية المرضى المسنين والمرضى. تزعم الدعوى، التي تم رفعها في المحكمة الجزئية الأمريكية في مينيسوتا، أن NaviHealth، وهي شركة تابعة لشركة UnitedHealth، تستخدم خوارزمية ذكاء اصطناعي مغلقة المصدر، nH Predict، والتي، بالإضافة إلى استخدامها لحرمان المرضى من التغطية، لديها سجل حافل من كونها خاطئة في كثير من الأحيان. آرس تكنيكا لديها القصة الكاملة.
  • يبدو أن شركة Microsoft قد “صدمت” بسبب خروج Sam Altman المفاجئ من OpenAI. جديد تقرير من Axios تدعي أن شركة Microsoft، الشركة المحورية في OpenAI شريك تجاري (و ممول) لقد “تفاجأت” بحقيقة أن رئيسها التنفيذي يتم طرده الآن بتحيز شديد. ولا يقول التقرير أكثر من ذلك بكثير ويستشهد فقط بـ “شخص مطلع على الوضع”. ويكفي أن نقول أن الجميع ما زالوا في حيرة من أمرهم بشأن هذا الأمر.
  • ربما لا تقوم المملكة المتحدة بتنظيم الذكاء الاصطناعي على أية حال. يبدو أن الهجوم السحري الذي شنته شركات التكنولوجيا الكبرى عبر البركة قد نجح. في الأسابيع الأخيرة، بعض من أكبر الشخصيات في صناعة الذكاء الاصطناعي:بما في ذلك إيلون ماسك– سافر إلى المملكة المتحدة لحضور قمة الذكاء الاصطناعي. كان التوجه العام للمديرين التنفيذيين الذين حضروا المؤتمر هو: الذكاء الاصطناعي يمكن أن يدمر العالم، لكن من فضلكم، دعونا لا نفعل أي شيء حيال ذلك في الوقت الحالي. هذا الأسبوع، وزير الدولة للذكاء الاصطناعي والملكية الفكرية، جوناثان كامروز، قال للصحافة وأن الأمة “على المدى القصير” لا ترغب في تنفيذ “التنظيم السابق لأوانه” وأرادت الابتعاد عن “خنق الابتكار”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى