سيجتمع تشاك شومر مع إيلون ماسك ومارك زوكربيرج وآخرين حول الذكاء الاصطناعي
عناوين هذا الأسبوع
- في ما سيكون بالتأكيد خبرًا سارًا للعاملين في المكاتب الكسالى في كل مكان، يمكنك الآن دفع 30 دولارًا شهريًا للحصول على Google دويتو منظمة العفو الدولية أكتب البريد الإلكتروني لك.
- أطلقت Google أيضًا أداة وضع العلامات المائية لأول مرة، SynthID، لإحدى الشركات التابعة لها المتخصصة في إنتاج الصور بتقنية الذكاء الاصطناعي. لقد أجرينا مقابلة مع أستاذ علوم الكمبيوتر حول السبب الذي قد يكون (أو لا) يمثل أخبارًا جيدة.
- أخيرًا وليس آخرًا: الآن هي فرصتك لإخبار الحكومة عن رأيك في قضايا حقوق الطبع والنشر المحيطة بأدوات الذكاء الاصطناعي. تم افتتاح مكتب حقوق الطبع والنشر الأمريكي رسميًا التعليق العام. يمكنك تقديم تعليق باستخدام البوابة على موقعه على الانترنت.
القصة الرئيسية: قمة شومر للذكاء الاصطناعي
تشاك شومر أعلن أن مكتبه سيجتمع مع كبار اللاعبين في مجال الذكاء الاصطناعي في وقت لاحق من هذا الشهر، في محاولة لجمع المدخلات التي قد تفيد اللوائح القادمة. بصفته زعيم الأغلبية في مجلس الشيوخ، يتمتع شومر بسلطة كبيرة لتوجيه الشكل المستقبلي للأنظمة الفيدرالية، في حالة ظهورها. ومع ذلك، فإن الأشخاص الذين يجلسون في هذا الاجتماع لا يمثلون الرجل العادي تمامًا. تمت دعوة ملياردير التكنولوجيا إيلون ماسك إلى القمة القادمة، لمرة واحدة شريك السجال الافتراضي الرئيس التنفيذي لشركة Meta Mark Zuckerberg، والرئيس التنفيذي لشركة OpenAI Sam Altman، والرئيس التنفيذي لشركة Google Sundar Pichai، ورئيس NVIDIA Jensen Huang، وأليكس كاربي، الرئيس التنفيذي لمقاول الدفاع Creep Palantir، من بين أسماء كبيرة أخرى من المستويات العليا في وادي السيليكون.
يبدو أن اجتماع شومر القادم – والذي أطلق عليه مكتبه اسم “منتدى AI Insight Forum” – يُظهر ذلك بعض قد يكون هناك نوع من الإجراءات التنظيمية قيد التنفيذ، على الرغم من أنه – من مظهر قائمة الضيوف (مجموعة من الشركات الجشعة) – لا يبدو بالضرورة أن هذا الإجراء سيكون كافيًا.
قائمة الأشخاص الذين حضروا الاجتماع مع شومر تحتوي على gلاقت انتقادات كبيرة عبر الإنترنت، من أولئك الذين يرون أنها شخصية حقيقية بين اللاعبين في الشركات. ومع ذلك، قال مكتب شومر أن السيناتور وسوف يجتمع أيضا مع بعض قادة الحقوق المدنية والعمال، بما في ذلك AFL-CIO، وهو أكبر اتحاد للنقابات في أمريكا، والذي ستظهر رئيسته ليز شولر في الاجتماع. ومع ذلك، من الصعب ألا نرى هذا الاجتماع المغلق كفرصة لصناعة التكنولوجيا لاستجداء أحد أقوى السياسيين في أمريكا من أجل التساهل التنظيمي. الوقت وحده هو الذي سيحدد ما إذا كان تشاك لديه الشجاعة للاستماع إلى أفضل ملائكته أو ما إذا كان سيستسلم للعفاريت المليئة بالمال الذين يخططون للوقوف على كتفه والهمس بأشياء لطيفة.
سؤال اليوم: ما الحل مع SynthID؟
مثل الذكاء الاصطناعي التوليدي ومع ازدياد شعبية أدوات مثل ChatGPT وDALL-E، أعرب النقاد عن قلقهم من أن هذه الصناعة – التي تسمح للمستخدمين بإنشاء نصوص وصور مزيفة – سوف تنتج كمية هائلة من المعلومات المضللة عبر الإنترنت. الحل الذي تم طرحه هو شيء يسمى العلامة المائية، وهو نظام يتم من خلاله ختم محتوى الذكاء الاصطناعي تلقائيًا وبشكل غير مرئي بمعرف داخلي عند إنشائه، مما يسمح بتحديده على أنه اصطناعي لاحقًا. أطلقت شركة DeepMind من Google هذا الأسبوع نسخة تجريبية من أداة وضع العلامات المائية التي تقول إنها ستساعد في هذه المهمة. معرف سينثيدي تم تصميمه للعمل مع عملاء DeepMind وسيسمح لهم بوضع علامة على الأصول التي يقومون بإنشائها على أنها اصطناعية. ولسوء الحظ، جعلت جوجل أيضًا التطبيق اختياريًا، مما يعني أن المستخدمين لن يضطروا إلى ختم المحتوى الخاص بهم به إذا لم يرغبوا في ذلك.
المقابلة: فلوريان كيرشباوم حول الوعد والمزالق المتعلقة بالعلامات المائية التي تعتمد على الذكاء الاصطناعي
هذا الأسبوع، سعدنا بالتحدث مع الدكتور فلوريان كيرشباوم، الأستاذ في كلية ديفيد آر شيريتون لعلوم الكمبيوتر بجامعة واترلو. درس كيرشباوم على نطاق واسع أنظمة العلامات المائية في الذكاء الاصطناعي التوليدي. أردنا أن نسأل فلوريان عن إطلاق Google لـ SynthID مؤخرًا وما إذا كان يعتقد أنها خطوة في الاتجاه الصحيح أم لا. تم تحرير هذه المقابلة من أجل الإيجاز والوضوح.
هل يمكنك شرح القليل عن كيفية عمل العلامة المائية بالذكاء الاصطناعي وما هو الغرض منها؟
تعمل العلامة المائية بشكل أساسي عن طريق تضمين رسالة سرية داخل وسيطة معينة يمكنك استخراجها لاحقًا إذا كنت تعرف المفتاح الصحيح. وينبغي الحفاظ على هذه الرسالة حتى لو تم تعديل الأصل بطريقة ما. على سبيل المثال، في حالة الصور، إذا قمت بإعادة قياسها أو تفتيحها أو إضافة عوامل تصفية أخرى إليها، فيجب الحفاظ على الرسالة.
يبدو أن هذا النظام قد يحتوي على بعض أوجه القصور الأمنية. هل هناك مواقف يمكن فيها لممثل سيء أن يخدع نظام العلامات المائية؟
العلامات المائية للصورة موجودة منذ فترة طويلة جدًا. لقد كانوا موجودين منذ 20 إلى 25 عامًا. في الأساس، يمكن التحايل على جميع الأنظمة الحالية إذا كنت تعرف الخوارزمية. قد يكون ذلك كافيًا إذا كان لديك حق الوصول إلى نظام الكشف بالذكاء الاصطناعي نفسه. وحتى هذا الوصول قد يكون كافيًا لكسر النظام، لأن الشخص يمكنه ببساطة إجراء سلسلة من الاستعلامات، حيث يقوم باستمرار بإجراء تغييرات صغيرة على الصورة حتى لا يتعرف النظام في النهاية على الأصل بعد الآن. يمكن أن يوفر هذا نموذجًا لخداع اكتشاف الذكاء الاصطناعي بشكل عام.
لن يقوم الشخص العادي الذي يتعرض لمعلومات خاطئة أو مضللة بالضرورة بفحص كل جزء من المحتوى الذي يأتي عبر ملف الأخبار الخاص به لمعرفة ما إذا كان تم وضع علامة مائية عليه أم لا. ألا يبدو هذا كنظام به بعض القيود الخطيرة؟
علينا أن نميز بين مشكلة تحديد المحتوى الناتج عن الذكاء الاصطناعي ومشكلة احتواء انتشار الأخبار المزيفة. إنهما مرتبطان بمعنى أن الذكاء الاصطناعي يجعل نشر الأخبار المزيفة أسهل بكثير، ولكن يمكنك أيضًا إنشاء أخبار مزيفة يدويًا – ولن يتم اكتشاف هذا النوع من المحتوى أبدًا بواسطة نظام (العلامة المائية) هذا. لذلك علينا أن ننظر إلى الأخبار المزيفة باعتبارها مشكلة مختلفة ولكنها ذات صلة. كما أنه ليس من الضروري تمامًا أن يقوم كل مستخدم للنظام الأساسي بالتحقق (ما إذا كان المحتوى حقيقيًا أم لا). من الناحية النظرية، يمكن لمنصة، مثل تويتر، التحقق منك تلقائيًا. الحقيقة هي أن تويتر ليس لديه في الواقع أي حافز للقيام بذلك، لأن تويتر ينشر بشكل فعال الأخبار المزيفة. لذلك، بينما أشعر أننا، في النهاية، سنكون قادرين على اكتشاف المحتوى الناتج عن الذكاء الاصطناعي، لا أعتقد أن هذا سيحل مشكلة الأخبار المزيفة.
بصرف النظر عن العلامات المائية، ما هي بعض الحلول المحتملة الأخرى التي يمكن أن تساعد في تحديد المحتوى الاصطناعي؟
لدينا ثلاثة أنواع، في الأساس. لدينا علامة مائية، حيث نقوم بتعديل توزيع مخرجات النموذج بشكل طفيف حتى نتمكن من التعرف عليه. والآخر هو نظام يمكنك من خلاله تخزين كل محتوى الذكاء الاصطناعي الذي يتم إنشاؤه بواسطة النظام الأساسي ويمكنك بعد ذلك الاستعلام عما إذا كان جزء من المحتوى عبر الإنترنت يظهر في قائمة المواد تلك أم لا… ويستلزم الحل الثالث محاولة اكتشاف القطع الأثرية ( أي حكاية علامات) من المواد المولدة. على سبيل المثال، يتم كتابة المزيد والمزيد من الأوراق الأكاديمية بواسطة ChatGPT. إذا ذهبت إلى محرك بحث للبحث عن الأوراق الأكاديمية وأدخلت “كنموذج لغة كبير…” (عبارة سيطلقها برنامج الدردشة تلقائيًا أثناء إنشاء مقال) فستجد مجموعة كاملة من النتائج. هذه القطع الأثرية موجودة بالتأكيد، وإذا قمنا بتدريب الخوارزميات للتعرف على تلك القطع الأثرية، فهذه طريقة أخرى لتحديد هذا النوع من المحتوى.
لذا، مع هذا الحل الأخير، فأنت تستخدم الذكاء الاصطناعي بشكل أساسي لاكتشاف الذكاء الاصطناعي، أليس كذلك؟
نعم.
وبعد ذلك، مع الحل الذي سبق ذلك – وهو الحل الذي يتضمن قاعدة بيانات عملاقة للمواد التي تم إنشاؤها بواسطة الذكاء الاصطناعي – يبدو أنه سيواجه بعض مشكلات الخصوصية، أليس كذلك؟
صحيح. لا يتعلق تحدي الخصوصية في هذا النموذج تحديدًا بحقيقة أن الشركة تقوم بتخزين كل جزء من المحتوى الذي تم إنشاؤه، لأن كل هذه الشركات كانت تفعل ذلك بالفعل. المشكلة الأكبر هي أنه لكي يتمكن المستخدم من التحقق مما إذا كانت الصورة مدعمة بالذكاء الاصطناعي أم لا، سيتعين عليه إرسال تلك الصورة إلى مستودع الشركة للتحقق منها. ومن المحتمل أن تحتفظ الشركات بنسخة من تلك النسخة أيضًا. لذلك هذا يقلقني.
إذن أي من هذه الحلول هو الأفضل من وجهة نظرك؟
عندما يتعلق الأمر بالأمن، فأنا أؤمن بشدة بعدم وضع كل بيضك في سلة واحدة. لذلك أعتقد أنه سيتعين علينا استخدام كل هذه الاستراتيجيات وتصميم نظام أوسع حولها. وأعتقد أننا إذا فعلنا ذلك – وقمنا به بعناية – فسوف تكون لدينا فرصة للنجاح.
اللحاق بكل أخبار Gizmodo للذكاء الاصطناعي هنا، أو ترى جميع آخر الأخبار هنا. للحصول على التحديثات اليومية، اشترك في النشرة الإخبارية المجانية لـGizmodo.