يمكن لمركبات المريخ الجوالة التابعة لناسا أن تلهم مستقبلًا أكثر أخلاقية للذكاء الاصطناعي

منذ إصدار ChatGPT في أواخر عام 2022، أبلغت العديد من وسائل الإعلام عن التهديدات الأخلاقية التي يشكلها الذكاء الاصطناعي. أصدر خبراء التكنولوجيا تحذيرات من الروبوتات القاتلة انقراض الإنسانبينما توقع المنتدى الاقتصادي العالمي تلك الآلات سوف يسلب الوظائف.

قطاع التكنولوجيا هو وتقليص قوتها العاملة حتى كما هو تستثمر في أدوات الإنتاجية المعززة بالذكاء الاصطناعي. الكتاب والممثلين في هوليوود مضربون لتحمي وظائفهم وأمثالهم. ويستمر العلماء في بيان كيفية هذه الأنظمة زيادة التحيزات القائمة أو خلق وظائف لا معنى لها ــ وسط عدد لا يحصى من المشاكل الأخرى.

هناك طريقة أفضل لجلب الذكاء الاصطناعي إلى أماكن العمل. أعلم، لأنني رأيت ذلك، كعالم اجتماع الذي يعمل مع فرق المركبات الفضائية الآلية التابعة لناسا.

العلماء والمهندسون الذين أدرسهم مشغولون بالاستكشاف سطح المريخ بمساعدة المركبات المجهزة بالذكاء الاصطناعي. لكن وظيفتهم ليست من خيال الخيال العلمي. إنه مثال على قوة نسج الآلة والذكاء البشري معًا، في خدمة هدف مشترك. وبدلاً من استبدال البشر، تتعاون هذه الروبوتات معنا لتوسيع واستكمال الصفات البشرية. وعلى طول الطريق، يتجنبون المخاطر الأخلاقية الشائعة ويرسمون مسارًا إنسانيًا للعمل مع الذكاء الاصطناعي.

أسطورة الاستبدال في الذكاء الاصطناعي

توضح قصص الروبوتات القاتلة وفقدان الوظائف كيف تهيمن “أسطورة الاستبدال” على الطريقة التي يفكر بها الناس في الذكاء الاصطناعي. ومن هذا المنطلق، يستطيع البشر أن يفعلوا ذلك، وسوف يفعلون ذلك استبدالها بالآلات الآلية. وسط التهديد الوجودي هناك وعد بفوائد الأعمال مثل زيادة الكفاءة, تحسين هوامش الربح و المزيد من وقت الفراغ.

وتظهر الأدلة التجريبية أن الأتمتة لا تقلل التكاليف. وبدلا من ذلك، فإنه يزيد من عدم المساواة بنسبة الاستغناء عن العمال ذوي المكانة المنخفضة و زيادة تكلفة الرواتب للعمال ذوي المكانة العالية الذين يبقون. وفي الوقت نفسه، تُلهم أدوات الإنتاجية الحالية الموظفين للقيام بذلك اعمل اكثر لأصحاب العمل، وليس أقل.

بدائل الاستبدال المباشر هي أنظمة “الحكم الذاتي المختلط”، حيث يعمل الأشخاص والروبوتات معًا. على سبيل المثال، يجب برمجة السيارات ذاتية القيادة للعمل في حركة المرور جنبا إلى جنب مع السائقين البشر. الحكم الذاتي “مختلط” لأن كلاً من البشر والروبوتات يعملون في نفس النظام، وتؤثر أفعالهم على بعضهم البعض.

ومع ذلك، غالبًا ما يُنظر إلى الحكم الذاتي المختلط على أنه خطوة على طول الطريق إلى الاستبدال. ويمكن أن يؤدي إلى أنظمة يقتصر فيها البشر تغذية أو تنظيم أو تعليم أدوات الذكاء الاصطناعي. وهذا يثقل على الإنسان “عمل شبح“- مهام عشوائية ومجزأة يأمل المبرمجون أن يصبح التعلم الآلي عفا عليها الزمن قريبًا.

الاستبدال يثير أعلامًا حمراء لأخلاقيات الذكاء الاصطناعي تعمل مثل وضع علامات على المحتوى لتدريب الذكاء الاصطناعي أو مسح منشورات الفيسبوك الميزات عادة المهام المؤلمة و القوى العاملة ذات الأجور الضعيفة تنتشر عبر الجنوب العالمي. وجحافل من مصممي المركبات ذاتية القيادة مهووسون بـ “مشكلة العربة“- تحديد متى أو ما إذا كان من الأخلاقي دهس المشاة.

لكن بحثي مع فرق المركبات الفضائية الروبوتية في وكالة ناسا يُظهر أنه عندما ترفض الشركات أسطورة الاستبدال وتختار بناء فرق من الروبوتات البشرية بدلاً من ذلك، فإن العديد من المشكلات الأخلاقية المتعلقة بالذكاء الاصطناعي تختفي.

تمديد بدلا من استبدال

فرق بشرية-روبوتية قوية العمل بشكل أفضل عندما توسيع وزيادة القدرات البشرية بدلا من استبدالها. يصنع المهندسون آلات يمكنها القيام بأعمال لا يستطيع البشر القيام بها. ثم، ينسجون الآلة والعمل البشري معًا بذكاء، العمل نحو هدف مشترك.

وفي كثير من الأحيان، يعني هذا العمل الجماعي إرسال الروبوتات للقيام بأعمال تشكل خطورة جسدية على البشر. كاسحة ألغام, البحث و الإنقاذ, السير في الفضاء و بحر عميق الروبوتات كلها أمثلة من العالم الحقيقي. العمل الجماعي يعني أيضًا الاستفادة من نقاط القوة المشتركة كل من الحواس أو الذكاءات البشرية والروبوتية. ففي نهاية المطاف، هناك العديد من القدرات التي تمتلكها الروبوتات ولا يتمتع بها البشر ــ والعكس صحيح.

على سبيل المثال، يمكن للعين البشرية على المريخ أن ترى فقط تضاريس حمراء غبارية ذات إضاءة خافتة تمتد إلى الأفق. لذلك يقوم المهندسون بتجهيز مركبات المريخ الجوالة مع مرشحات الكاميرا “لرؤية” الأطوال الموجية للضوء التي لا يستطيع البشر رؤيتها في الأشعة تحت الحمراء، وإرجاع الصور بشكل رائع ألوان زائفة. وفي الوقت نفسه، لا يستطيع الذكاء الاصطناعي الموجود على متن المركبات الجوالة توليد نتائج علمية. فقط من خلال الجمع بين نتائج الاستشعار الملونة ومناقشة الخبراء، يمكن للعلماء استخدام هذه العيون الآلية اكتشاف حقائق جديدة عن المريخ.

بيانات محترمة

التحدي الأخلاقي الآخر الذي يواجه الذكاء الاصطناعي هو كيفية جمع البيانات واستخدامها. يتم تدريب الذكاء الاصطناعي التوليدي على أعمال الفنانين والكتاب دون موافقتهممجموعات البيانات التجارية هي مليئة بالتحيز، و ChatGPT “يهلوس” إجابات على الأسئلة. تتراوح العواقب الواقعية لاستخدام هذه البيانات في الذكاء الاصطناعي من دعاوى قضائية ل التنميط العنصري.

تعتمد الروبوتات الموجودة على المريخ أيضًا على البيانات وقوة المعالجة وتقنيات التعلم الآلي للقيام بعملها. لكن البيانات التي يحتاجونها هي معلومات مرئية وعن بعد إنشاء مسارات قابلة للقيادة أو اقتراح صور جديدة رائعة.

من خلال التركيز على العالم من حولهم بدلاً من عوالمنا الاجتماعية، تتجنب هذه الأنظمة الروبوتية أسئلة حول المراقبة, تحيز والاستغلال التي تصيب الذكاء الاصطناعي اليوم.

أخلاقيات الرعاية

يمكن للروبوتات توحيد المجموعات التي تعمل معهم من خلال إثارة المشاعر الإنسانية عند دمجها بسلاسة. على سبيل المثال، الجنود المتمرسين نحزن على الطائرات بدون طيار المكسورة في ساحة المعركةوالعائلات تعطي أسماء وشخصيات إلى Roombas الخاصة بهم. رأيت مهندسي ناسا تنهار في البكاء القلق عندما تعرضت المركبتان الجوالتان سبيريت وأبورتيونيتي للتهديد من العواصف الترابية المريخية.

على عكس الأنسنة – إبراز الخصائص البشرية على الآلة – يولد هذا الشعور من الشعور بالعناية بالآلة. ويتم تطويره من خلال التفاعلات اليومية والإنجازات المتبادلة والمسؤولية المشتركة. فعندما تلهم الآلات حساً من الاهتمام، فإنها تستطيع أن تؤكد على الصفات التي تجعل الناس بشراً، وليس تقويضها.

من الممكن وجود ذكاء اصطناعي أفضل

وفي الصناعات حيث يمكن استخدام الذكاء الاصطناعي ليحل محل العمال، قد يفكر خبراء التكنولوجيا في الكيفية التي يمكن بها للشراكات الذكية بين الإنسان والآلة أن تعمل على تعزيز القدرات البشرية بدلا من الانتقاص منها.

قد تقدر فرق كتابة السيناريو وجود وكيل اصطناعي يمكنه البحث عن الحوار أو الإسناد الترافقي بسرعة. يمكن للفنانين كتابة أو تنظيم خوارزمياتهم الخاصة لتغذية الإبداع والاحتفاظ بالائتمان لعملهم. قد تعمل الروبوتات التي تدعم فرق البرامج على تحسين التواصل في الاجتماعات والعثور على الأخطاء التي تنشأ من تجميع التعليمات البرمجية.

وبطبيعة الحال، فإن رفض الاستبدال لا يعني ذلك القضاء على جميع المخاوف الأخلاقية مع الذكاء الاصطناعي. لكن العديد من المشاكل المرتبطة بسبل عيش الإنسان والوكالة والتحيز تتغير عندما لا يعد الاستبدال هو الهدف.

إن خيال الاستبدال هو مجرد واحد من العديد من العقود المستقبلية المحتملة للذكاء الاصطناعي والمجتمع. بعد كل شيء، لن يراقب أحد حرب النجوم إذا استبدلت الروبوتات جميع الأبطال. للحصول على رؤية أكثر أخلاقية لمستقبل البشر باستخدام الذكاء الاصطناعي، يمكنك أن تنظر إلى فرق العمل بين الإنسان والآلة التي هي بالفعل على قيد الحياة وبصحة جيدة، في الفضاء وعلى الأرض.

جانيت فيرتيسي، أستاذ مشارك في علم الاجتماع، جامعة برينستون

أعيد نشر هذه المقالة من المحادثة تحت رخصة المشاع الإبداعي. إقرأ ال المقالة الأصلية.


اكتشاف المزيد من موقع دبليو 6 دبليو

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع دبليو 6 دبليو

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading