هل الذكاء الاصطناعي مبرمج بطريقة عنصرية ضد النساء؟

الاتجاهات البشرية تتحكم في القرارات النهائية للآلة ويمكنها تطوير خوارزميات تنطوي على التمييز، وشركات التكنولوجيا الحديثة تحاول تصحيح الوضع وتراهن على التنوع داخلها.
إدماج عدد أكبر من النساء وإعادة التوازن في التنوع الإتني في قطاع التكنولوجيا
تشكيل فرق من مجالات مختلفة داخل الشركات
الذكاء الاصطناعي يستند إلى بيانات يُدخلها المطوّر لتقوم الآلة بتحليلها
التشجيع على استحداث بيئة سليمة للنفاذ إلى البيانات

باريس – هل الذكاء الاصطناعي مبرمج بطريقة عنصرية أو تمييزية ضد النساء؟ هذا السؤال مرده إلى النتائج المتحيزة التي تعطيها الأجهزة العاملة بهذه التقنية من خلال نسخ ميول بشرية، غير أن الشركات العاملة في هذه التكنولوجيا الحديثة بدأت تدرك هذا المنحى السلبي مع محاولات لتصحيح الوضع.
وتقول سلوى توكو رئيسة المجلس الوطني للتقنيات الرقمية في فرنسا إن "الخوارزميات ليست سوى تتابع أرقام لذا من غير الممكن تحميلها أي مسؤولية، المشكلة مصدرها االبشر وإذا لم نتحلّ باليقظة، يمكن أن نطوّر خوارزميات تنطوي على تمييز".
وتشير إلى أن في هذا الأمر "تحديا متصلا بالمجتمع وبدولة القانون".
وتطرقت منظمة التنمية والتعاون في الميدان الاقتصادي في تقرير أصدرته في حزيران/يونيو إلى "مخاطر إسقاط اتجاهات من العالم التماثلي إلى العالم الرقمي"، مشجعة على استحداث بيئة سليمة للنفاذ إلى البيانات.

الخوارزميات ليست سوى تتابع أرقام لذا من غير الممكن تحميلها أي مسؤولية، المشكلة مصدرها البشر 

ويستند الذكاء الاصطناعي إلى تقنيات تلقين آلي قائمة على بيانات يُدخلها المطوّر لتقوم الآلة بتحليلها. وإذا ما كانت هذه المادة الأولية تنطوي على انحياز، ستكون النتيجة مغلوطة حتما.
ويقول جيروم بيرانجيه مؤسس مجموعة "أديل" المكونة من خبراء من مجالات متعددة مهمتها تقويم الخوارزميات من الناحية الأخلاقية "جزء من الذكاء الاصطناعي لا يزال غبيا وشريرا من دون ضمير اصطناعي".
من تطوير الخوارزميات وإقامة قاعدة بيانات وصولا إلى القرارات النهائية للآلة، تؤثر الصور النمطية والاتجاهات البشرية على النتيجة التي يُنظر إليها في كثير من الأحيان خطأً على أنها من الحلول المعلوماتية الثابتة.
وتوضح آن لور تيولان المتخصصة في الذكاء الاصطناعي لدى مجموعو "كابجيميني" الفرنسية للخدمات المعلوماتية "عدد الرجال أكبر من النساء بين العاملين على تطوير التقنيات الجديدة، هذا واقع إحصائي. إذا ما أوجدنا خوارزميات انطلاقا من هذه البيانات من دون أي تصحيح، سنحصل على برنامج متحيز".
في القطاع المصرفي على سبيل المثال، يمكن للخوارزميات أن تدرس ملفات وتقترح مبالغ لقروض. لكن في حال كانت قاعدة البيانات المستخدمة في إعداد هذه المنظومات الحسابية تلحظ أن النساء يستلفن أموالا بدرجة أقل من الرجال، ستعيد الخوارزميات تظهير هذا الوضع كما هو.
وفي الولايات المتحدة، درس موقع "بروبابليكا" المتخصص في وسائل الإعلام "التقييمات المرتبطة بمخاطر تكرار الجرائم" المعدّة قبل بضع سنوات لمنحرفين عن القانون من جانب خوارزمية في ولاية فلوريدا، مع البحث عمّن أدينوا مجددا في وقت لاحق بغية التحقق من دقة التوقعات. وكانت أخطاء التقدير لناحية خطر معاودة ارتكاب الجرائم أكبر مرتين حيال الأميركيين السود مقارنة مع باقي الفئات.
وتقول تيولان "في كل مرة نريد استخدام الذكاء الاصطناعي لحل مسألة، يجب النظر ما إذا كان هناك انحياز بشري ما في القضية من شأنه أن يظهر في البيانات".

مخاطر الذكاء الاصطناعي عديدة
مخاطر الذكاء الاصطناعي عديدة

ويوضح ريجيس شاتولييه المكلف الدراسات في قسم الابتكار في هيئة حماية البيانات الفرنسية "جرى الاكتفاء في السنتين الماضيتين بتشخيص الوضع. الآن بلغنا مرحلة بات من المثير للاهتمام فيها أن نرى ما بدأ الأطراف المعنيون بفعله" لمعالجة الوضع.
وتحاول مبادرات عدة الحد من مواضع التحيز هذه، بما يشمل على سبيل المثال مجموعات مراقبة الخوارزميات وقواعد البيانات كـ"أديل"، أو أدوات لتصحيح قواعد البيانات بهدف إعادة التوازن لتمثيل الأقليات.
وفي فرنسا، دعا تقرير لعالم الرياضيات والنائب سيدريك فياني العام الماضي إلى استحداث "هيئة خبراء عامين محلفين". كما أن هيئة حماية البيانات الفرنسية أعلنت عزمها إقامة "منصة وطنية للتدقيق بالخوارزميات".
وتتناول العلاجات الأساسية لتفادي تكرار هذه الأخطاء خصوصا مسألة التنوع بما يشمل إدماج عدد أكبر من النساء وإعادة التوازن في التنوع الإتني في قطاع التكنولوجيا وتشكيل فرق من مجالات مختلفة في داخل الشركات بدل إيكال مهمة تطوير الذكاء الاصطناعي حصرا إلى مهندسين. ومن الأفضل استباق مواضع التحيز المحتملة قبل حصول إخفاقات خصوصا في القرارات التي تؤثر على يوميات المستخدمين. وهذه الحاجة تبدو أكبر برأي جيروم بيرانجيه نظرا إلى أن الذكاء الاصطناعي في المستقبل سيكون بلا تدخل بشري.