العنصرية تخترق الذكاء الاصطناعي!

عدم دقة البيانات المُجمعَة في أنظمة محاكاة القدرات الذهنية البشرية يتسبب وفق باحثين أميركيين في عنصريتها وتحيزها جنسيا.
زيادة دقة البيانات يقلل اخطاء الذكاء الاصطناعي بنحو النصف
تصميم خوارزميات أفضل لا يعطي بالضرورة أنظمة ذكاء اصطناعي أقل انحيازا

واشنطن - من المعلوم ان البشر لا يخلون في غالب الأحيان من رواسب التميز الجنسي او العنصري، لكن يبدو ان الآلات ايضا لن تفلت من هذا الانحياز.

ورصد باحثون في معهد ماساتشوستس للتكنولوجيا عنصرية وتحيزا في انظمة الذكاء الاصطناعي، أرجعوها للطريقة التي تجمع من خلالها التقنية البيانات.

ودرس الباحثون مجموعة من الأنظمة، فوجدوا أن العديد منها أظهر تحيزا صادما، ثم طوروا نظاما يساعدهم على التأكد من أن أنظمتهم أقل تحيزا.

وقالت كبيرة الباحثين، إيرين تشن، وهي طالبة دكتوراه كتبت الورقة البحثية مع البروفيسور، ديفيد سونتاج، وزميل الدكتوراه فردريك د.جوهانسون "إن علماء الكمبيوتر يسارعون في كثير من الأحيان إلى القول بأن الطريقة التي تجعل هذه الأنظمة أقل انحيازا، هي ببساطة تصميم خوارزميات أفضل".

واستطردت موضحة: "تظهر الأبحاث أنه يمكنك في كثير من الأحيان إحداث فرق أكبر مع بيانات أفضل".

وفي أحد الأمثلة، درس فريق البحث نظام التنبؤ بالدخل، فوجد أنه من المرجح أن يُساء تصنيف الموظفات على أساس دخلهن المنخفض، والموظفين على أنهم من ذوي الدخل المرتفع.

ذكاء اصطناعي
عقد البشر قد تتسرب للخوارزميات

ووجد الباحثون أنهم إذا قاموا بزيادة مجموعة البيانات الدقيقة، فإن تلك الأخطاء ستقل بنسبة 40 بالمئة.

وتقول "تشن" إن واحدة من أكبر المفاهيم الخاطئة، تتمثل في أن زيادة البيانات (بغض النظر عن الدقة) تكون دائما أفضل.

ويقول سونتاج: "إننا نعتبر هذا بمثابة صندوق أدوات لمساعدة مهندسي التعلم الآلي على معرفة الأسئلة التي يجب طرحها في بياناتهم، من أجل تشخيص سبب قيام الأنظمة بإجراء تنبؤات غير عادلة".

ومن المقرر أن يقدم الفريق الورقة البحثية في ديسمبر/كانون الثاني، خلال المؤتمر السنوي المتعلق بنظم معالجة المعلومات العصبية  "NIPS"، في مونتريال.

يذكر ان انظمة الذكاء الاصطناعي المعتمدة في انظمة التعرف على الوجوه في فيسبوك وقعت سابقا في أخطاء تسببت في اتهام القائمين عليها بالعنصرية ضد السود.