خطر التنميط العرقي يتزايد بفعل الذكاء الاصطناعي

خبراء في الأمم المتحدة يشددون على ضرورة تعزيز الجهود العالمية لمكافحة التنميط العرقي في ظل تناميه بسبب الذكاء الاصطناعي المستخدم في التعرف على الوجوه أو لتحديد مصادر الخطر.
أنظمة ذكية مخصصة للحفاظ على الأمن تتورط في تفاقم الأحكام المسبقة إزاء بعض الفئات
صعوبة في التعرّف على الوجوه الداكنة البشرة أو حتّى النسائية
مطالبة بتوسيع نطاق حركة 'بلاك لايفز ماتر'

جنيف - شدد خبراء في الأمم المتحدة على ضرورة تعزيز الجهود العالمية لمكافحة التنميط العرقي، في ظل خطر تنامي هذا المنحى بفعل تقنيات الذكاء الاصطناعي المستخدمة للتعرف على الوجوه أو تحديد مصادر الخطر المحتملة من جانب الشرطة.
وتقول فيرين شيبيرد الخبيرة في حقوق الإنسان في تصريحات "يتعاظم خطر استنساخ هذه الأنماط الانحيازية وتفاقمها أو بروز ممارسات تمييزية" بفعل الذكاء الاصطناعي.
وتنتمي هذه الجامايكية إلى لجنة الأمم المتحدة للقضاء على العنف العنصري المؤلّفة من 18 خبيرا والتي أصدرت تقريرا عن السبل المتاحة للسلطات للتصدّي للتنميط العرقي الممارس من قبل قوى الأمن.
ولفتت اللجنة خصوصا إلى خطورة الخوارزميات (وهي سلاسل طويلة من التعليمات) المستخدمة في أدوات "التنبؤ" أو تلك الخاصة بـ"تقدير المخاطر" المعتمدة في أجهزة الشرطة، كما في محرّكات البحث ومواقع التواصل الاجتماعي لتوجيه إعلانات موجهة الهدف مثلا.
وكانت هذه الأنظمة الذكية للمساعدة في الحفاظ على الأمن والتي من المفترض أن تساهم في الحدّ من الجرائم قد انتشرت بداية في الولايات المتحدة بحدود العقد الثاني من القرن الحادي والعشرين. وهي غالبا ما تتعرّض للانتقاد باعتبار أنها تفاقم الأحكام المسبقة إزاء بعض الفئات.
وتشير شيبيرد إلى أن "البيانات التاريخية حول عمليات التوقيف في حيّ ما قد تعكس ممارسات انحياز من قبل الشرطة"، ما قد ينعكس بدوره في أنظمة الذكاء الاصطناعي.
وتردف أن "هذه المعطيات قد تزيد من خطر انتشار الشرطة في موقع ما بأعداد مبالغ بها، ما قد يؤدّي إلى المزيد من عمليات التوقيف والوصول الى حلقة مفرغة".
وأعربت اللجنة في توصياتها عن قلقها من الاستخدام المتزايد لتقنية التعرّف على الوجوه وغيرها من التقنيات المعتمدة في المهمّات الأمنية.
ففي هذه الحالة أيضا، تكون تحاليل الذكاء الاصطناعي مرتبطة بشكل وثيق بالبيانات المستخدمة لتغذية النظام.
وقد أظهرت دراسات صعوبة هذه الأنظمة في التعرّف على الوجوه الداكنة البشرة أو حتّى النسائية.
ومن بين الأمثلة المقدّمة في هذا الصدد، توقيف الأميركي من أصل إفريقي روبرت وليامز هذه السنة في ديترويت بالاستناد إلى تحاليل معادلة خوارزمية ركيكة خلصت إلى أنه أحد المشتبه بهم في حادثة سرقة.

هذه المعطيات قد تزيد من خطر انتشار الشرطة في موقع ما بأعداد مبالغ بها، ما قد يؤدّي إلى المزيد من عمليات التوقيف والوصول الى حلقة مفرغة 

ترفض شركة مايكروسوفت توفير تقنيتها للتعرف على الوجوه إلى الشرطة في غياب قانون، على غرار شركات انترنت عملاقة أخرى قلقة من التجاوزات، وعلى خلفية تظاهرات نددت بعنف الشرطة.
وقال المسؤول الكبير في الشركة براد سميث خلال طاولة مستديرة نظمتها صحيفة "واشنطن بوست"، "نحن لا نبيع تكنولوجيا التعرف على الوجوه إلى أجهزة الشرطة الأميركية في الوقت الراهن. طالما لم يسن تشريع فدرالي متين يستند إلى حقوق الإنسان لن نبيع هذه التكنولوجيا إلى القوى الأمنية".
وقررت أمازون منع الشرطة من استخدام برمجيتها للتعرف على الوجوه مدة سنة لافساح "المجال أمام الكونغرس لاعتماد القواعد المناسبة" لاستخدام هذه التقنية.
وأعلنت أي بي ام تعليق بيع برمجيات مماثلة.
وكانت غوغل أعلنت أنها لن توفر تقنيتها للتعرف إلى الوجوه ما لم تتخذ السلطات أي اجراءات.
ويوصي خبراء الدول خصوصا بتنظيم الشركات العاملة في هذا المجال لضمان تماشي هذه الأنظمة مع القوانين الدولية لحقوق الإنسان ويشدّدون على أهمية الشفافية من ناحية التصميم والتطبيق لا سيّما إزاء الرأي العام.
وتقول فيرين شيبيرد الخبيرة في حقوق الإنسان "تلقّينا شكاوى بسبب أصل التكنولوجيا والجهات المشرفة على تطويرها والعيّنات المستخدمة في هذه الأنظمة"، مشدّدة على أن الوضع "يبعث فعلا على القلق".
وتذكّر شيبيرد بأن "التنميط العرقي لم يبدأ مع هذه التقنيات"، لكنها تعرب عن أملها في أن يساعد "اتّساع نطاق حركة "بلاك لايفز ماتر"... وغيرها من الحملات المندّدة بالتمييز الذي يطال بعض الفئات الضعيفة على إبراز أهمية هذه التوصيات".