الذكاء الاصطناعي يتعرف على المشاعر بشكل مثالي في عالم غير مثالي

تقنية التعرف على المشاعر تثير أسئلة حول التحيز والخصوصية وقلقا يتعلق باعتماد هذه الأنظمة على نظرية تنص على أن العواطف مرتبطة بيولوجيًا ويتم التعبير عنها بنفس الطريقة من قبل كل الناس.
العلم لا يدعم الافتراض الشائع بأن الحالة العاطفية يمكن استنتاجها بسهولة من حركات الوجه
التحيز العنصري في تقنيات التعرف على الوجه موثق جيدًا
تقنية التعرف على الوجه أحيانا لا تكون عادلة

لندن - قد تبدو مشاركة ذكاء اصطناعي خلال مقابلات العمل بفحص وجه المتقدمين للوظيفة وتسجيل التوتر أو التعاطف أو غيرهما من المشاعر الإنسانية، أشبه بالخيال العلمي، لكن استخدام هذه الأنظمة يتم بشكل متزايد، وغالبًا بدون معرفة الناس أو موافقتهم.
فتقنية التعرف على المشاعر هي في الواقع صناعة مزدهرة بمليارات الدولارات تهدف إلى استخدام الذكاء الاصطناعي لاكتشاف المشاعر من تعابير الوجه.
ومع ذلك، فإن هذا الذكاء الاصطناعي يثير للجدل حول إذا كانت هناك تحيزات مضمنة داخل هذه الأنظمة.
تستخدم العديد من الشركات هذه التقنية لاختبار ردود فعل العملاء على منتجاتهم، ولكن يمكن استخدامه أيضًا في المواقف التي تنطوي على مخاطر أعلى بكثير، مثل التوظيف، أو خلال أمن المطارات للإشارة إلى الوجوه على أنها تكشف عن الخداع أو الخوف، أو في مراقبة الحدود أو في تحديد الأشخاص الخطرين أو في التعليم لمراقبة مشاركة الطلاب لواجباتهم المدرسية.
أرضية علمية مهتزة
يبحث الفيلم الوثائقي "تحيز مشفر" الذي تم إصداره مؤخرًا على نتفليكس في تحيز بعض الخوارزميات بعد أن كشفت باحثة عن عيوب في تقنية التعرف على الوجه، فالعديد من هذه التقنيات لا تكتشف بدقة الوجوه ذات البشرة الداكنة. 
وأدى الكشف عن التحيز الخوارزمي في تقنية التعرف على الوجه إلى قيام شركات التكنولوجيا الكبيرة، بما في ذلك مايكروسوفت وأمازون وآي بي إم بوقف المبيعات.

هل نريد مراقبة الذكاء الاصطناعي لجزء حميم في حياتنا!

وتواجه التكنولوجيا تحديات قانونية فيما يتعلق باستخدامها في الشرطة في أوروبا، فقد دعا تحالف يضم أكثر من 40 منظمة مجتمع مدني إلى فرض حظر كامل على تقنية التعرف على الوجه.
ومثل الأشكال الأخرى من تقنيات التعرف على الوجه، تثير تقنية التعرف على المشاعر أسئلة حول التحيز والخصوصية وتحرك قلقًا آخر يتعلق باعتماد هذه التقنية على نظرية "المشاعر الأساسية" التي تنص على أن العواطف مرتبطة بيولوجيًا ويتم التعبير عنها بنفس الطريقة من قبل الناس في كل مكان.
لكن الأبحاث في الأنثروبولوجيا تظهر أن العواطف يتم التعبير عنها بشكل مختلف عبر الثقافات والمجتمعات، وفي عام 2019 خلصت دراسة نفسية إلى أنه لا يوجد دعم علمي للافتراض الشائع بأن الحالة العاطفية للشخص يمكن استنتاجها بسهولة من حركات وجهه، وباختصار، تم بناء تقنية التعرف على المشاعر على أرضية علمية مهتزة.
تحيز عنصري
ومثل تقنية التعرف على الوجه تم اتهام نظام التعرف على المشاعر بالتحيز العنصري، فقد أظهرت دراسة أن الأنظمة تقرأ باستمرار وجوه السود على أنها أكثر غضبًا من وجوه الأشخاص البيض، بغض النظر عن تعبير الشخص.
وعلى الرغم من أن دراسة التحيز العنصري في تقنية التعرف على المشاعر صغيرة، إلا أن التحيز العنصري في الأشكال الأخرى للتعرف على الوجه موثق جيدًا.

وبحسب موقع "تيك إكسبلور" التقني تقول ديبورا راجي باحثة الذكاء الاصطناعي إن هناك طريقتين يمكن أن تؤذي بهما هذه التكنولوجيا الناس: "إحدى الطرق هي عندما لا يعمل النظام بحكم وجود معدلات خطأ أعلى للأشخاص الملونين، فإنه يعرضهم لخطر أكبر، والثانية هي عندما يعمل، حيث يكون لديك نظام التعرف على الوجه المثالي، ولكن من السهل استخدامه كسلاح ضد المجتمعات لمضايقتهم".
لذلك، حتى لو كانت تقنية التعرف على الوجه غير متحيزة ودقيقة لجميع الأشخاص، فقد لا تكون عادلة.
نرى هذه التأثيرات المتباينة عند استخدام تقنية التعرف على الوجه في أنظمة الشرطة والقضاء التي تعتبر تمييزية بالفعل وضارة بالأشخاص ذوي البشرة السمراء.
ويمكن أن تكون التقنيات خطيرة عندما لا تعمل كما ينبغي، ويمكن أن تكون خطيرة أيضًا عندما تعمل بشكل مثالي في عالم غير مثالي.
التحديات التي تثيرها تقنيات التعرف على الوجه والمشاعر ليست لها إجابات سهلة أو واضحة، ويتطلب حل مشكلات هذه الأنظمةالانتقال من أخلاقيات الذكاء الاصطناعي التي تركز على المبادئ المجردة إلى أخلاقيات الذكاء الاصطناعي التي تركز على الممارسة والتأثيرات على حياة الناس.
وعندما يتعلق الأمر بتقنية التعرف على المشاعر، نحتاج إلى دراسة جماعية لعلم العاطفة المثير للجدل والمدمج في هذه الأنظمة وتحليل إمكاناتها للتحيز العنصري.
وعلينا أن نسأل أنفسنا: حتى لو كان من الممكن تصميم نظام لقراءة المشاعر الداخلية للجميع بدقة، فهل نريد مثل هذه المراقبة الحميمة في حياتنا؟ 
وهذه أسئلة تتطلب دراسات وأبحاث من جهات متخصصة في الذكاء الاصطناعي والعلوم الاجتماعية.