تأجيج 'انعدام العدالة' تهمة جديدة تلاحق الذكاء الاصطناعي

تقرير علمي أميركي يبدي مخاوف من تقنية الذكاء الاصطناعي ويوصي تقرير علمي خصوصا لناحية التقنيات الحساسة مثل التعرف إلى الوجوه.
الذكاء الاصطناعي يقتحم قطاعات مثل الصحة والتربية والتوظيف والعدل 'من دون ضوابط ولا أسس رقابية'
دعوة لمنع تقنيات التعرف إلى العواطف بواسطة الآلات في ظل مكامن الغموض المتصلة بها

واشنطن - خلص تقرير علمي نشر الخميس إلى أن الذكاء الاصطناعي "يزيد مكامن انعدام العدالة" في العالم ويتعين إخضاعه إلى قواعد صارمة، خصوصا لناحية التقنيات الحساسة مثل التعرف إلى الوجوه.

وركز التقرير الذي أعده معهد "إيه آي ناو إنستيتيوت" في جامعة نيويورك على التبعات السلبية الأولى لتقنيات الذكاء الاصطناعي التي تسجل حضورا متناميا في الحياة اليومية.

وأشار الباحثون إلى أن أنظمة قائمة على هذه التقنيات (جمع وتحليل البيانات على نطاق واسع والتشغيل التلقائي للمسارات والتلقين المستقل للآلات…) باتت تُستخدم في قطاعات مثل الصحة والتربية والتوظيف وأيضا العدل "من دون ضوابط ولا أسس هيئات رقابة ملائمة".

وأبدى هؤلاء خصوصا قلقهم إزاء استخدام الذكاء الاصطناعي في مجالات تراوح بين "الموارد البشرية إلى الخدمات الاجتماعية، ومن المراقبة إلى متابعة المهاجرين والأقليات".

وأضاف التقرير "يظهر بوضوح متزايد أنه في ميادين مختلفة، يؤجج الذكاء الاصطناعي مكامن انعدام العدالة ويضع المعلومات ووسائل المراقبة بين أيدي الأشخاص الذين يتمتعون بالسلطة مانعا إياها عن أولئك الذين لا يملكون هذه السلطة".

وبينت الدراسة استخداما متسرعا لتقنيات التعرف إلى الوجوه، المنتشرة حاليا على نطاق واسع، ولتلك القائمة على التعرف العاطفي بواسطة الآلات، وهو مجال لا يزال في بداياته.

وأوصى الباحثون الحكومات والشركات بضرورة وقف استخدام تقنيات التعرف إلى الوجوه "في أطر اجتماعية وسياسية حساسة" إلى حين فهم المخاطر المتصلة بها بصورة أفضل.

ودعا معدو التقرير أيضا إلى منع تقنيات التعرف إلى العواطف بواسطة الآلات، في ظل مكامن الغموض المتصلة بها. ولفت الباحثون إلى أن هذه التقنيات "يجب ألا تؤدي دورا في القرارات الهامة التي يتخذها البشر، خلال مقابلات التوظيف والاستشارات الطبية والمواعيد مع وكلاء التأمين أو في تقييم التلامذة في المدارس".

كذلك دعا الأساتذة الجامعيون إلى زيادة المعلومات التي يزود بها المهندسون ومطورو المعلوماتية عن التبعات المحتملة للأجهزة والبرامج التي يطورونها.

وتحدث هؤلاء في النهاية عن مشكلة ترسيخ الأفكار النمطية المتأتية من استخدام تقنيات الذكاء الاصطناعية التي قد تعزز العنصرية ونقص التنوع.