الشيطان يكمن في أنظمة الذكاء الاصطناعي

الشيطان يكون أكثر فاعلية عندما يعمل بشكل غير مرئي ويتلاعب بسلوك البشر بدلاً عن إخبارهم بما يجب عليهم فعله، كذلك تعمل أنظمة الذكاء الاصطناعي.
الصندوق الأسود في الذكاء الاصطناعي لا يمكنه شرح كيف وصل إلى قرار أو إجراء
دور الذكاء الاصطناعي أكثر مكرًا في قضايا مثل اختيار شريك الحياة
أنظمة الذكاء الاصطناعي ممكن أن ترسخ التمييز بين الجنسين
الاعتماد على الذكاء الاصطناعي في السياسة الصحية قد يؤدي إلى تشويش المناقشات الأخلاقية

لندن - في العام 1995 قدم المخرج براين سينجر فيلم الجريمة "المشتبه بهم المعتادون" من بطولة الممثل كيفن سبيسي والذي يتتبع استجواب المحققين لمحتال نجا من مجزرة وحريق على متن قارب في ميناء لوس أنجليس.
يقوم المحتال بسرد قصة ملتوية الأحداث يعيد فيها صياغة مقطع شعري للشاعر الفرنسي تشارلز بودلير، قائلاً إن "أعظم خدعة قام بها الشيطان على الإطلاق كانت إقناع العالم بأنه غير موجود". 
والمعنى الضمني أن الشيطان يكون أكثر فاعلية عندما يعمل بشكل غير مرئي ويتلاعب بسلوك البشر بدلاً عن إخبارهم بما يجب عليهم فعله.
في قصة الفيلم، يتمثل دور الشيطان في حجب الحقيقة وإغراء المشاهد في التخلي عن إحساسه بالمسؤولية الأخلاقية.
ووفقا للموقع التقني المتخصص "تيك إكسبلور"، يجد بحث علمي جديد أوجه تشابه بين هذه الفكرة ودور الذكاء الاصطناعي في القرن الحادي والعشرين، لكن كيف ولماذا؟
يغري الذكاء الاصطناعي الناس بالتخلي عن البصيرة والمسؤولية الأخلاقية بنفس الطريقة، من خلال إزالة مجموعة من القرارات من عقولنا الواعية، بدون الفهم الصحيح لكيفية القيام بذلك بحيث لا يمكننا التحايل على آثاره السلبية.
تم تعزيز دور الذكاء الاصطناعي على نطاق واسع في عام 2020 فساعدت خوارزمياته في الطب والاستثمار والدراسة والكثير من المجالات.
مزايا خطيرة وتأثيرات خبيثة
مع وصول واسع النطاق إلى البيانات الدقيقة حول السلوك البشري التي يتم حصادها من وسائل التواصل الاجتماعي، تغلغل الذكاء الاصطناعي في القطاعات الرئيسية لمعظم الاقتصادات المتقدمة. 
وبالنسبة لتحليل البيانات فغالبا ما يُقارن الذكاء الاصطناعي بشكل إيجابي مع البدائل البشرية التي تكون أبطأ وأكثر عرضة للخطأ، مما يؤدي إلى مكاسب هائلة في الكفاءة وتخفيضات في التكلفة لمن يتبنون هذه التكنولوجيا.
بالنسبة للمشكلات الأكثر تعقيدًا مثل اختيار شريك الحياة، يكون دور الذكاء الاصطناعي أكثر مكرًا فهو يؤطر الخيارات و"يدفع" الناس.

لا يوجد حل سحري ضد ميول الذكاء الاصطناعي التي تؤدي إلى عدم المسؤولية 

وبالنسبة لهذا المهمة المعقدة، فإن مخاطر كبيرة مرتبطة بصعود الذكاء الاصطناعي في عملية صنع القرار، فكل خيار بشري يتضمن بالضرورة تحويل المدخلات (المعلومات ذات الصلة والمشاعر وما إلى ذلك) إلى مخرجات (قرارات).
ومع ذلك فإن كل خيار يتضمن حتما أيضا رأيا، وبدون رأي قد نتحدث عن رد فعل بدلاً من اختيار، ولكن مع اتخاذ خيارات أكثر تعقيدًا وأهمية، أو على الأقل مدفوعة من قبل الذكاء الاصطناعي ، يصبح إسناد المسؤولية أكثر صعوبة.
وفي ورقة بحثية حديثة، قام فريق بفحص كيف أن الاعتماد على الذكاء الاصطناعي في السياسة الصحية قد يؤدي إلى تشويش المناقشات الأخلاقية المهمة وبالتالي "عدم مسؤولية" الجهات الفاعلة في قطاع الصحة. 
طمس الإحساس بالمسؤولية
تعمل أنظمة الذكاء الاصطناعي كصناديق سوداء، يمكننا معرفة مدخلات ومخرجات نظام الذكاء الاصطناعي، ولكن من الصعب للغاية تتبع كيفية استنتاج المخرجات من المدخلات، هذا التعتيم المستعصي على ما يبدو يولد عددًا من المشاكل الأخلاقية. 
يمكن أن يكون الصندوق الأسود مسؤولاً سببيًا عن قرار أو إجراء، لكن لا يمكنه شرح كيف وصل إلى هذا القرار أو أوصى بهذا الإجراء، حتى لو فتح الخبراء الصندوق الأسود وقاموا بتحليل التسلسل الطويل للحسابات التي يحتوي عليها، فلا يمكن ترجمتها إلى أي شيء يشبه التبرير أو التفسير البشري.
لقد درس الفلاسفة منذ فترة طويلة كيف يمكن للبيروقراطيات أن تعفي الأفراد من أسوأ الجرائم، وكان العالم البولندي زيغمونت بومان والباحثة اليهودية من أصل ألماني حنا أرندت مفتونين بكيفية مشاركة الأشخاص المحترمين في الأعمال الوحشية دون الشعور بالذنب.
كانت هذه الظاهرة ممكنة لأن الأفراد حولوا المسؤولية واللوم إلى بيروقراطيات غير شخصية وقادتها.
يؤدي الذكاء الاصطناعي إلى تكثيف هذه الظاهرة لأنه حتى القادة الآن يمكنهم تحويل المسؤولية إلى هذه الأنظمة التي أصدرت توصيات سياسية وخيارات سياسية مؤطرة.

الذكاء الاصطناعي
أنظمة الذكاء الاصطناعي تتعرف على الأنماط لكنها لا تفهم معنى الأنماط

وتم تصميم أنظمة الذكاء الاصطناعي للتعرف على الأنماط، لكنها على عكس البشر، لا تفهم معنى هذه الأنماط، وبالتالي، إذا تم ارتكاب جريمة في مدينة من قبل مجموعة عرقية معينة، فسيقوم نظام الذكاء الاصطناعي بتحديد هذا الارتباط بسرعة. 
ولن يأخذ في الاعتبار ما إذا كان هذا الارتباط ناتجًا عن أسباب أعمق وأكثر تعقيدًا، وبالتالي يمكن لنظام الذكاء الاصطناعي أن يوجه الشرطة إلى التمييز بين المجرمين المحتملين على أساس لون البشرة، لكنه لا يستطيع فهم الدور الذي تلعبه العنصرية ووحشية الشرطة والفقر في التسبب في السلوك الإجرامي في المقام الأول.

أنظمة الذكاء الاصطناعي يمكن أن تنجح في حالة اكتشاف الحالات الفسيولوجية مثل سرطانات الجلد، لكن المشكلة تكمن في أن تصنيف الذكاء الاصطناعي للفئات الاجتماعية يمكن أن يعمل كنبوءة تحقق ذاتها على المدى الطويل، فعلى سبيل المثال، يقر الباحثون في مجال التمييز بين الجنسين المستند إلى الذكاء الاصطناعي بفشل الخوارزميات التي تنتهي بالمبالغة دون تقديم أي تحيز اجتماعي موجود مسبقًا ضد النساء والمتحولين جنسياً والمثليين.
ولا يوجد حل سحري ضد ميول الذكاء الاصطناعي التي تؤدي إلى عدم المسؤولية ولا يعرف العلماء والباحثون متى يجب أخذ المدخلات المستندة إلى هذه الأنظمة كأمر مسلم به ومتى ينبغي الاعتراض عليها، ومع ذلك فإن دور المختصين حاليا هو التأكيد على أن الحسابات القائمة على الذكاء الاصطناعي والتي تعمل كصناديق سوداء تجعل اتخاذ القرار الأخلاقي أكثر صعوبة وليس أقل.