مارك كوكلبيرغ يناقش ويسائل أخلاقيا الذكاء الاصطناعي

أستاذ فلسفة الوسائط والتكنولوجيا في قسم الفلسفة بجامعة فيينا : مثلا، إذا واجهت سيارة ذاتية القيادة موقفًا يتعيَّن عليها فيه الاختيار بين أن تصطدم بطفلٍ أو تصطدم بجدارٍ لإنقاذ حياة الطفل، ولكن مع احتمال قتل راكِبها، فماذا تختار؟

يدعم الذكاء الاصطناعي محرك بحث غوغل، ويمكن فيسبوك من توجيه إعلانات مستهدفة، كما أنه يكمُن وراء تكنولوجيا السيارات الذاتية القيادة، والأسلحة الذاتية التشغيل. وتُثير هذه التطبيقات وغيرها من تطبيقات الذكاء الاصطناعي قضايا أخلاقيةً معقدة، تشكل موضوع نقاش دائمًا. حيث يُستخدَم الذكاء الاصطناعي في مجموعةٍ واسعة من مجالات المعرفة والممارسات البشرية. وقد أثارت الأولى تكهُّناتٍ جامحة حول مستقبل التكنولوجيا، كما أثارت مناقشاتٍ فلسفيةً مهمة حول معنى أن تكون إنسانا. بينما خلقت الثانية إحساسا بالإلحاح من جانب الأخلاقيين وصانعي السياسات لضمان أن تُفيدنا هذه التكنولوجيا بدلًا من أن تخلق أمام الأفراد والمجتمعات تحديات لا يُمكنهم التغلُّب عليها. وتُعد هذه المخاوف الأخيرة أكثر عمليةً وإلحاحا.

يتناول أستاذ فلسفة الوسائط والتكنولوجيا في قسم الفلسفة بجامعة فيينا، ورئيس جمعية الفلسفة والتكنولوجيا سابقا مارك كوكلبيرغ، في كتابه "أخلاقيات الذكاء الاصطناعي" كِلا الجانبَين؛ فهو يتعامل مع الأخلاقيات على هذه المستويات كافة. ويهدف إلى إعطاء القارئ نظرةً عامة على المشكلات الأخلاقية التي يُثيرها الذكاء الاصطناعي، بدءًا من السرديات المؤثرة حول مستقبل الذكاء الاصطناعي والأسئلة الفلسفية حول طبيعة الإنسان ومُستقبله، وانطلاقًا إلى القضايا الأخلاقية المُتعلقة بالمسئولية والتحيُّز وكيفية التعامُل مع المسائل العملية الواقعية التي أثارتها التكنولوجيا عن طريق وضع السياسات؛ لا سيما إذا كان ذلك قبل فوات الأوان.

من الأسئلة التي يطرحها كوكلبيرغ في كتابه الصادر عن مؤسسة هنداوي أخيرا "هل يجب أن تحتوي السيارات الذاتية القيادة على قيودٍ أخلاقية مضمَّنة؟ وإذا كان الأمر كذلك، فما نوع هذه القيود وكيف ينبغي تحديدها؟ مثلا، إذا واجهت سيارة ذاتية القيادة موقفًا يتعيَّن عليها فيه الاختيار بين أن تصطدم بطفلٍ أو تصطدم بجدارٍ لإنقاذ حياة الطفل، ولكن مع احتمال قتل راكِبها، فماذا تختار؟ وهل ينبغي ترخيص الأسلحة الفتَّاكة الذاتية التشغيل من الأساس؟ كم عدد القرارات التي نُريد تفويضها إلى الذكاء الاصطناعي، وما القَدْر الذي نُفوِّضه منها؟ ومَن سيكون المسئول عندما يحدُث خطأ ما؟ في إحدى القضايا، وضَعَ القضاة ثقتهم في خوارزمية "كومباس" أكثر من ثِقتهم في الاتفاقات التي توصل إليها الدفاع والادعاء. فهل سنعتمد كثيرا على الذكاء الاصطناعي؟. إن خوارزمية "كومباس" أيضا تعد مُثيرة للجدل إلى حد كبير؛ نظرا إلى أن الأبحاث أظهرت أن الأشخاص الذين تنبَّأَت الخوارزمية بأنهم سيُعيدون ارتكاب الجرائم ولكنهم لم يفعلوا كانت النسبة الكبرى منهم مِن السود. وبالتالي يمكن للذكاء الاصطناعي أن يُعزز التحيز والتمييز غير العادل. ويمكن أن تنشأ مشكلات مُماثلة مع الخوارزميات التي تُوصي بقراراتٍ بشأن طلبات الرهن العقاري وطلبات التقدُّم للوظائف.

يوضح أن الإحساس الواسع الانتشار بضرورة وأهمية التعامُل مع التحديات الأخلاقية والمُجتمعية التي أثارها الذكاء الاصطناعي أدى إلى سَيل من المبادرات ووثائق السياسات التي لا تُعرِّف فقط بعض المشكلات الأخلاقية المُرتبطة بالذكاء الاصطناعي ولكنها تهدف أيضا إلى توفير توجيهات مِعيارية للسياسات. وقد اقتُرحت سياسات خاصة بالذكاء الاصطناعي تشتمل على عنصرٍ أخلاقي من قِبل مجموعة متنوعة من الجهات، بما في ذلك الحكومات والهيئات الحكومية مثل اللجان الوطنية للأخلاقيات، وشركات التكنولوجيا مثل غوغل، والمهندسين ومنظماتهم المهنية مثل معهد مهندسي الكهرباء والإلكترونيات، والهيئات الحكومية الدولية مثل الاتحاد الأوروبي، والجهات غير الحكومية وغير الهادفة للربح، والباحثين. إذا راجعنا بعض المبادرات والمقترحات الحديثة، يتبيَّن أن معظم الوثائق تبدأ بتبرير السياسة من خلال توضيح المبادئ، ثم تُقدم بعض التوصيات فيما يتعلق بالمشكلات الأخلاقية المُحددة.

ويلفت كوكلبيرغ إلى أن العديد من الدول الأوروبية تملك حاليا استراتيجيات للذكاء الاصطناعي تتضمن عنصرا أخلاقيا. ويُعد "الذكاء الاصطناعي القابل للتفسير" هدفا مشتركا بين العديد من صانعي السياسات. يقول مجلس عموم المملكة المتحدة إن الشفافية وحق التفسير أمور أساسية لنتمكن من مساءلة الخوارزميات، ويجب على الصناعات والجهات التشريعية التعامُل مع مسألة اتخاذ القرارات المُتحيزة من قِبل الخوارزميات. كذلك تفحص لجنة مجلس لوردات المملكة المتحدة المختارة المَعنية بالذكاء الاصطناعي التداعِيات الأخلاقية للذكاء الاصطناعي. وفي فرنسا، يقترح تقرير فيلاني العمل نحو تطوير "ذكاء اصطناعي ذي معنى" لا يؤدي إلى تفاقُم مشكلات الإقصاء، أو يزيد من التفاوت الاجتماعي، أو يؤدي إلى مجتمع تحكُمنا فيه خوارزميات "صناديق سوداء"؛ إذ يجب أن يكون الذكاء الاصطناعي قابلًا للتفسير وصديقًا للبيئة. كما أنشأت النمسا مؤخرا مجلسا استشاريا وطنيا معنيا بالروبوتات والذكاء الاصطناعي، والذي قدم توصياتٍ لسياسة تستنِد إلى حقوق الإنسان، والعدالة والإنصاف، والإشراك والتضامُن، والديمقراطية والمشاركة، وعدم التمييز، والمسئولية، وقِيَم أخرى شبيهة. كما تُوصي ورقتها البيضاء بتطوير ذكاء اصطناعي قابلٍ للتفسير وتقول صراحةً إن المسئولية تظل على عاتق البشر؛ ولا يمكن أن يكون الذكاء الاصطناعي مسئولًا أخلاقيا.. كذلك، فإن الهيئات والمؤتمرات الدولية نشطة للغاية. فقد نشر المؤتمر الدولي لمُفوضي حماية البيانات والخصوصية إعلانا بشأن الأخلاقيات وحماية البيانات في الذكاء الاصطناعي، ويتضمَّن مبادئ العدالة، والمساءلة، والشفافية والفهم، والتصميم المسئول، والخصوصية المُتضمنة في التصميم (مفهوم يُطالب بمراعاة الخصوصية في جميع مراحل عملية الهندسة)، وتمكين الأفراد، والحدِّ من التحيز أو التمييز وتخفيف آثارهما.

يشير إلى أن مفهوم الديمقراطية مهدد أيضا بحقيقة تركز السلطة في أيدي عددٍ صغير نسبيا من الشركات الكبيرة. ويرى بول نيميتز أن تراكُم السلطة الرقمية في أيدي شركات قليلة ينطوي على إشكالية: إذا مارست حفنة من الشركات سُلطتها ليس فقط على الأفراد ـ من خلال تكوين ملفَّاتٍ تعريفية عنا ـ ولكن أيضًا على البنية الأساسية للديمقراطية، فإن هذه الشركات، على الرغم من نواياها الحسنة للمساهمة في الذكاء الاصطناعي الأخلاقي، سوف تضع عقباتٍ أمامه. ولذلك، فمِن الضروري وضع لوائح تنظيمية وحدود لحماية المصلحة العامة، ولضمان أن هذه الشركات لن تُشكل القواعد بمفردها. وأشار موراي شاناهان إلى أن "المَيل إلى تركُّز السلطة والثروة والموارد في أيدي عدد قليل يتَّسم بالاستدامة الذاتية"، مما يجعل من الصعب تحقيق مجتمعٍ أكثر إنصافًا. كما أنه يجعل الأفراد عُرضة لجميع أنواع المخاطر، بما في ذلك الاستغلال وانتهاكات الخصوصية، على سبيل المثال، ما تُسمِّيه دراسة أجراها المجلس الأوروبي "التأثير المُروِّع لإعادة استخدام البيانات".

يرى كوكلبيرغ إن أخلاقيات الذكاء الاصطناعي بشكلٍ عام لا تتعلق بالضرورة بمنع الأشياء. هناك عائق آخر يحول دون ممارسة أخلاقيات الذكاء الاصطناعي عمليا، وهذا العائق هو أن العديد من الجهات الفاعلة في مجال الذكاء الاصطناعي مثل الشركات والباحثين التقنيِّين لا يزالون يعتبرون الأخلاقيات قيودا، أو أشياءً سلبية. هذه الفكرة ليست مُضللة بشكلٍ كامل؛ إذ غالبًا ما يجب على الأخلاق أن تُقيِّد، وتَحُد، وتقول إن شيئا ما غير مقبول. وإذا أخذنا أخلاقيات الذكاء الاصطناعي على مَحمل الجد ونفذنا توصياتها، فقد نواجِه بعض التنازُلات، ولا سيما على المدى القصير. فقد يكون للأخلاقيات ثمَن لا بد من دفعه؛ سواء على مستوى المال أو الوقت أو الطاقة. ومع ذلك، فمِن خلال تقليل المخاطر، تدعم الأخلاقيات والابتكار المسئول التنميةَ المُستدامة للأعمال التجارية والمجتمع على المدى البعيد. ولا يزال هناك تَحد في إقناع جميع الجهات الفاعلة في مجال الذكاء الاصطناعي، بمَن فيهم صانعي السياسات، بأن هذا هو الحال فعلًا. لاحظ أيضا أن السياسة واللوائح التنظيمية لا تتعلق فقط بحظر الأشياء أو بجعلِها أكثر صعوبةً وتعقيدا؛ بل يمكن أن تكون داعمة، من خلال تقديم حوافز، على سبيل المثال.

ويضيف أنه إلى جانب الأخلاقيات السلبية التي تفرض قيودا، نحن في حاجة إلى توضيح الأخلاقيات الإيجابية وشرحها: لوضع رؤية للحياة الجيدة والمجتمع الجيد. وبينما تلمح بعض المبادئ الأخلاقية المقترحة أعلاه إلى مِثل هذه الرؤية، فلا يزال توجيه المناقشة إلى هذا الاتجاه تحديا. كما سبق وذكرنا، لا تتعلَّق المسائل الأخلاقية الخاصة بالذكاء الاصطناعي بالتكنولوجيا فحسب؛ بل تتعلَّق بحياة الإنسان وازدهاره، وتتعلَّق بمُستقبل المجتمع، وربما تتعلق أيضًا بغير البشر، وبالبيئة، وبمُستقبل الكوكب. وهكذا تُعيدنا المناقشات حول أخلاقيات الذكاء الاصطناعي وسياساته من جديد إلى الأسئلة الكبيرة التي يجب أن نطرحها على أنفسنا؛ أفرادا، ومُجتمعاتٍ، وربما بشرا. ويمكن للفلاسفة أن يُساعدونا في التفكير في هذه الأسئلة. وبالنسبة إلى صانعي السياسات، يكمُن التحدِّي في تطوير رؤية واسعة للمُستقبل التكنولوجي تتضمَّن أفكارا حول ما هو مُهم وما هو ذو معنًى وما هو ذو قيمة. على الرغم من أن الديمقراطيات الليبرالية بشكلٍ عامٍّ تتعمد تجاهل مثل هذه الأسئلة وتركها للأفراد، ولا تتدخَّل في مثل هذه الموضوعات العميقة مثل ماهية الحياة الجيدة ومِن ثَم فهي سطحية (ابتكار سياسي أدَّى إلى تجنُّب بعض أنواع الحروب على الأقل وساهم في الاستقرار والازدهار)، فإنه في ظلِّ التحدِّيات الأخلاقية والسياسية التي تواجِهنا، فإن تجاهل الأسئلة الأخلاقية الأكثر "عمقا" يُعتبر من قبيل انعدام المسئولية. وينبغي أن تتعلق السياسة أيضًا، بما فيها سياسات الذكاء الاصطناعي، بالأخلاقيات الإيجابية.

ويؤكد كوكلبيرغ أن السبيل إلى ذلك من منظور صانعي السياسات، ليس من خلال العمل بشكلٍ فردي وتولي دور الملك الفيلسوف كما في فلسفة أفلاطون، ولكن بالعثور على التوازن الصحيح بين التكنوقراطية والديمقراطية التشاركية. الأسئلة التي تواجهنا هي أسئلة تهمنا جميعًا؛ وعلينا أن نتشارك جميعًا في الإجابة عنها. لذلك، لا يمكننا تركها في أيدي فئةٍ قليلة من الأشخاص، سواء أكانوا في الحكومة أم في الشركات الكبيرة. ويعيدنا هذا إلى الأسئلة حول كيفية إنجاح الابتكار المسئول والمشاركة في سياسات الذكاء الاصطناعي. المشكلة لا تتعلَّق فقط بالسلطة؛ إنها تتعلَّق أيضًا بالخير: الخير للأفراد والخير للمجتمع. إن أفكارنا الحالية حول الحياة الجيدة والمجتمع الجيد ـ إذا كنا قادِرين على التعبير عنها من الأساس ـ قد تحتاج إلى نقاشٍ نقدي أعمق بكثير. ودعوني أقترح أنه قد يكون من المُفيد للغرب، على الأقل أن يستكشفوا خيار مُحاولة التعلُّم من أنظمةٍ سياسية أخرى غير غربية وثقافات سياسية أخرى. لا يجوز لسياسة الذكاء الاصطناعي الفعالة والمُبررة تجنب المشاركة في مثل هذه النقاشات الأخلاقية الفلسفية والسياسية الفلسفية.