أخلاقيات الذكاء الاصطناعي: إستثمارات بالملايين.. وأين مستثمرونا؟

الاستثمار في بحوث اخلاقيات الذكاء الاصطناعي لا يقل أهمية من الاستثمار في التقنية نفسها وتطبيقاتها.

بينما بدأ عالمنا العربي في الإستثمار في فرص ووعود الذكاء الاصطناعي، سبقتنا الدول المتقدمة في الإستثمار بالملايين في بحوث أخلاقيات ومخاطر الذكاء الاصطناعي.

على سبيل المثال، خلال شهر يونيو الجاري 2019، أعلنت جامعة أكسفورد البريطانية عن تلقيها منحة بقيمة 150 مليون جنيه إسترليني (188 مليون دولار) من رجل الأعمال الأميركي ستيفن شوارزمان رئيس شركة بلاكستون الاستثمارية، لتمويل دراسات وأبحاث أخلاقيات الذكاء الاصطناعي والعلوم الإنسانية، من خلال إنشاء مركز ستيفن شوارزمان للعلوم الإنسانية. وسيكون هذا المركز مقراً لمعهد جديد لدراسة أخلاقيات الذكاء الاصطناعي في جامعة أكسفورد، والذي سيعتمد على قدرات الجامعة العالمية في العلوم الإنسانية، لقيادة دراسة الآثار الأخلاقية للذكاء الاصطناعي وغيرها من تقنيات الحوسبة الجديدة.

هذا التبرع السخي يمثل تأييداً ودعماً كبيراً لقيمة وأهمية دراسة أخلاقيات الذكاء الاصطناعي ودور العلوم الإنسانية في ذلك، كما أنه يثير تساؤلاً مهماً: هل لدينا استثمارات في أخلاقيات الذكاء الاصطناعي والعلوم الإنسانية؟

تعدّ العلوم الإنسانية والاجتماعية ضرورية للمساعدة في التصدي للتحديات الرئيسة التي يواجهها الذكاء الاصطناعي في عالم اليوم، فمن خلال التحليل الدقيق للمفاهيم، وفهم العوامل الثقافية والإجتماعية المؤثرة على الأفراد والمجتمعات، والتعبير عن القيم ووجهات النظر المختلفة، وإثراء التفكير النقدي، يمكن للعلوم الإنسانية والإجتماعية أن تلعب دوراً مهماً وأساسياً في بناء ذكاء اصطناعي مسؤول.

يتم حالياً تضمين الذكاء الاصطناعي والروبوتات في سياقات كثيرة ومتنوعة من مجتمعاتنا وفي حياتنا اليومية، فالتطورات في تكنولوجيا الذكاء الاصطناعي سيكون لها القدرة على التأثير في كل جانب من جوانب حياتنا الحديثة تقريباً، إلا أن ذلك لا يخلو من مخاطر وتحديات، وعلينا أن نتخيل مدى الضرر الذي قد يلحق بالمجتمع إذا تم بناء أو استخدام ذكاء اصطناعي بطريقة غير صحيحة أو غير مسؤولة. فمثلاً التطورات في تكنولوجيا الذكاء الاصطناعي التي تعمل على أتمتة العمل قد تؤدى إلى القضاء على سبل العيش، كما أن الخوارزميات المدربة على البيانات قد تؤدي إلى إدامة أو تفاقم التحيزات وعدم المساواة مثل التمييز القائم على الجنس أو العرق، كما أن أنظمة الذكاء الاصطناعي التي تتطلب ضرورة توافر كميات كبيرة من البيانات الشخصية، كما هو الحال في الرعاية الصحية، بدون تخطيط دقيق قد تقوض الخصوصية. وقد أشرت بالتفصيل لبعض تحديات وأخلاقيات الذكاء الاصطناعي والروبوتات في كتابي (بالإشتراك مع الكاتبة والباحثة صفات سلامة)، بعنوان "تحديات عصر الروبوتات وأخلاقياته"، والصادر عن "مركز الإمارات للدراسات والبحوث الإستراتيجية" ضمن سلسلة "دراسات إستراتيجية".

لهذا بدأت الدول المتقدمة في تخصيص استثمارات ضخمة، لدراسة أخلاقيات الذكاء الاصطناعي والتعرف على المخاطر المحتملة للذكاء الاصطناعي سواء على المدى القريب أو البعيد، من منظور إقتصادي وإجتماعي وثقافي، من خلال التركيز على خصوصية البيانات وكيفية إداراتها، وكذلك كيفية تجنب الآثار الضارة للذكاء الاصطناعي على القوى العاملة، ويتم الإستعانة في هذا الشأن بعلماء العلوم الإنسانية كعلم النفس والإجتماع، وذلك لتوجيه القرارات الحكومية المتعلقة بالذكاء الاصطناعي وضمان الإستفادة من الفرص التي توفرها هذه التكنولوجيا، وبالتالي تعزيز الثقة في مجال الذكاء الاصطناعي.

الإستثمار مبكراً في أخلاقيات الذكاء الاصطناعي أصبح ضرورة حتمية جنباً الى جنب مع الإستثمار في الفرص والوعود، وذلك لتجنب المخاطر والتحديات المحتملة للذكاء الاصطناعي التي بدأت تلوح في الأفق والتي سبق وحذر منها العديد من العلماء والأكاديميين المتخصصين في مجال الذكاء الاصطناعي والعلوم الإنسانية.

فهم الأخلاقيات والمخاطر التي ينطوي عليها الذكاء الاصطناعي يعد جانباً أساسياً في أي إستراتيجية إستثمارية متعلقة بهذا المجال، فتركيز وتفكير المستثمرين في المخاطر المحتملة للذكاء الاصطناعي، سوف يسمح لهم بتقديم منتجاتهم بشكل أكثر موثوقية، وسيكون لديهم فرصة أفضل لتحقيق عوائد كبيرة وأرباح أكبر للمساهمين، كما يجب على المستثمرين دائمًا تنفيذ استراتيجيات إدارة المخاطر، وذلك لإدارة وبفعالية المخاطر المرتبطة باستثماراتهم.

أصبح هناك ضرورة عاجلة في عالمنا العربي، كإجراءات إستباقية للإستثمار في أخلاقيات الذكاء الاصطناعي والإهتمام الجاد بدعم دراسات وبحوث العلوم الإنسانية في الذكاء الاصطناعي، لإثراء ودعم قرارات الحكومات العربية وصنع السياسات، وتحقيق أقصى قدر من الفرص، وضمان التنفيذ الآمن والموثوق والمسؤول لتكنولوجيا الذكاء الاصطناعي على مدى العقود المقبل، فهل نحن فاعلون؟