نداء عالمي لوقف سباق الذكاء الفائق قبل فوات الأوان
واشنطن - أطلق أكثر من سبعمئة عالم وشخصية سياسية ورجال أعمال في قطاع التكنولوجيا ومشاهير من مختلف أنحاء العالم عريضة دولية تدعو إلى وقف تطوير الذكاء الاصطناعي الفائق، الذي يُعتقد أنه قد يتجاوز القدرات البشرية، محذرين من “مخاطر وجودية” تهدد مستقبل الإنسان في حال استمرار السباق بين الشركات نحو بناء ذكاء يتفوق على العقل البشري.
العريضة التي نُشرت الأربعاء 22 تشرين الأول/أكتوبر، أطلقها معهد مستقبل الحياة (Future of Life Institute)، وهي منظمة أميركية غير ربحية تحذر منذ سنوات من مخاطر الذكاء الاصطناعي المتقدم. وتطالب الوثيقة بـ"حظر تطوير الذكاء الفائق إلى حين التوصل إلى إجماع علمي واسع يؤكد إمكانية بنائه بطريقة آمنة ومضبوطة، ووجود دعم شعبي لذلك".
ويُستخدم مصطلح "الذكاء الفائق" (Superintelligence) للإشارة إلى أنظمة ذكاء اصطناعي يمكنها التفوق على الإنسان في جميع المجالات المعرفية، وليس في مهام محددة كما هو الحال مع الأنظمة الحالية. ورغم أن هذا المفهوم لا يزال في مرحلة نظرية، إلا أنه يشكل محورًا رئيسيًا في سباق التطوير بين كبرى شركات التكنولوجيا، من بينها «أوبن آي»، التي يتوقع مديرها التنفيذي سام ألتمان أن تصل إلى هذا المستوى خلال خمس سنوات فقط.
وتضم قائمة الموقّعين أسماء بارزة في مجال الذكاء الاصطناعي مثل جيفري هينتون، الحائز على جائزة نوبل في الفيزياء لعام 2024، وستيوارت راسل من جامعة كاليفورنيا – بركلي، ويوشوا بنجيو من جامعة مونتريال، إلى جانب رموز في قطاع التكنولوجيا مثل ستيف وزنياك، الشريك المؤسس لشركة آبل، وريتشارد برانسون، مؤسس مجموعة فيرجن. كما انضم إلى العريضة سياسيون مثل سوزان رايس، مستشارة الأمن القومي السابقة في عهد باراك أوباما، وستيف بانون، المستشار السابق للرئيس دونالد ترامب، إضافة إلى شخصيات دينية مثل باولو بنانتي، مستشار الفاتيكان في شؤون الذكاء الاصطناعي، وعدد من المشاهير بينهم الأمير هاري وزوجته ميغان ماركل والمغني الأميركي will.i.am.
ويحذر الموقعون من أن تطوير ذكاء يفوق البشر قد يؤدي إلى فقدان السيطرة على الأنظمة التقنية، وتقويض الحقوق المدنية والحرية الفردية والكرامة الإنسانية، فضلًا عن مخاطر محتملة على الأمن القومي قد تصل إلى حد انقراض البشرية.
وبحسب استطلاع للرأي أجراه المعهد ذاته، فإن 64 بالمئة من الأميركيين يعتقدون أنه لا ينبغي تطوير ذكاء يفوق البشر ما لم تُثبت سلامته وإمكانية السيطرة عليه، بينما يرى 73 بالمئة ضرورة فرض تنظيمات صارمة على الذكاء الاصطناعي المتقدم.
مخاطر قد تصل إلى حد انقراض البشرية
وتأتي هذه المبادرة بعد شهر من رسالة مماثلة صدرت خلال الجمعية العامة للأمم المتحدة، دعا فيها باحثون ومسؤولون في قطاع الذكاء الاصطناعي إلى إبرام اتفاقات دولية تحدد “الخطوط الحمراء” لتطوير الذكاء الاصطناعي، بهدف تجنب آثاره الكارثية المحتملة على البشرية.
ويشير مراقبون إلى أن هذه الدعوة تختلف عن الرسائل السابقة التي طالبت بـ«تجميد مؤقت» لتجارب الذكاء الاصطناعي، إذ تمثل أول نداء عالمي يدعو صراحة إلى حظر تطوير الذكاء الفائق إلى أن تتوافر الضمانات العلمية والتنظيمية اللازمة.
وتأتي العريضة في وقت تستمر فيه شركات كبرى مثل ميتا في الاستثمار بمليارات الدولارات في مشاريع تطوير ذكاء فائق، من بينها ما كشفت عنه الشركة مؤخرًا تحت اسم "مختبرات ميتا للذكاء الفائق" (Meta Superintelligence Labs)، في سباق عالمي يُقدَّر أن تبلغ قيمته مئات المليارات من الدولارات.
ويرى خبراء أن هذه التحركات تعكس تنامي المخاوف من أن تتجاوز سرعة التقدم التقني قدرة الحكومات على فرض الضوابط القانونية، ما يعيد إلى الأذهان تحذيرات أكاديميين من ضرورة إنشاء هيئة دولية مستقلة لمراقبة تطوير الذكاء الاصطناعي، على غرار الوكالة الدولية للطاقة الذرية، ووضع حد عالمي للطاقة الحاسوبية المستخدمة في تدريب النماذج الضخمة، وتقييد التجارب التي قد تشكل تهديدًا للبشرية.
وفي ظل غياب اتفاق دولي واضح حتى الآن، تبقى العريضة الجديدة بمثابة إنذار عالمي من نخبة العلماء وصنّاع القرار، تحذر من أن التقدم غير المنضبط في مجال الذكاء الاصطناعي قد يتحول من أداة تقدم إلى خطر وجودي على الإنسان ذاته.