حروب المستقبل هل تصبح مواجهة بين جيوش من الروبوتات؟

كتاب الباحث د.فتحي حسين عامر 'الروبوتات القاتلة' يتوقف مع الانسان الالي وتكامله مع الذكاء الاصطناعي في مجالات من التنمية والرخاء الى مواجهة الاخطار والارهاب والعنف أيضا.

شهد العالم خلال السنوات الأخيرة تقدماً ملحوظاً في تقنيات الذكاء الاصطناعي ومنها الروبوتات، بكل انواعها، المفيد للبشرية والضار ايضا، حيث نجحت في أدائها وتنفيذها لمختلف الأعمال والمهام المكلفة بها. وتتكون صناعة الروبوت في العصر الحديث من الآلات المبرمجة التي تستطيع أن تنفذ عدة عمليات بكافة المجالات. وتعمل الروبوتات على إحداث تغيير سريع في حياتنا اليومية من خلال الوظائف الذكية وإمكانيات الحماية.

انطلاقا من الدور المستقبلي للروبوتات يأتي كتاب الباحث د.فتحي حسين عامر مدرس الاعلام الرقمي وأستاذ مشارك إعلام الكتروني بجامعة العراق، والمعنون بـ " الروبوتات القاتلة واستخدامها في حروب المستقبل" يتوقف مع الروبوتات وتكاملها مع الذكاء الاصطناعي في العديد من المجالات التي أصبح العالم لا يمكنه الاستغناء عنها في مجالات التنمية والرخاء ومواجهة الاخطار والارهاب والعنف ايضا، وكم من الحروب التي دارت ولا تزال قائمة اعتمدت على تقنيات الذكاء الاصطناعي في الحرب كما في الحرب الروسية الاوكرانيا والعدوان الاسرائيلي علي غزة بفلسطين وغيرها من الاحداث العالمية التي تسبب بلا شك توترات دولية كبيرة.

يرى عامر في كتابه الصادر عن دار العربي أن التطور الأكثر أهمية للروبوتات جاء بعد إدخال برامج الذكاء الاصطناعي في هذه الأجهزة، فأكسبها قدرات عقلية هائلة تقارب البشر. فتم مثلاً تصميم روبوت يرتدي زي طبيب ويقوم بالكشف على المرضى وتشخيص حالتهم وطريقة علاجهم. ومن أشهر نماذج الروبوتات الذكية "صوفيا"، التي قامت بزيارة العديد من الدول العربية، منها الإمارات ومصر، وشاركت في مؤتمرات نقلها التليفزيون. ولكن هناك وجه آخر لهذا التطور ينطوي على قدرٍ كبيرٍ من الخطورة، وهو ما يُسمَّى بـ"الروبوتات القاتلة"، والتي من أحدث صورها في عام 2021 روبوت "سبور"، الذي أنتجته شركة أمريكية، وهو في شكل كلب يحمل على ظهره بندقية يستطيع أن يستخدمها كأحد أمهر القناصة. ومنها الروبوتات، التي تم إدخالها على نُظُم التسلح مثل نظام تستخدمه الطرادات البحرية بهدف الاكتشاف التلقائي لنُظُم الدفاع الجوي المضادة للسفن والغواصات وتعقبها وتدميرها، والطائرات دون طيار، التي تقوم بالبحث عن العدو وتحديد مكانه وتدميره، والطائرات المقاتلة صغيرة الحجم القادرة على الإقلاع من حاملة طائرات ومطاردة الأعداء ثم العودة للهبوط. ومنها الروبوتات، التي تم تزويدها بتكنولوجيا التعرف على الوجوه، فتقوم بالبحث عن أفراد معيَّنين وقتلهم، والروبوتات التي تأخذ شكل قوات حرس الحدود في مناطق التوتر وتُدمِّر من تلقاء ذاتها أي هدف يعبر الحدود، مثلما الحال على الحدود بين الكوريّتيْن. ومنها الاغتيال الجماعي للعشرات بواسطة الروبوتات القاتلة في ليبيا عام 2020، وذلك وفقاً لتقرير صادر عن مجلس الأمن.

ويضيف "يُمكن أن تقوم كل هذه الروبوتات الذكية بأداء مهامها بشكلٍ مستقل دون تدخُّل بشري، لذلك أُطلق عليها اسم "الأسلحة الفتاكة المستقلة".. ويُقصد بها أنواع من الأسلحة ذاتية الحركة والتشغيل تتسم بقدرتها على الرصد والاشتباك عند تعرُّفها على الخصوم أو الأهداف المعادية.. وهي تعمل وفقاً لبرامج الحاسب الآلي، فتختزن عدداً هائلاً من البيانات المتعلقة باتخاذ القرار وتنفيذه. وتمتلك هذه الأسلحة القدرة على إدارة القتال، واتخاذ القرارات اللازمة تجاه الأعداء، أي إن لديها القدرة على رصد الأهداف المعادية وتعقبها والقيام بأعمال المناورة، واتخاذ القرار بالهجوم وإطلاق النار أو الانسحاب، وذلك كله دون تدخُّل بشري، ومن ثَم لا يُمكن التنبؤ بسلوكها.

ويشير إلى ان الذكاء الاصطناعي وتقنياته المتطوره باستمرار يعتبر حجر زاوية في مستقبل المواجهة الأمنية ضد الإرهاب (التطرف الحركي)، وقريبا التطرف الفكري، فهو في المقابل أداة محايدة تتحدد تأثيراتها وفقًا لطبيعة استخدامها والطرف المستفيد منه، وبالتالي هو قابل للاستخدام السلبي بشكل مكافئ تمامًا للاستخدامات الإيجابية، فهو في النهاية مجرد "أداة" او وسيلة يمكن تطويعها وتسخيرها وتوظيفها لصالح إنفاذ القانون أو ربما انتهاكه بشكل كبير لتحقيق مصالح شخصية ذاتية، وربما لتحقيق الصالح العام أو الإضرار به. وقد انتقلت هذه القابلية من مرحلة التنظير والاحتمالات إلى التجسد الفعلي على أرض الواقع؛ حيث بدأ بالفعل استخدام بعض أشكال وتجليات الذكاء الاصطناعي بواسطة جماعات إرهابية وتنظيمات مسلحة والمثال الأبرز على ذلك، استخدام تنظيم "الدولة الإسلامية" الشهير باسم "داعش" لطائرات مسيرة ذكية، وكذلك محاولة الاغتيال الفاشلة التي تعرض لها رئيس فنزويلا "نيكولاس مادورو" في 2018، باستخدام المُسيّرات. والأخطر هو الجمع بين أكثر من تقنية للذكاء الاصطناعي، كأن تعتمد كاميرات الطائرات المسيرة في تحديد أهدافها على تقنيات التعرف على الوجوه، أو تزويدها بأسلحة ذكية تستطيع تتبع الهدف المحدد، أو التعرف عليه من بين عدة أهداف متشابهة.

ويوضح عامر أن ظهور أثار هذه الروبوتات نوعين من الجدل: جدل سياسي حول شرعية استخدام الروبوتات القاتلة.. إذ يرى المدافعون عنها أنه يُمكن برمجتها بعشرات الاحتمالات والبدائل، وبالقرارات المختلفة المناسبة لكل موقف.. ومن ثم يُمكنها اتخاذ القرار الملائم في وقتٍ قصير وعلى نحو يتجاوز قدرة الإنسان، ويُقلل التكلفة البشرية للحروب. كما أنها أسلحة عاقلة رابطة الجأش لا تغضب ولا ينفد صبرها، ومن ثم فإنها تُقلل من أخطاء البشر. أما الرافضون فيرون أن الاندفاع في هذا الاتجاه أغفل الفارق الهام بين الإنسان والآلة، وهي قدرة الإنسان على وقف الهجوم العسكري إذا ما ظهرت معلومات جديدة غير متوقعة، مثل أن يكون المكان المستهدف خاص بالمدنيين، وهو ما لا يستطيع الروبوت إدراكه. هذا الفارق هو الذي يفسِّر حدوث بعض المآسي البشرية مثل إسقاط طائرة مدنية إيرانية عام 1988 ومصرع جميع ركابها، وتدمير سيارة يركبها نساء وأطفال في كابول خلال الانسحاب الأمريكي من أفغانستان في 2021. وهذه المآسي هي ما دفعت الأمين العام للأمم المتحدة إلى وصف هذه الأسلحة بأنها "مرفوضة سياسياً وبغيضة أخلاقياً. والجدل الآخر جدل قانوني حول من يتحمّل المسؤولية الجنائية عن تصرفات تلك الروبوتات القاتلة في الاشتباكات والحروب.

ويشير إلى أنه في الماضي، تمت إقامة محاكم جنائية دولية لمُحاسبة الأفراد الذين انتهكوا قواعد القانون الدولي الإنساني، كما حدث في مُحاكمات نورمبرج ومُحاكمات مجرمي الحرب في كوسوفو. وهنا يثور السؤال حول من تتم محاسبته حال ارتكاب الروبوتات القاتلة مثل هذه الانتهاكات. ونتيجة لهذا الجدل، فقد أصبحت الروبوتات القاتلة على جدول أعمال الأمم المتحدة ومجلسها لحقوق الإنسان، ومنظمات المجتمع المدني، وعدد متزايد من علماء الذكاء الاصطناعي، الذين يطالبون بالتوقيع على اتفاقية دولية تُحرِّم بعض أنواع الروبوتات القاتلة أو بعض استخداماتها، كما حدث من قبل بالنسبة للأسلحة البيولوجية والكيميائية. ويتخوف هؤلاء من احتمال أن يشهد المستقبل انتهاء سيطرة الإنسان على استخدام القوة، وأن تصبح الحروب مواجهة بين جيوش من الروبوتات الذكية المستقلة، التي لا تحكمها اعتبارات أخلاقية أو إنسانية بأي حال من الاحوال..

ويؤكد عامر إن التحدي الحقيقي الذي نواجه هو كيفية تحقيق التوازن بين الاستفادة من التقنيات الجديدة للذكاء الاصطناعي كما في الروبوتات القاتلة او الطائرات المسيرة او المركبات والغواصات ذاتية التشغيل.. الخ، لزيادة فعالية القوات المسلحة وفقا لرؤية واضحة ومحددة لمستقبل هذه التكنولوجيا والدور الذي تؤديه في تشكيل مستقبلنا العسكري؛ حيث يجب أن نسعى دائما لاستخدام التكنولوجيا بما يخدم مصالحنا الاستراتيجية. وبناء عليه، فإن سباق التسلح اليوم هو في تطوير شبكات الاتصال بين قواعد البيانات الضخمة التي تحفظ فيما يعرف بالسحابة القتالية، حيث يؤدى الذكاء الاصطناعي دورا محوريا اليوم في آلية تطوير المنظومة الدفاعية، في ضوء الحروب المستقبلية.

ويرى أن هناك مخاوف من إمكانية استخدام الذكاء الاصطناعي لتوليد صور أو مقاطع فيديو أو صوت أو نصوص مزيفة (التزييف العميق) باستخدام أدوات التعلم الآلي المتقدمة، مما يؤدي إلى انتشار المعلومات المضللة على نطاقات ضخمة عبر الإنترنت، وهذا يمكن أن يقوض سلامة المعلومات ويقوض الثقة في مصادر الأخبار وفي نزاهة المؤسسات الديمقراطية. وفي سيناريو مرعب، قد يدفع ظهور التزييف العميق صناع القرار في مجال الأمن القومي في يوم من الأيام إلى اتخاذ إجراءات فعلية بناء على معلومات خاطئة، مما قد يؤدي إلى أزمة كبيرة، أو أسوأ من ذلك: الحرب. ولا شك أن القدرة على تطويع وتطوير تقنية الذكاء الاصطناعي ستمثل مستقبلًا أحد مؤشرات قياس قوة الدولة. لكن هذا التطور يظل سلاحًا ذا حدين، فرغم أنه يضمن مجموعة من المزايا للدول التي تمتلكه، إلا أنه يترك خلفه جملة من التهديدات.

ويشير إلى التهديدات التي يمكن أن يخلفها هذا التطور للذكاء الاصطناعي، منها:

أولا تزايد حالة اللايقين الدولي: ويزداد هذا التخوف في ضوء توسع الدول الكبرى في تطبيق استراتيجيات لتطوير واستخدام تقنيات الذكاء الاصطناعي، الأمر الذي يزيد الشكوك حول طرق وكيفية استخدام هذه التكنولوجيات الجديدة. فقد وضعت الصين استراتيجية تسعى من خلالها إلى أن تصبح رائدة في هذا المجال بحلول عام 2030، وأصبحت الصين بالفعل من أكثر الدول جذبًا لاستثمارات الذكاء الاصطناعي وتمويله؛ حيث بلغت حصة الصين نحو 60 بالمئة من الاستثمارات العالمية في مجال الذكاء الاصطناعي خلال الفترة من 2013 حتى 2018. وبالمثل تعمل روسيا على أن يصبح 30 بالمئة من معداتها العسكرية روبوتية بحلول 2025، وذلك وفقًا لبرامج تحديث عسكرية كانت قد بدأتها منذ عام 2008. كما تستمر الولايات المتحدة الأميركية في تعزيز قدراتها في هذا المجال وفقًا لاستراتيجية البنتاجون 2018 التي دعت إلى تسريع استخدام أنظمة الذكاء الاصطناعي في جميع فروع الجيش الأميركي.

ثانيا التطويع لأغراض إرهابية: فكما تتيح تقنيات الذكاء الاصطناعي إمكانات هائلة للدولة والجيوش النظامية، فإنها تتيح أيضًا إمكانات مهمة للجماعات والتنظيمات الإرهابية. فقد أشارت بعض التقارير إلى نجاح تنظيم “داعش” في استخدام الطائرات بدون طيار في حمل المتفجرات والمراقبة ورصد الأهداف خلال الأزمة السورية. كما كشفت وزارة الدفاع الروسية عن إحباط محاولة هجوم للجماعات المُسلحة باستخدام 13 طائرة مُسيّرة للهجوم على قاعدة حميمي ونقطة دعم القوات البحرية الروسية في طرطوس وذلك في يناير 2018. وبالمثل، قام الحوثيون باستخدام سلاح الجو المُسيّر خلال عام 2018 في 38 مناسبة، من بينها 28 عملية داخل اليمن، مقابل 10 عمليات ضد منشآت وتجمعات عسكرية في السعودية والإمارات، وهو ما يعني أن خطر هذه التقنية قد يمتد ليصل بسهولة إلى أيدي الجماعات والتنظيمات الإرهابية.

ثالثا خداع واختراق المجتمعات: يمكن استخدام الذكاء الاصطناعي في اختراق خصوصية المجتمعات والتأثير على منظومتها القيمية، عبر تطبيقات دراسة أنماط الاستهلاك والتفكير والتفاعل، ثم نشر الأكاذيب والتقارير المزيفة، والتأثير على الرأي العام تجاه القضايا السياسية وتغيير التوجهات العامة لمجتمع ما، بل وحشده لدعم وتأييد أفكار محددة دون الأخرى، وهو ما بدا واضحًا من خلال اتهام الاستخبارات الأمريكية للحكومة الروسية بالتأثير على نتائج انتخابات الرئاسة الأميركية 2016 لصالح دونالد ترامب على حساب هيلاري كلينتون عبر عملية قرصنة لرسائل البريد الإلكتروني.

رابعا تراجع المسئولية الأخلاقية: يؤدي استخدام الذكاء الاصطناعي إلى غياب المسئولية الأخلاقية والقانونية، خاصة في ظل الصراعات والنزاعات المُسلحة، حيث لا تراعي هذه التقنيات الأعراف والمواثيق الدولية والإنسانية التي تفرض التمييز بين الأهداف المدنية والعسكرية. ففي الوقت الذي يتمكن فيه العنصر البشري من تحديد أهدافه بما لا يخالف الأعراف الدولية ويتفق مع القانون، تفشل الروبوتات والأسلحة ذاتية التشغيل في استشعار الفرق بين الأهداف العسكرية والأهداف المدنية التي لا يجب أن تكون هدفا..