عين البنتاغون على نسخ من الذكاء الاصطناعي بلا قيود أخلاقية
واشنطن - ذكر مصدران مطلعان أن وزارة الدفاع الأميركية (البنتاغون) تضغط على كبرى شركات الذكاء الاصطناعي، بما في ذلك "أوبن إيه.آي" و"أنثروبيك"، لجعل أدوات الذكاء الاصطناعي الخاصة بها متاحة على الشبكات المصنفة على أنها "سرية" دون القيود القياسية الكثيرة التي تفرضها الشركات على المستخدمين، في خطوة تعكس تسارع سباق التسلح الرقمي بين القوى الكبرى.
ووفقا للمصدرين، فإنه خلال فعالية أُقيمت في البيت الأبيض الثلاثاء، قال إميل مايكل، كبير مسؤولي التكنولوجيا في البنتاجون، لمسؤولين تنفيذيين في قطاع التكنولوجيا إن الجيش الأميركي يهدف إلى إتاحة نماذج الذكاء الاصطناعي للعمل على كل من الشبكات السرية وغير السرية، في إطار رؤية أوسع لدمج تقنيات الذكاء الاصطناعي في البنية التحتية الدفاعية بشكل كامل.
وقال مسؤول مع طلب عدم الكشف عن هويته، إن البنتاغون "يتحرك لنشر قدرات الذكاء الاصطناعي المتطورة عبر جميع الشبكات بمختلف مستويات السرية"، مضيفا أن الوزارة تعتبر الذكاء الاصطناعي "مضاعفا للقوة" في بيئة أمنية دولية تتسم بتزايد التوترات الجيوسياسية.
يتحرك لنشر قدرات الذكاء الاصطناعي المتطورة عبر جميع الشبكات بمختلف مستويات السرية
ويأتي هذا التوجه في سياق استراتيجية دفاعية أميركية جديدة تعطي أولوية لما يسمى "الحرب الخوارزمية"، حيث تلعب البيانات والتحليلات المتقدمة دورا محوريا في التخطيط العملياتي. وكانت وزارة الدفاع قد أطلقت في السنوات الأخيرة مبادرات عدة، من بينها "مكتب الذكاء الاصطناعي والرقمي" (CDAO)، لتسريع دمج تقنيات التعلم الآلي في مجالات الاستخبارات والمراقبة والاستطلاع.
وهذا هو أحدث تطور في المفاوضات الجارية بين البنتاغون وكبرى شركات الذكاء الاصطناعي حول كيفية استخدام الولايات المتحدة للذكاء الاصطناعي في أي ساحة قتال مستقبلا، والتي تهيمن عليها بالفعل أسراب الطائرات المسيرة وأجهزة الروبوت والهجمات الإلكترونية. ويقول محللون عسكريون إن الحروب الحديثة باتت تعتمد بشكل متزايد على تحليل كميات هائلة من البيانات في الوقت الحقيقي، من صور الأقمار الصناعية إلى إشارات الاتصالات.
ومن المرجح أن تؤدي تعليقات مايكل إلى تكثيف الجدل المحتدم بالفعل حول رغبة الجيش في استخدام الذكاء الاصطناعي دون قيود، وقدرة شركات التكنولوجيا على وضع حدود حول كيفية نشر أدواتها. فقد وضعت شركات مثل "أوبن إيه.آي" و"أنثروبيك" سياسات استخدام تمنع توظيف نماذجها في تطوير أسلحة أو أنظمة تستهدف البشر بشكل مباشر، في إطار التزامات معلنة تتعلق بالسلامة والأخلاقيات.
وتطور شركات كثيرة للذكاء الاصطناعي أدوات مخصصة للجيش الأميركي، ومعظمها متاح فقط على شبكات غير مصنفة على أنها سرية تُستخدم عادة للإدارة العسكرية أو التحليل غير الحساس. وهناك شركة واحدة فقط للذكاء الاصطناعي وهي "أنثروبيك" تتيح أدواتها للشبكات السرية من خلال أطراف ثالثة، لكن الحكومة لا تزال مقيدة بسياسات الاستخدام التي تحددها الشركة، بما في ذلك ضوابط تمنع بعض أنواع الاستعمالات القتالية المباشرة.
وتُستخدم الشبكات السرية للتعامل مع مجموعة واسعة من الأعمال الأكثر حساسية، التي يمكن أن تشمل تخطيط المهام، وتقييم المخاطر، وتحليل أهداف محتملة، أو استهداف الأسلحة. ولم تتمكن رويترز من تحديد كيف أو متى يخطط البنتاجون لنشر روبوتات الدردشة التي تعمل بالذكاء الاصطناعي على الشبكات السرية، أو ما إذا كان سيطالب بإصدارات معدلة من النماذج الحالية تتيح له مرونة تشغيلية أكبر.
ويرى بعض المسؤولين الدفاعيين أن القيود المفروضة من قبل الشركات قد تحد من فعالية هذه الأدوات في البيئات القتالية، حيث تتطلب القرارات سرعة وحسما. في المقابل، يحذر خبراء أخلاقيات التكنولوجيا من أن تخفيف الضوابط قد يفتح الباب أمام استخدامات غير خاضعة للمساءلة، خصوصا في مجالات مثل اختيار الأهداف أو تحليل بيانات الاستخبارات البشرية.
ويأمل المسؤولون العسكريون في الاستفادة من قوة الذكاء الاصطناعي في تجميع المعلومات من مصادر متعددة للمساعدة في اتخاذ القرارات، بما في ذلك دمج بيانات الاستشعار، وتقارير الميدان، وصور الأقمار الصناعية في لوحة تحليل موحدة. ورغم قوة هذه الأدوات، فإنها قد ترتكب أخطاء وحتى تختلق معلومات قد تبدو معقولة للوهلة الأولى، وهي ظاهرة تُعرف في أوساط الباحثين بـ"الهلوسة". ويقول الباحثون المعنيون بالذكاء الاصطناعي إن مثل هذه الأخطاء في الشبكات السرية قد تكون لها عواقب قاتلة، إذا استندت إليها قرارات عملياتية أو ضربات عسكرية.
ويعكس هذا الجدل الأوسع معضلة تواجهها الحكومات وشركات التكنولوجيا على حد سواء: كيف يمكن الاستفادة من قدرات الذكاء الاصطناعي المتسارعة دون تقويض الضوابط الأخلاقية أو تعريض الأمن القومي لمخاطر غير محسوبة، في وقت تتسابق فيه قوى دولية أخرى، من بينها الصين وروسيا، لتطوير قدراتها العسكرية المدعومة بالذكاء الاصطناعي.