كيف يعيد الذكاء الاصطناعي تشكيل التنافس العسكري الدولي؟

profile
  • clock 24 فبراير 2024, 9:21:21 ص
  • تم نسخ عنوان المقال إلى الحافظة
Slide 01

بقلم: أ.د. إنجي مهدي
 

يعد التنافس في المجال العسكري من أهم عمليات النظام الدولي التي تتأثر بالتقدم التكنولوجي، سواء في مجال الأسلحة أو الأبحاث العسكرية أو النقل. وسيكون لسباق تسلح الذكاء الاصطناعي تأثير طويل الأمد، وسيشكل جزءاً رئيسياً من سباق التسلح في العالم في القرن الحالي. ويكشف هذا عن حرب رقمية باردة جديدة بين الصين والولايات المتحدة. وهنا نشير إلى ملاحظات عن هذا التنافس الدولي:

1– تقود شركات تكنولوجيا المعلومات الكبرى في كل من الولايات المتحدة والصين استراتيجية النهوض بالذكاء الاصطناعي، وتتسابق القوى العسكرية لدمج تطبيقات الذكاء الاصطناعي في التخطيط العسكري.

2– يمثل البحث والتطوير حجر الأساس في التفوق في هذه المجال، سواء استخداماته العسكرية أو المدنية، وهو سباق محتدم بين الولايات المتحدة والصين، وبعيداً قليلاً روسيا، وبمسافات بعيدة دول أوروبية، وبقية قليلة تسعى إلى دخول المنافسة، لكن لا زالت جهودها محدودة مثل كوريا الجنوبية.

3– بما أن التنافس في هذا المجال جديد نسبياً، لم يتفق المجتمع الدولي على قواعد حاكمة ومنظمة لتطبيقاته واستخداماته المتعددة.

تأسيساً على ما سبق، ينطوي استخدام الذكاء الاصطناعي في المجال العسكري على عدد من المزايا الرئيسية، في مقدمتها استشعار التهديد بمجسات في الطائرات أو المركبات، وإرشاد المقاتلين إلى كيفية التعامل، وكذلك توفير المحتوى في برامج التدريب، وقياس درجات التقدم للمتدربين.

ويضطلع الذكاء الاصطناعي أيضاً بدعم الأمن السيبراني للأفراد العاملين وشبكات الاتصالات، وعلى النقيض من ذلك يُستخدم في الهجمات السيبرانية لعرقلة أنظمة التسليح وإغلاق البنى التحتية الحيوية، كما يحسن عمليات التجنيد ويسهل العثور على الأشخاص المناسبين (كتطبيق Gig Eagle).

واحدة من مزايا الاستخدامات العسكرية للذكاء أنه يساعد في عمليات نقل أكثر سلاسة؛ حيث يتم تجهيز المركبات الذاتية القيادة بالذكاء الاصطناعي للتعامل مع البيئات غير المألوفة. ومن أهم تطبيقات الذكاء الاصطناعي العسكري نظم الأسلحة الفتاكة الذاتية التشغيل، والمركبات الطائرة دون طيار، ونظم الذكاء الاصطناعي في الفضاء السيبراني.

بالرغم من هذه المزايا، فإن ثمة جوانب سلبية حول الذكاء الاصطناعي العسكري، وهي كالتالي:

1– إن زيادة تكامل الذكاء الاصطناعي في الأنظمة العسكرية سيكون له تداعيات خطيرة على تطبيقات الحرب، وستُطرح أسئلة أخلاقية وقانونية عديدة جديدة. الأخطر أن الاهتمام المتعمد بالأمر سيدفع في الغالب إلى التخفيف من المخاطر الأكثر تطرفاً.

2– على الرغم من المناقشات الجارية في الأمم المتحدة، فإن من غير المرجح فرض حظر دولي أو مؤسسي على الذكاء الاصطناعي العسكري قريباً.

3– يعد الانتشار المحتمل لتطبيقات الذكاء الاصطناعي العسكرية إلى تنظيمات من غير الدول مجالاً آخر للقلق.

4– تتعدد مخاطر الذكاء الاصطناعي العسكري بين مخاطر أخلاقية، ومخاطر تشغيلية حول موثوقية الأنظمة وهشاشتها وأمنها. وهناك مخاوف عالمية من زيادة الذكاء الاصطناعي لمخاطر التقدير الخاطئ في الحسابات Miss Calculation، وهو ما يمكن احتواؤه بوجود إشراف بشري. أما المخاطر الاستراتيجية، فتتعلق باحتمالية أن يزيد الذكاء الاصطناعي العسكري من نشوب حروب، وتصعيد الصراعات القائمة، وانتشارها وتعدد أطرافها من الفاعلين، سواء كانوا دولاً أو غير دول.

وبناءً على ما سبق، نتناول التوصيات التالية:

1– لا بد من ضبط الدول للاستثمار المستمر في الذكاء الاصطناعي العسكري، مع ضرورة تأكيد الحاجة إلى المساءلة البشرية.

2– ضرورة أن تسعى الحكومات إلى أن تكون لها حصة عادلة من هذه التكنولوجيا.

3– إجراء توعية مجتمعية بمدى التزام الجيوش بتخفيف المخاطر الأخلاقية المرتبطة بالذكاء الاصطناعي.

4– مراجعة السياسات مع الدول الحليفة والشركاء سواء في تطوير أو توظيف الذكاء الاصطناعي العسكري.

5– استكشاف التدابير الممكنة لبناء الثقة والحد من المخاطر على مستوى القوى الكبرى والمتوسطة، ودعم تأسيس وكالة أممية للذكاء الاصطناعي.

6– رغم الدور الواضح للذكاء الاصطناعي من الناحية التقنية، واستراتيجيات صناعة القرار العسكري، يجب ألا يكون له التأثير ذاته في العقائد العسكرية. وينبغي أن يظل دور العنصر البشري هو الأكبر في تطوير ومراجعة العقيدة العسكرية.

7– ضرورة مراقبة مدى التزام أنظمة الذكاء الاصطناعي العسكرية بالقانون الدولي.

ختاماً.. على صناع القرار دراسة الإمكانيات التي تتيحها تكنولوجيا الذكاء الاصطناعي، والتي تحمل بجانب التنافس، الكثير من فرص التعاون والاعتماد المتبادل، لا سيما في مجال حوكمة الذكاء الاصطناعي. وعليهم كذاك إدراك أن الاستعداد لعصر الذكاء الاصطناعي لا يكمن في الخوف من أضراره فقط، بل في التمكن من أدواته.

التعليقات (0)