مع دخول الذكاء الاصطناعي إلى المجال العسكري والتسليح فإن السباق الدولي نحول التسليح النووي باستخدام تقنية الذكاء الاصطناعي فإن ذلك سيضع العالم على حافة الهاوية، ويهدد الاستقرار لكاقة دول العالم، وهذه هي الرؤية التي طرحها خبراء "معهد ستوكهولم الدولي لبحوث السلام" SIBRI .
هذه الرؤية طرحها معهدSIBRI في تقرير صدر مؤخرا وقال المعهد أن تطبيقات التعلم والآلي والذاتي مكنت من إجراء تحسينات في الأنظمة المدارة آليا التي يمكنها إيجاد حلول لمشكلات عويصة ومعقدة، أو القيام بمهام كانت تعتمد في السابق على الإدراك البشري أو تتطلب تدخل الإنسان.
ومع ذلك، يظهر الباحثون أن جميع الدول التي تمتلك أسلحة نووية اتخذت فعليا من تقنيات الذكاء الاصطناعي أولوية لها، فيما يصر العديد منها على أن تصبح رائدة في هذا المجال، ويحذر التقرير أن مثل هذا التوجه قد يؤثر سلبا على العلاقات الاستراتيجية، حتى قبيل نضج أو نشر أو تطوير التطبيقات المرتبطة بالأسلحة النووية.
ويؤكد معدو التقرير أن هرولة الدول المالكة لأسلحة نووية نحو تبني تكنولوجيات الذكاء الاصطناعي لخدمة الأغراض العسكرية النووية بوجه عام والأغراض المرتبطة بالخدمات النووية، سيكون تصرفاً طائشا، لافتين إلى أن التبني غير الناضج لتطبيقات الذكاء الاصطناعي سيزيد من مخاطر تعرض الأسلحة النووية والقدرات المرتبطة للفشل أو أن يُساء استخدامها بوسائل قد تؤدي إلى حادثة أو تصعيد لأزمة أو نزاع قد يتطور إلى صراع نووي.
وتقول الخبيرة البارزة في شؤون التسليح ونزع التسلح في معهد "سيبري"، لورا سالمان: "على أي حال، ليس من المرجح أن تكون تكنولوجيات الذكاء الاصطناعي ، في حد ذاتها هي الباعث لاستخدام الأسلحة النووية"، لافتة إلى أن هناك مسببات أخرى مثل "التوجهات الإقليمية، والتوترات الجيوسياسية، وإساءة فك الشفرات وتفسيرها، يتعين أن تؤخذ في الاعتبار لاستعياب العوامل التي يمكن تسهم بها تكنولوجيات الذكاء الاصطناعي في إثارة أزمة لتصل إلى مستوي نووي".
وأوصى التقرير بأن الشفافية ومعايير بناء الثقة على صعيد تطورات وابتكارات الذكاء الاصطناعي واستخداماته وطنياً سيساعد في تقليص مثل هذه المخاطر، داعيا إلى ضرورة أن توضع تحديات استخدام الذكاء الاصطناعي كأولوية في أي نقاشات تتناول تقليص المخاطر النووية مستقبلاً.
قال كبير الباحثين في برنامج نزع الأسلحة النووية ومراقبة التسلح وعدم نشر السلاح النووي في معهد "سيبري"، بيتر توبيشاكانوف: "من الأهمية بمكان ألا نبالغ في تقدير المخاطر التي تنطوي عليها تطبيقات الذكاء الاصطناعي بالنسبة للاستقرار الاستراتيجي والمخاطر النووية. لكن يتعين علينا ألا نهون من شأن مخاطر عدم التحرك في هذا الشأن".
واقترح التقرير عددا من التوصيات والمعايير التي يتعين على الدول المالكة للأسلحة النووية اتخاذها كالتعاون بشأن إيجاد حلول جوهرية لإشكالات تأمين وسلامة الذكاء الاصطناعي ، والمشاركة في استشراف استخدامات الذكاء الاصطناعي لمراقبة التسلح، والموافقة على قيود واضحة على استخدام تقنيات الذكاء الاصطناعي في القوى النووية.