وكالات - النجاح الإخباري - حذّرت إيرين دومباتشر، الباحثة في الأمن النووي بمجلس العلاقات الخارجية الأميركي، من المخاطر المتزايدة للذكاء الاصطناعي على الأمن النووي العالمي، معتبرة أن اندماج هذه التقنيات مع منظومات الإنذار المبكر وصنع القرار العسكري قد يفتح الباب لحرب نووية محتملة، نتيجة الإنذارات الخاطئة أو المعلومات المزيفة.
وأوضحت دومباتشر، في مقال نشرته مجلة فورين أفيرز الأميركية، أن حادثة عام 1983، حين أشارت منظومة إنذار سوفياتية عن خطأ إلى إطلاق هجوم نووي أميركي، تشكل تذكيرًا دائمًا بأهمية التدخل البشري لتفادي كارثة محتملة، مؤكدة أن هذا الخطر ازداد اليوم مع إدخال الذكاء الاصطناعي وتقنيات التزييف العميق في البنية الأمنية والعسكرية.
وقالت دومباتشر إن تقنيات "التزييف العميق" قادرة على تقليد أصوات وصور القادة السياسيين بشكل يجعل التمييز بين الحقيقي والمفبرك بالغ الصعوبة، وهو ما قد يؤدي إلى استنتاج خاطئ بهجوم وشيك أو قائم خلال أزمة دولية، دون أي قرار سياسي متعمد.
وحذرت الخبيرة من احتمال تفويض الآلات لاتخاذ قرارات استخدام السلاح النووي، مشيرة إلى أن الاستراتيجية الدفاعية الأميركية لعام 2022 تنص على ضرورة بقاء الإنسان داخل دائرة القرار، وهو ما يُطبق أيضًا في التفاهمات الدولية مع الصين.
وأشارت دومباتشر إلى أن إدماج الذكاء الاصطناعي في أنظمة الإنذار المبكر والقيادة والسيطرة يجب أن يكون محدودًا، لتجنب "الأزمات المتسلسلة" الناتجة عن أخطاء الآلة أو الظاهرة المعروفة باسم "الهلوسة"، حيث قد تستنتج الخوارزميات تهديدات وهمية يثق بها صانع القرار البشري.
وأوضحت أن ندرة البيانات الحقيقية حول الهجمات النووية تجعل تدريب خوارزميات موثوقة أمرًا صعبًا، ما يزيد احتمالات الخطأ، مؤكدة أن القرارات المصيرية يجب أن تُتخذ على أساس معلومات مؤكدة وغير معدلة، مع تحسين تتبع مصادر المعلومات المولدة بالذكاء الاصطناعي.
واختتمت دومباتشر مقالها بالقول إن التحدي الحقيقي في عصر الذكاء الاصطناعي لم يعد يقتصر على منع إطلاق الصواريخ، بل على الحيلولة دون اتخاذ قرارات نووية بناءً على وهم رقمي قد يؤدي إلى نهاية العالم.