Yapay zeka teknolojileri, nükleer caydırıcılık alanında çalışan uzmanlar tarafından hızla karar süreçlerine entegre edilmesinin yaratabileceği riskler konusunda kaygılarını artırıyor. Gelecek riskler üzerine konuşan uzmanlar, kriz anlarında yapay zekanın davranışlarını öngörmenin giderek zorlaştığını belirtiyor.
Stanford Üniversitesi’nden Jacquelyn Schneider’in uyarılarına göre, savaş simülasyonlarında test edilen yapay zeka sistemleri, krizleri yatıştırmak yerine tırmandırma eğilimi gösterebiliyor. Schneider, “Yapay zeka sanki gerilimi artırmayı anlıyor ama azaltmayı anlamıyor. Nedenini biz de bilmiyoruz” sözleriyle konunun derinliğine dikkat çekti.
Asıl tehlike, bu teknolojinin henüz tam olarak nasıl çalıştığı bilinmezken Pentagon karar süreçlerinde giderek daha fazla yer bulmasıdır. Uzmanlar iki olası senaryodan endişe duyuyor: ya yapay zekaya doğrudan nükleer silah kullanma yetkisi verilecek ya da komutanlar onun tavsiyelerine körü körüne güvenerek ölümcül bir karar alacak. Pentagon ise “nükleer silahlarda her zaman insan denetiminin süreceğini” iddia ediyor.
Ancak uzmanlara göre, Rusya ve Çin gibi rakip ülkeler de benzer teknolojilere yöneldikçe bu ilke zamanla aşınabilir; sonuç olarak karar süreçlerinde insan kontrolünün rolü giderek daha kırılgan bir konuma gelebilir.