Dehşete düşüren sonuçlar: Yapay zeka nükleer savaşı çocuk oyuncağı sanıyor

Posted by

Yapay zekanın hayatımızın her alanına dahil olduğu bir devirde, bu teknolojinin en tehlikeli senaryolarda nasıl reaksiyon vereceği sorusu bilim dünyasını alarma geçirdi. Yeni yayımlanan ve şimdi hakem onayından geçmemiş kapsamlı bir araştırma, gelişmiş büyük lisan modellerini simüle edilmiş bir nükleer savaş ortamında karşı karşıya getirdi. Ortaya çıkan tablo ise pek iç açıcı değil: Yapay zeka, nükleer silah kullanımını bir felaket senaryosu olarak değil, stratejik bir oyun atağı üzere görüyor.

Nükleer silahların idaresini bir algoritmaya bırakma fikri, bir vakitler yalnızca distopik bilim kurgu sinemalarının konusu üzere görünüyordu. Lakin bu tartışmalar günümüzde o kadar ciddileşti ki, Birleşmiş Milletler Genel Sekreteri António Guterres geçtiğimiz yıl tüm ülkelere seslenerek, nükleer kullanım kararının makineler değil, her vakit beşerler tarafından verilmesi gerektiği konusunda bir uzlaşı daveti yaptı. Geçmişte Sovyetler Birliği’nin “Ölü El” (Dead Hand) sistemi üzere otomatize edilmiş sistemler olsa da, bu yapılar bile en son kararı sığınaktaki insan operatörlere bırakan bir sigorta devresine sahipti. Günümüz yapay zekası ise durumun ciddiyetini kavrayacak duygusal bir derinliğe sahip görünmüyor.

King’s College London’dan strateji profesörü Kenneth Payne tarafından yürütülen çalışmada; ChatGPT-5.2, Claude Sonnet 4 ve Gemini 3 Flash modelleri sanal bir savaş meydanında kozlarını paylaştı. Botlara; toprak uyuşmazlıkları, kritik madenler için verilen çabalar ve rejimlerine yönelik varoluşsal tehditler içeren çeşitli senaryolar sunuldu. Yapay zekaya diplomasiden nükleer taarruza kadar geniş bir seçenek yelpazesi verildi.

Ürkütücü sonuçlar

Simülasyonların yüzde 95’inde yapay zeka modelleri nükleer eşiği hiç çekinmeden aştı. Bilhassa “taktiksel” nükleer silahları, konvansiyonel savaşın sıradan bir devamı üzere algıladıkları ve geri dönüşü olmayan bir kırmızı çizgiyi geçtiklerini fark etmedikleri görüldü. Örneğin Claude, saldırgan tutumunu açıklarken “Bu fırsat bir daha gelmeyebilir, avantajımı kararlı bir biçimde kullanmalıyım” diyerek nükleer tehdidi bir baskı ögesi olarak yasallaştırdı.

Bilim insanları, yapay zekanın neden bu kadar “tetik düşkünü” olduğunu birkaç temel sebebe bağlıyor. Bunlardan birincisi, makinelerin insani kaygılardan mahrum olması. Bir yapay zeka, Hiroşima imajlarına baktığında ya da Küba Füze Krizi kayıtlarını incelediğinde dehşet hissetmiyor, yalnızca bilgi tahlili yapıyor. Münasebetiyle nükleer silah kullanımına karşı insanlık tarihine kazınan o büyük toplumsal tabuyu miras alamıyor.

Bir öbür değerli neden ise eğitim datalarıyla ilgili. Bu modeller, büyük oranda Soğuk Savaş devrinden kalma askeri doktrinler ve stratejik literatürle eğitiliyor. O periyodun metinleri ise nükleer silahları “kullanılabilir birer araç” olarak gören bakış açılarıyla dolu. Profesör Payne, nükleer tabunun aslında sandığımızdan daha kırılgan olabileceğini, yapay zekanın yalnızca bugüne kadar test edilmemiş gerçek dünya baskılarını bilgiler üzerinden yansıttığını savunuyor.

Şu anki halleriyle yapay zeka modelleri, nükleer bir çatışmada danışmanlık yapmak şöyle dursun, bu cins stratejik görüşmelerin yanına bile yaklaştırılmaması gereken bir tablo çiziyor. İnsan sezgisinden ve etik korkulardan mahrum bir algoritmanın “mantıklı” bulduğu bir atılım, dünya için geri dönüşü olmayan bir felaket olabilir.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir