Trump yasaklamıştı. Fakat ABD’nin İran’ı Claude ile vurduğu tez ediliyor

Posted by

ABD Başkanı Donald Trump’ın yapay zeka şirketi Anthropic’i “ulusal güvenlik riski” olarak nitelendirmesinden sadece saatler sonra, şirketin Claude isimli yapay zeka modelinin İran’a düzenlenen geniş çaplı bir ABD hava taarruzunda kilit rol oynadığı öne sürüldü. ABD basınında yer alan yeni bir haber, Washington’da teknoloji ve savunma sınırında yaşanan tansiyonu gözler önüne serdi.

Cuma günü Trump, federal kurumların Anthropic’in yapay zeka modellerini derhal kullanmayı bırakmasını emreden bir başkanlık kararnamesi imzaladı. Kararın, şirketin askeri makamlara teknolojisinin “herhangi bir yasal amaçla” sınırsız kullanım hakkını vermeyi reddetmesinin akabinde geldiği bildirildi. Anthropic, bunun yerine etik sınırlamaların korunmasında ısrar etti.

Ancak kararın mürekkebi kurumadan ABD Hava Kuvvetleri’ne ilişkin jetlerin İran’daki gayelere yanlışsız yola çıktığı aktarıldı. Hususa yakın kaynaklara nazaran United States Central Command sistemleri; istihbarat değerlendirmeleri yapmak, gaye belirlemek ve gerçek zamanlı muharebe senaryoları simüle etmek için Claude modelinden yararlandı.

Pentagon ile Anthropic ortasında derin ayrışma

Trump idaresi ile Anthropic ortasındaki tansiyon sırf ticari bir mukavele uyuşmazlığı değil. Anthropic, OpenAI ve Google ile birlikte dünyanın önde gelen üç yapay zeka şirketinden biri olarak kabul ediliyor. Şirket, “Constitutional AI” ismini verdiği yaklaşım kapsamında modellerine demokratik ve etik unsurlar yerleştirdiğini savunuyor.

Pentagon ile yürütülen büyük ölçekli bir mukavele görüşmesinde Anthropic’in, insan kontrolü olmadan büsbütün otonom ölümcül kararlar alınmasına ya da kitlesel nezaret faaliyetlerine sistemlerinin entegre edilmesine müsaade vermediği argüman edildi. İdare yetkilileri bu tavrı meydan okuma olarak değerlendirdi. Savunma Bakanı Pete Hegseth ise şirketi, ekseriyetle Huawei üzere hasım yabancı firmalar için kullanılan bir tanımlamayla “tedarik zinciri riski” olarak nitelendirdi.

Anthropic geri planda kalırken rakipler süratle durum aldı. Haberlere nazaran OpenAI ve Elon Musk’ın şirketi xAI, idareyle bâtın ortamlarda kullanım için yeni mutabakatlar imzaladı. Claude, karmaşık metin ve kod tahlilinde yüksek doğruluğa sahip bir model olarak görülüyor; lakin katı etik müdafaalarla sonlandırılmış durumda.

Buna karşılık xAI’ın Grok modeli daha esnek ve ideolojik kısıtları daha az bir yapı sunduğu savıyla pazarlanıyor. OpenAI da ABD Savunma Bakanlığı için birincil altyapı sağlayıcısı olma maksadı doğrultusunda GPT-4o modelinin askeri kullanımına yönelik genel yasağını kaldırdı.

Savaş alanında yapay zeka dönemi

Uzmanlar, ABD ordusunun Claude’dan ayrılmasının “açık kalp ameliyatı” tesiri yaratabileceği ikazında bulunuyor. Modelin, ABD güvenlik operasyonlarını destekleyen bilgi analitiği şirketi Palantir Technologies sistemlerine derin biçimde entegre olduğu belirtiliyor. Claude’dan büsbütün vazgeçilmesinin en az altı ay süreceği, bu nedenle idarenin kamuoyunda eleştirdiği bir aracı fiilen kullanmaya devam ettiği tabir ediliyor.

Elbette savaş alanında yapay zeka kullanımı yeni değil. ABD ordusu 1990’larda Körfez Savaşı sırasında DART lojistik sistemini devreye almıştı. Çağdaş dönüşüm ise 2017’de başlatılan ve görüntü manzaralarında obje tespiti yapmayı amaçlayan Project Maven ile sürat kazandı.

İsrail tarafında ise Gazze’deki çatışmalar sırasında ismi sıkça anılan “Habsora” ve “Lavender” sistemleri, büyük data setlerini işleyerek maksat havuzları oluşturuyor. Temel fark, İsrail sistemlerinin büyük ölçüde askeri teknoloji üniteleri tarafından kurum içinde geliştirilmesi; ABD’nin ise özel ticari şirketlere ağır biçimde bağımlı olması. Bu durum, siyaset yapıcılar ile teknoloji firmaları ortasında sürtüşmeye neden oluyor.

Avrupa, yapay zeka düzenlemelerini sıkılaştırırken Çin, lisan modellerini tesir operasyonlarında devreye alıyor. ABD ise süratli bir teknolojik dönüşüm sürecinden geçiyor. Tartışma artık yapay zekanın savaşı şekillendirip şekillendirmeyeceği değil. Asıl soru, hayati kararları yönlendiren dijital sistemlere hangi pahaların gömüleceği ve bu bedelleri kimin belirleyeceği.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir