ABD Savunma Bakanlığı ile yapay zeka şirketi Anthropic ortasında aylardır süren görüşmelerde tansiyon yükseldi. Pentagon’un şirketle olan iş münasebetini sonlandırmayı ve Anthropic’i “tedarik zinciri riski” olarak sınıflandırmayı değerlendirdiği belirtiliyor. Bu türlü bir adımın atılması halinde ABD ordusuyla çalışmak isteyen şirketlerin de Anthropic ile bağlarını koparması gerekecek. Yetkililere nazaran kriz, askeri kullanım şartları üzerindeki uyuşmazlıktan kaynaklanıyor. Pentagon, yapay zeka araçlarının “tüm yasal amaçlarla” kullanılabilmesini isterken Anthropic birtakım sınırlamaların korunmasında ısrarcı.
Pentagon sınırlama istemiyor
Pentagon’un masadaki talebi yapay zeka modellerinin silah geliştirme süreçlerinden istihbarat toplamaya, hatta muharebe alanı operasyonlarına kadar geniş bir çerçevede serbestçe kullanılabilmesi. Savunma yetkilileri, bu kapsamın operasyonel esneklik için gerekli olduğunu savunuyor.
Lakin Anthropic cephesi ise insan müdahalesi olmadan ateş açabilen silahların geliştirilmesinde modellerinin kullanılmasına karşı temkinli duruyor. Tıpkı halde ABD vatandaşlarına yönelik geniş çaplı nezaret faaliyetlerinde yapay zekanın rol almasına sınırlama getirilmesini savunuyor. Krizin merkezinde, Anthropic’in geliştirdiği Claude isimli yapay zeka modeli bulunuyor. Claude, halihazırda ABD ordusunun gizli ağlarında etkin olarak kullanılan tek yapay zeka modeli pozisyonunda. Pentagon yetkilileri, modelin yeteneklerini açıkça övüyor. Claude’un askeri operasyonlarda fiilen kullanıldığı da biliniyor. Ocak ayında eski Venezuela Devlet Başkanı Nicolas Maduro’nun yakalanmasına yönelik operasyonda Claude’dan yararlanıldığı belirtilmişti.
Savunma Bakanı Pete Hegseth’in, Anthropic ile iş ilgisini kesmeye “yakın” olduğu ve şirketi tedarik zinciri riski olarak tanımlamayı değerlendirdiği aktarılıyor. Bu çeşit bir sınıflandırma çoklukla yabancı hasımlara yönelik uygulanıyor. Hasebiyle bir ABD merkezli yapay zeka şirketi için gündeme gelmesi dikkat cazip.
Pentagon’un iptal etmeyi değerlendirdiği sözleşmenin üst sınırının 200 milyon dolar olduğu tabir ediliyor. Bu fiyat, Anthropic’in yıllık yaklaşık 14 milyar dolarlık gelirinin küçük bir kısmını oluşturuyor. Lakin mümkün bir cezanın tesiri finansal olarak çok daha büyük olacaktır.
Öte yandan Pentagon’un müzakereleri sırf Anthropic ile hudutlu değil. OpenAI, Google ve xAI ile de misal görüşmeler yürütülüyor. ABD Savunma Bakanlığı, bu şirketlerin modellerinin de “tüm yasal amaçlarla” kullanılabilmesini istiyor.







Bir yanıt yazın