Pentagon Claude’u istedi, Anthropic “hayır” dedi

Posted by

ABD Savunma Bakanlığı’nın (Pentagon) önde gelen yapay zeka şirketlerinden Anthropic’e sunduğu talep, teknoloji dünyasında dikkat çeken bir tansiyona yol açtı. Teze nazaran Pentagon, şirketten geliştirdiği Claude modelini askeri hedeflerle, şirketin kendi güvenlik sonlarını aşabilecek biçimde kullanıma açmasını istedi. Aksi halde önemli yaptırımların gündeme gelebileceği belirtildi.

Anthropic CEO’su Dario Amodei, bu talebi kabul etmeyeceklerini açıkladı. Amodei, Savunma Bakanlığı’nın isteğine “vicdanen onay veremeyeceklerini” söz etti.

Bu yazımız da ilginizi çekebilir: Yapay zekâ devlerinde askeri kullanım krizi: 450’den fazla imza

OpenAI cephesinden birinci açıklama

Gelişmelerin akabinde OpenAI CEO’su Sam Altman da şirket içinde paylaşılan bir notla misal bir duruş sergileyeceklerini duyurdu. Altman, yapay zekanın kitlesel nezaret yahut otonom ölümcül silahlar için kullanılmaması gerektiğini, yüksek riskli otomatik karar süreçlerinde kesinlikle insan kontrolünün bulunması gerektiğini belirtti. Bu unsurların şirket için “kırmızı çizgi” olduğunu vurguladı.

Bu yaklaşım, Anthropic’in savunduğu sonlarla büyük ölçüde örtüşüyor. Fakat Pentagon’un, yapay zekayı “tüm yasal gayeler için” kullanmak istediğini belirtmesine karşın, mevcut yasal çerçevenin otonom silahları açık biçimde yasaklamadığı tabir ediliyor.

Savunma emelli kullanım da kâfi olmadı

Anthropic’in daha evvel, Claude’un “savunma emelli silah sistemlerinde” kullanılmasına hudutlu bir istisna tanıdığı öne sürüldü. Buna karşın taraflar ortasındaki uyuşmazlık sona ermedi. Bu durum, Savunma Bakanlığı’nın daha geniş yetkiler talep ettiğine işaret ediyor.

Benzer bir tartışma daha evvel Google içinde de yaşandı. 100’den fazla çalışan, şirket idaresine bir mektup göndererek Pentagon ile iş birliği sürdürülüyorsa Anthropic’in belirlediği kırmızı çizgilerin benimsenmesini talep etti.

Pentagon’un baskı iddiaları

Hafta boyunca kamuoyuna yansıyan bilgilere nazaran Pentagon, Anthropic’e çeşitli senaryolar yöneltti. Bunlardan biri, Claude’un ABD’ye fırlatılan kıtalararası bir balistik füzeyi düşürmek için kullanılıp kullanılamayacağı sorusuydu. Bu ayrıntı birinci olarak The Washington Post tarafından aktarıldı.

Ayrıca Savunma Bakanlığı’nın, şirketle olan kamu mukavelelerini iptal etme, Anthropic’i “tedarik zinciri riski” ilan etme ya da Defense Production Act kapsamında şirketi askeri maksatlara uygun bir model geliştirmeye zorlayabileceği tarafında ikazlarda bulunduğu bildirildi. Lakin daha sonra Bloomberg, Pentagon’un müzakereye açık olduğunu yazdı.

Anthropic’in elini güçlendiren bir öbür öge ise Savunma Bakanlığı’nın sıkça çalıştığı Palantir Technologies altyapısının Anthropic modellerine dayanıyor olması.

Tartışma toplumsal medyaya taşındı

Gerginlik ilerledikçe açıklamalar daha sert bir tona büründü. ABD Savunma Bakan Yardımcısı Emil Michael, toplumsal medya üzerinden Amodei’yi “yalan söylemekle” suçladı ve şirketin tavrını eleştirdi. Michael ayrıyeten Anthropic’in Claude için oluşturduğu “anayasa” niteliğindeki davranış prensiplerinin ABD Anayasası’nın önüne geçirilmek istendiğini tez etti.

Anthropic cephesi ise temel konumunun değişmediğini vurguluyor: Yapay zekanın kitlesel nezaret yahut nükleer silah gibisi ölümcül sistemlerde otonom halde kullanılmasına karşı çıkılıyor.

Kamuoyu nezdinde tartışmanın nasıl sonuçlanacağı belirsizliğini korurken, yapay zekanın askeri kullanımı konusundaki hudutlar bir sefer daha gündemin merkezine yerleşmiş durumda.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir