Hayır, Anthropic yapay zekanın “iyi çocuğu” değil… Başkaları gibi!

Posted by

Pentagon’un Anthropic’e verdiği ültimatomun gölgesinde başlayan tartışmalar yapay zeka şirketlerinin askeri kullanım konusundaki gerçek durumlarını yine gündeme taşıdı. ABD Savunma Bakanlığı’nın talebi epeyce net. Şirketler, ABD ordusuna kitlesel nezaret ve tam otonom ölümcül silah sistemleri dahil olmak üzere teknolojilerinin “yasal olan her hedef için” kullanılmasına müsaade vermeli. Aksi halde “ulusal güvenlik açısından tedarik zinciri riski” olarak damgalanma ihtimalini göze almalılar. Bu etiket, yüz milyarlarca dolarlık kamu kontratlarından dışlanmak manasına gelebilir. Anthropic, bir mühlet evvel ABD’ye boyun eğmedi ve tedarik zinciri riski damgasını yedi. Lakin bu, Anthropic’i yapay zekanın düzgün çocuğu yapmıyor.

Anthropic CEO’su Dario Amodei, kamuoyuna yaptığı açıklamada Pentagon’un tehditlerinin şirketin konumunu değiştirmeyeceğini söyledi. Lakin bu çıkış, şirketi otomatik olarak “iyi taraf” yapmıyor. Amodei, ölümcül otonom silahlara ilkesel olarak karşı olmadığını, sadece bugünkü teknolojinin gereğince emniyetli olmadığını savundu. Yani teknoloji kâfi olduğunda “ABD dışındaki insanları” gözetlemek ve teknolojisinin otonom silah haline gelmesinde bir sorun görmüyor. Hatta bu sistemlerin güvenilirliğini artırmak için Savunma Bakanlığı ile Ar-Ge ortaklığı bile önerdi. En azından Anthropic, ABD hariç 194 ülkede OpenAI yahut öbür şirketlerden farklı olarak algılanmamalı bu bahiste.

Kırmızı çizgiler sahiden nerede başlıyor?

ABD Savunma Bakanlığı haftalar boyunca Anthropic’in güvenlik bariyerlerini gevşetmesini talep ederken bölümdeki öbür oyuncuların tavrı da sorgulandı. OpenAI ve Elon Musk’ın kurduğu xAI, halihazırda emsal kaideleri kabul etmiş durumda. Anthropic’in devreden çıkmasının çabucak akabinde Pentagon ile kontrat imzalayan OpenAI ise X hesabından şunları söyledi:

“ABD Savaş Bakanlığı ile yaptığımız anlaşma, belirlediğimiz kırmızı çizgileri koruyor:

  • Kitlesel iç nezaret için OpenAI teknolojisinin kullanılması yasaktır.
  • Otonom silah sistemlerini yönlendirmek için OpenAI teknolojisi kullanılmayacak.
  • Yüksek riskli otomatik kararlar için OpenAI teknolojisi kullanılmayacak (örneğin “sosyal kredi” üzere sistemler).”

Ancak OpenAI, sitesindeki metinde açıkça şunu söylüyor: “Savaş Bakanlığı, hukuka uygun amaçlar, operasyonel gereklilikler ve yerleşik güvenlik ve kontrol protokolleri ile uyumlu olarak, tüm yasal maksatlar için AI Sistemini kullanabilir.”

Öncelikle “lawful purposes” yani “hukuka uygun amaçlar” sözü epeyce geniş bir çerçeve sunuyor. Hukuka uygunluk tarifi mevcut maddelerle sonlu ve yasalar değiştirilebilir. Bilhassa ABD savunma mevzuatı ve ulusal güvenlik istisnaları düşünüldüğünde, bu söz teknolojinin kullanım alanını önemli biçimde genişletebilecek bir esneklik içeriyor. Tıpkı metinde ayrıyeten “otonom silahları bağımsız biçimde yönlendirmeyecek” sözü dikkat çekiyor. Bu, sistemin direkt tetik çekmeyeceği manasına geliyor. Fakat amaç tahlili, tehdit sınıflandırması yahut operasyonel teklif üretimi üzere karar öncesi kritik evrelerde rol almasının önü kapatılmış değil. Üçüncü olarak, “yüksek riskli otomatik kararlar” sözü sırf insan onayı gerektiren durumlarla sonlandırılmış. Şayet mevzuat bir alanda insan onayı zaruriliği getirmiyorsa, teorik olarak sistem daha geniş karar dayanak rollerinde kullanılabilir. “Sosyal kredi sistemi” üzere örnekler bilhassa zikredilmiş olsa da, daha gri alanlara ait net bir hudut çizilmiyor.

Dolayısıyla OpenAI, yaptığı açıklamasında güçlü prensipler ve yasal atıflar yapıyor olsa da profesyonel olmayan bir göz bile metinde açıkların olduğunu net bir formda görebiliyor.

Üstelik Sam Altman idaresindeki OpenAI, mukavelelerde “kırmızı çizgileri” muhafazaya çalıştığını söylese de 2024 yılında hizmet koşullarından “askeri ve savaş” kullanımına yönelik yasağı kaldırmıştı. Sonrasında şirket, otonom silah üreticisi Anduril ile iş birliği yaptı ve Pentagon’la muahede imzaladı.

Anthropic de bu hafta, uzun müddettir savunduğu “sorumlu ölçekleme” siyasetinde değişikliğe giderek güvenlik taahhütlerini esnetti. Emel, hızlanan yapay zeka yarışında geri kalmamak. Bu tablo, etik prensiplerin birçok vakit ticari rekabetle birlikte tekrar tanımlandığını ortaya koyuyor.

2024 yılında Anthropic, Palantir ve Amazon Web Services (AWS) ile bir iştirak kurarak ABD istihbarat ve savunma kurumlarına Claude yapay zeka modellerini sunma kararı almıştı. Claude böylelikle Pentagon’un “Impact Level 6” (IL6) denilen, en üst seviye “Gizli” (Secret) sınıfındaki bilgilerinin işlendiği ağlara giren birinci ve tek öncü yapay zeka modeli olmuştu. Yani Anthropic, Amerikan ordusunun en mahrem datalarını tahlil etmek için istekli olarak masaya oturdu.

Anthropic, zati Claude’un füze savunma sistemlerinde ve siber savunmada kullanılmasına halihazırda onay vermiş durumdaydı. Claude, karmaşık savaş alanı bilgilerini tarayarak kumandanlara “karar desteği” sunmak için kullanılıyordu. Anthropic’in itirazı yapay zekanın savaşta kullanılmasına değil, yalnızca “tetiği çekenin insan olmaması” ve “Amerikan vatandaşlarının izlenmesi” şartınaydı. Yani yabancı bir ordunun askerlerini gaye alan bir operasyonda Claude’un lojistik yahut stratejik takviye vermesine şirket hiçbir vakit karşı çıkmadı.

Büyük oyuncular esasen olaya dahil

Amazon, Google ve Microsoft üzere devler de savunma ve istihbarat kurumlarına yapay zekâ hizmetleri sunuyor. 2018’de Google çalışanlarının Pentagon’la yürütülen “Project Maven” iştirakine karşı başlattığı protesto, şirketi geri adım atmaya zorlamıştı. Lakin bugün tablo farklı. Çalışanlara nazaran kesimde kaygı ve sessizlik hakim.

Microsoft cephesinde de benzeri tenkitler var. Şirket, İsrail Savunma Kuvvetleri ile yürüttüğü iş birlikleri nedeniyle çalışan protestolarıyla karşılaşmıştı. Çünkü şirketin teknolojileri, Filistinlileri ve muhalifleri kitlesel olarak gözetlemekte kullanılıyordu. Yansılar sonrasında iştiraklerin kimi kısımlarının sonlandırıldığı açıklanmıştı. Ayrıyeten şirketin bir “Sorumlu Yapay Zeka” taahhüdü de var fakat şirket çalışanlarına nazaran bu bahiste manalı bir taahhütte bulunmak yerine, kâr elde etmek öncelikli durumda.

Eski bir xAI çalışanına nazaran ise daldaki herkes zati katil robotlar üzerinde çalışıyor. Hükümetle çalışmayan şirketler “ülkenin çıkarlarına karşı” konumlanmış üzere algılanıyor. Savunma projelerinde yer almak, artık birtakım etraflarda “vatanseverlik” göstergesi olarak sunuluyor.

Bu atmosferde Anthropic’in görece “dik” duruşu kıymetli fakat bunun sürdürülebilirliği ne kadar mümkün bilinmeyen. ABD’de “tedarik zinciri riski” ilan edilmek Savunma Bakanlığı ile çalışan tüm tedarikçi ve yüklenicilerin sizinle çalışmadıklarını belgelemelerini zarurî kılıyor. Mevcut konjonktürde Anthropic’in bu damga ile hayatta kalması güç.

Sorun tek bir şirket değil

Teknoloji çalışanları ise şirketlerin Pentagon’un taleplerine karşı ortak duruş sergilemesini istiyor. 700 bini aşkın çalışanı temsil eden kümeler, askeri yapay zekada kırmızı çizgilerin netleştirilmesini talep ediyor. Bilhassa iki husus öne çıkıyor: Amerikalılara yönelik kitlesel nezaret yapılmaması ve insan kontrolü olmadan ölümcül güç kullanılmaması. Ayrıyeten Google ve OpenAI çalışanları, şirketlerini Pentagon’un taleplerini reddetmeye çağırdı.

Tabi bu çizgilerin kalıcı mı, yoksa sadece pazarlık ögesi olarak mı kullanıldığı belgisiz. Bir Microsoft çalışanına göre ABD Savunma Bakanlığı ile kapıdan içeri girdikten sonra etik kontrolü sürdürmek son derece güç. Yüksek bütçeli mukaveleler, şirketlere en kârlı seçeneği legalleştirme baskısı yaratıyor.

Sonuçta sorun sadece Anthropic değil. OpenAI, Google, Amazon, Microsoft ya da xAI… Büyük teknoloji şirketlerinin tamamı, askeri ve güvenlik projeleriyle iç içe geçmiş durumda. Sonlar yıllardır bulanık. Bugün sırf daha görünür hale gelmiş durumda.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir