Anthropic tarafından paylaşılan yeni bilgilere nazaran, Public API üzerinden gerçekleştirilen araç davetlerinin yaklaşık yarısı yazılım mühendisliği alanından geliyor. Müşteri hizmetleri, satış, finans ve e-ticaret üzere öteki dalların her biri ise sırf birkaç puanlık hisseye sahip.
Bu tablo, üretken yapay zekânın bilhassa yazılım geliştirme süreçlerinde ağır biçimde konumlandığını gösteriyor.
Claude Code’un otonomi mühleti uzadı
Şirketin dataları, Claude Code’un bağımsız çalışma müddetinde de dikkat alımlı bir artış olduğunu ortaya koyuyor. Üç ay evvel 25 dakikanın altında olan kesintisiz otonom çalışma müddeti, artık 45 dakikanın üzerine çıkmış durumda.
Bu artış, yapay zekâ sistemlerinin daha uzun ve karmaşık misyonları insan müdahalesi olmadan sürdürebildiğine işaret ediyor.
OpenAI: Değişim sırf yeni modellerle hudutlu değil
OpenAI ise otonomideki artışın sırf en yeni ve yüksek performanslı modellere bağlı olmadığını belirtiyor. Şirkete nazaran bu gelişme, yeni model denemelerinden çok daha geniş çaplı bir “agentic AI” (ajan temelli yapay zekâ) yaklaşımına geçişin sonucu.
Kullanıcı inancı artıyor lakin tam kapasite kullanılmıyor
OpenAI’nin yayımladığı blog yazısında, kullanıcıların vazifeler daha karmaşık hâle geldikçe yapay zekâya daha fazla güvenmeye başladığı tabir ediliyor. Buna rağmen “deployment overhang” olarak tanımlanan bir durum dikkat çekiyor: Modellerin yetenekleri, kullanıcıların fiilen müsaade verdiği kullanım senaryolarının önünde ilerliyor.
Bağımsız değerlendirmeler de uygun şartlar altında modellerin çok daha uzun misyonları muvaffakiyetle tamamlayabildiğini gösteriyor.
Karmaşık misyonlarda insan kontrolü azalıyor
Kodlama tarafında dikkat çeken bir öteki nokta ise vazife karmaşıklığı arttıkça insan kontrolünün azalması. Exploit keşfi yahut derleyici yazımı üzere ileri düzey vazifelerde insan nezareti oranı yaklaşık yüzde 67 düzeyinde. Buna karşılık kolay API vazifelerinde bu oran yüzde 87’ye kadar çıkıyor.
Ayrıca Claude, yüksek karmaşıklıktaki misyonlarda kolay vazifelere kıyasla yaklaşık iki kat daha fazla açıklayıcı soru yöneltiyor. Bu yaklaşım, belirsizlikleri azaltma ve yanlışsız sonuca ulaşma açısından kıymetli bir strateji olarak bedellendiriliyor.
Belirsizliği tanıyan modeller ön planda olacak
Anthropic, ileriye dönük olarak modellerin meçhullüğü tanıyabilmesi ve gerektiğinde proaktif biçimde açıklama istemesinin kritik olduğunu vurguluyor. Şirket ayrıyeten her aksiyon için manuel onay mecburiliği getirilmesini önermiyor. Buna nazaran daima insan onayı talep etmek, güvenliği manalı ölçüde artırmadan süreci yavaşlatabiliyor.







Bir yanıt yazın