UNICEF: Son bir yılda 1.2 milyon çocuğun cinsel içerikli deepfake’leri oluşturuldu

Posted by

Yapay zekâ teknolojilerinin giderek daha geniş bir kitleye ulaşması, bu teknolojinin istismara ne kadar açık olduğunu da daha bariz hâle getirdi. Bilhassa yapay zekâ yardımıyla gerçek bireylerin geçersiz imgelerini oluşturan “deepfake” teknolojierli, bugün hem dezenformasyon açısından hem de ferdî mahremiyetin ihlali açısından büyük bir sıkıntıya dönüşmüş durumda. Üstelik bu istismardan çocuklar da nasibini alıyor.

UNICEF (Birleşmiş Milletler Çocuklara Yardım Fonu), son bir yıl içinde en az 1,2 milyon çocuğun manzaralarının cinsel içerikli deepfake malzemeler üretmek için manipüle edildiğini açıkladı. Internet Watch Foundation’ın dataları de bu açıklamayı destekliyor. IWF, yapay zekâ üretimi çocuk istismarı görüntülerinde bir yıl içinde yüzde 26 binin üzerinde artış tespit edildiğini bildiriyor.

Bazı Ülkelerde Artık Her 25 Çocuktan Biri Bu Sorunu Yaşıyor

UNICEF’in çocukların cinsel sömürüsüne karşı çalışan global ECPAT ağı ve INTERPOL ile birlikte yürüttüğü araştırmaya nazaran, 11 ülkede yapılan anketlerde 1.2 milyondan fazla çocuk manzaralarının müsaadesiz biçimde yapay zekâ araçlarıyla değiştirilerek cinsel içerikli malzemelere dönüştürüldüğünü beyan etti. Kimi ülkelerde mağduriyet oranının 25 çocuktan birine kadar çıktığı belirtiliyor ki bu da ortalama bir sınıfta en az bir çocuğun bu tıp bir istismara maruz kalmış olabileceği manasına geliyor.

UNICEF’in bilhassa dikkat çektiği noktalardan biri ise “nudification” olarak isimlendirilen uygulamalar. Bu cins araçlar, mevcut bir fotoğraf üzerinde yapay zekâ kullanarak kıyafetleri dijital olarak kaldırıyor ya da değiştiriyor ve gerçekte var olmayan çıplak yahut cinselleştirilmiş imajlar üretiyor. Kurumun vurguladığı üzere, manzara yapay olsa bile kullanılan yüz, vücut ya da kimlik gerçek bir çocuğa ilişkin olduğunda, ortaya çıkan ziyan da son derece gerçek oluyor. “Deepfake istismarı istismardır; verdiği ziyanda hiçbir şey geçersiz değildir” sözü, açıklamanın en çarpıcı kısımlarından biri olarak öne çıkıyor.

Deepfake Tehlikesi Çocuklar Üzerinde Ruhsal Baskı Yaratıyor

Araştırma dataları, çocukların da bu tehdidin farkında olduğunu gösteriyor. Birtakım ülkelerde ankete katılan çocukların üçte ikisine yakını, deepfake ile kendileri hakkında düzmece manzara ya da görüntü üretileceğinden kaygı duyduğunu lisana getiriyor. Bu durum, sadece fiili mağduriyetlerin değil, potansiyel istismar kaygısının da çocuklar üzerinde ruhsal bir baskı yarattığını ortaya koyuyor.

UNICEF, artan tehdide karşı hükümetlere net bir yol haritası sunuyor. Mevcut çocuk cinsel istismarı malzemesi (CSAM) tariflerinin, yapay zekâ tarafından üretilen içerikleri de kapsayacak biçimde genişletilmesi gerektiği belirtiliyor. Sırf dağıtımın değil; üretim, edinim ve bulundurmanın da açık biçimde kabahat sayılması isteniyor. Ayrıyeten yapay zekâ geliştiricilerine “safety-by-design” yaklaşımını benimsemeleri, yani sistemleri en baştan güvenlik öncelikli biçimde tasarlamaları daveti yapılıyor. Dijital platformların da bu tıp içerikleri sonradan kaldırmak yerine, dolanıma girmesini baştan engelleyecek tedbirler alması gerektiği tabir ediliyor.

Bazı ülkeler bu bahiste adım atmaya başlamış durumda. Örneğin Birleşik Krallık, yapay zekâ kullanarak çocuk cinsel istismarı malzemesi üretmeye yarayan araçların bulundurulmasını, oluşturulmasını ya da dağıtılmasını cürüm kapsamına alan birinci ülkelerden biri oldu. Bu hataları işleyenler için beş yıla kadar mahpus cezası öngörülüyor. Lakin UNICEF’in de dikkat çektiği üzere, bu toplumsal krizle başa çıkmak için çok daha sistematik bir yaklaşım gerekiyor ki bu bahiste da en büyük misyon teknoloji şirketlerine düşüyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir