Vakfın tespit ettiği içerikler arasında, ünlü bir kadın şarkıcının çocuklaştırılmış sahte görseli de yer alıyor.
Görseller çoğunlukla dark web olarak bilinen takibi güç sanal ağlar üzerinden yayılıyor.
Hali hazırda çocuk yaşta olan aktrislerin fotoğrafları da çocuk istismarına yönelik görüntülere dönüştürülebiliyor.
Pedofil içerik üreticileri, gerçek hayatta çocuk istismarı kurbanı olmuş kişilere ait yüzlerce sahte görseli de yine bu teknolojiyle yaratıyor.
İnternet Gözlem Vakfı'nın internet ortamındaki istismara ilişkin son raporu, pedofillerin yapay zeka teknolojisini amaçları için giderek daha fazla kullandığını da gösteriyor.
Yapay zeka teknolojisi, bilgisayarların genellikle insan zekasına ihtiyaç duyan bazı görevleri yapabilmesine imkân tanıyor.
Örneğin Stable Diffusion programı, kelimelerle komutlar verilerek istenen herhangi bir görselin tarif edilmesini mümkün kılıyor, ardından program bu görselleri yaratıyor.
BBC'nin daha önceki bir araştırması Stable Diffusion’un, bebek ve çocuklara tecavüz gibi içerikler de dahil çocuk cinsel istismarı içeren ve gerçek gibi görünen görsellerin üretiminde kullanıldığını ortaya koydu.
İngiltere'de bir bilgisayar tarafından tasarlanmış ve çocuk istismarı içeren "sahte bir görsel" de yasalar önünde gerçek bir görsel gibi muamele görüyor. Bu tür malzemeleri taşımak, yayımlamak ya da transfer etmek suça tabi tutuluyor.
Raporu hazırlayan araştırmacılar tek bir dark web sitesi üzerinde yaptıkları bir ay süren çalışmada, İngiltere yasalarına göre suç kapsamında olan 3 bine yakın yapay zeka üretimi görsel tespit etti.
Uzmanlar pedofiller arasında, kamuoyunun bildiği çocuk istismarı kurbanlarının görüntülerini, yapay zeka ile sahte olarak yeniden üretme trendinin tespit edildiğini söylüyor.
Yalnızca bir dosyada, 9 - 10 yaşlarında istismara uğrayan bir çocuğun görüntüsü kullanılarak üretilmiş 501 görsel bulundu.
Teknolojiye hakim olan pedofillerin birbirleri ile benzer görüntüleri üretilme kısa yollarını paylaştıkları da anlaşıldı.
Araştırmayı yapan vakıf, ünlü isimlerin ‘çocuklaştırmış’ sahte görsellerinin, bazı durumlarda son derece gerçekçi göründüğünü ve ayırmanın zor olduğunu kaydediyor.
Uzmanların incelediği sahte görsellerde çoğunlukla kadın şarkıcılar ve kadın oyuncular yer alıyor.
Raporda hangi ünlülerin hedef alındığı açıklanmıyor.
Vakıf, bu araştırmanın gelecek ay İngiltere hükümetinin yapay zeka üzerine yapacağı bir zirvede gündeme gelmesini sağlamak için paylaşıldığını kaydetti.
Rapor neler içeriyor?
İnternet Gözlem Vakfı araştırmacıları bir ay içinde yapay zeka ile üretilmiş 11 bin 108 dijital görseli inceledi. Bu görseller çocuk tacizcilerinin kullandığı bir dark web forum sitesinde paylaşıldı.
Bunlardan çocuk istismarı kapsamına giren görsel sayısı 2 bin 978.
Suç kapsamına giren görsellerin de 564’ü “A Kategori” olarak sınıflanıyor ve en ağır suç kapsamında değerlendiriliyor.
2 bin 978 görselin yarısından fazlası, 7 ila 10 yaş aralığındaki sahte çocuk imajlarından oluşuyor.
Üç ila 6 yaş arasındaki sahte çocuk imajlarına ise 143 dijital görselde rastlandı. İki dijital materyalde ise iki yaş altı çocuk fotoğrafı üretildiği tespit edildi.
Vakıf, Haziran ayında yapay zeka kullanılarak üretilen çocuk istismarı görsellerinin ulaştığı gerçekçilik seviyesi konusunda uyarıda bulunmuştu.
Uzmanlar şu anda o korkunun gerçek olduğunu açıklıyor.
Vakfın direktörü Susie Hargreaves, “En korkunç kabuslarımız gerçek oldu” diyerek durumun vahametini aktarıyor:
“Bu yılın başlarında yapay zekâ üretimi görsellerin, gerçek çocuk istismar fotoğraflarından ayırt edilemeyeceği uyarısını yapmıştık. Şu anda artık o noktayı geçtik”
İnternet Gözlem Vakfı raporu yapay zekâ görsellerinin yan zararlarına da dikkat çekiyor.
Bu üretim içeriklerde, her ne kadar çocuklar gerçekte zarar görmüyor olsa da pedofil davranışlar normalleştirilebiliyor. Polisin maddi kaynaklarının gerçekte varolmayan çocukları kurtarmak için kullanılması da bir başka zarar.
Bu durum emniyet güçleri için yeni ve karmaşık bir tür mücadele anlamına geliyor.