ABD merkezli teknoloji devi Apple, çocuk istismarına karşı yeni ve önemli bir karar aldığını açıkladı. Şirket tarafından yapılan açıklamalara göre iPhone'lar artık, çocuk istismar görüntüsü içerip içermediğinin tespiti adına otomatik olarak taranacak. Ancak sistem, iCloud'a otomatik olarak yüklenen fotoğraflar için geçerli olacak.
Apple'ın uygulamaya koyduğu yeni sistem, bir iPhone'da çocuk istismarına ilişkin görüntü yakalarsa, doğrudan kolluk kuvvetlerine bildirim yapılacak. Apple bu sayede, çocuk istismarının kısmen de olsa önüne geçmiş olacak. Ancak Apple'ın "CSAM" isimli güvenlik sistemi, daha şimdiden bazı kesimler tarafından eleştirilmeye başlandı.
Özelliğin yalnızca çocuk istismarından ibaret kalmayabileceği düşünülüyor
Apple'ın yıl sonuna doğru kullanıma sunacağı CSAM isimli sistem, ABD Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi başta olmak üzere çeşitli çocuk güvenliği kuruluşları tarafından derlenmiş bir veri tabanı içerecek. Bu veri tabanında daha önce cinsel istismara uğrayan çocukların görüntüleri yer alacak. Sistem, iCloud'a yüklenen fotoğrafları bu veri tabanı ile karşılaştıracak. Eğer benzer sonuçlara ulaşılırsa, yasal süreç otomatik olarak başlayacak. Apple, geliştirdiği sistemin hata oranının trilyonda bir olduğunu, kimsenin bu özellik nedeniyle herhangi bir iftiraya maruz kalmayacağını ifade ediyor.
Özelliğe karşı olan kesimlerse bu özelliğin yalnızca çocuk istismarını tespit etmekten ibaret olmayabileceğini düşünüyorlar. Özelliğin bir süre sonra hükümetler tarafından kullanılabilir hale getirilebileceğinden şüphe eden kimseler, böylesi bir durumda kullanıcı gizliliğinin riske atılabileceğini düşünüyorlar. Ancak Apple, bu konuda da bir sorun yaşanmayacağını ve kullanıcı gizliliğini sağlamaya devam edeceğini söylüyor.