Apple çocuk istismarını önleyebilecek özelliğinden vazgeçti

Apple çocuk istismarını önleyebilecek özelliğinden vazgeçti
Apple iCloud fotoğraflarını CSAM özelliğiyle tarayacağını söylemişti. Bu özellikle herhangi bir kullanıcının çocuk istismarında bulunup bulunmadığını anlayarak polisle iş birliğine gideceğini ifade etmişti. Apple sözcüsü özellikten vazgeçtiğini açıkladı.

Teknoloji devi Apple, CSAM tarama özelliği ve Mesajlar uygulaması için Ebeveyn Denetimi, Siri ve Arama uygulamasını güçlendirmek gibi değişiklikler yaptığını duyurdu. Birçok Apple kullanıcısı, gizlilik açısından iCloud fotoğraflarının taranmaması gerektiğini konusunda tepki gösterdi.

Apple, konuyla ilgili kullanıcılarının gizliliğini koruyacağı ve üçüncü tarafların verilere ulaşamayacağını belirtse de bu durum işe yaramadı. İnsanlar, gözetim konusunda ve şirketin diğer alanlarda tarama yapması konusunda inandırılamadı.

Apple Yazılım Mühendisliği Başkan Yardımcısı Craig Federighi, Wall Street Journal’a CSAM tarama özelliğini kaldırdıklarını doğruladı. Birlikte getirilen diğer özelliklerin ise hala kullanımda olduğunu belirtti. Ek olarak da çocuklara yönelik istismarı gerçekleşmeden önlemek için enerjilerini harcadıklarını açıkladı. Apple, 2021 yılında resmi web sitesi üzerinden de CSAM ile ilgili bilgileri kaldırmıştı. Fakat konuyla ilgili resmi bir açıklama yapılmamıştı.

Apple ise konuyla ilgili şu açıklamalarda bulundu:

“iCloud Fotoğrafları için daha önce önerdiğimiz CSAM algılama aracıyla ilerlememeye karar verdik. Şirketler kişisel verileri taramadan da çocuklar ve gençleri korumaya, mahremiyet haklarını korumaya ve interneti çocuklar ve hepimiz için daha güvenli bir yer haline getirmeye yardımcı olmak için hükümetler, çocuk savunucuları ve diğer şirketlerle çalışmaya devam edeceğiz.”

İlgili Haberler