Çok konuşulmuştu! Apple, tartışmalı o özellikten vazgeçti
Apple geçtiğimiz dönemde ufaklıklara yönelik cinsel istismarı önlemeye yönelik bazı özellikler duyurmuştu. Bu özelliklerden biri iCloud Fotoğraflar’da depolanan CSAM görüntülerini taramaya yönelik bir sistemdi. Böylece iCloud fotoğraflarında CSAM görüntülerini saklayan suçlular kolayca tespit edilebilecekti. Bu özellik şimdiye kadar kullanıma sunulmadı, hatta gizlilik mevzusunda birçok irdelemenin yaşanmasına niçin oldu. Görünüşe bakılırsa Apple da bu mevzuda mühim bir karar aldı.
APPLE’DAN TARTIŞMALI ÖZELLİKTEN VAZGEÇME KARARI
WIRED ile paylaşılan bir açıklamaya gore Apple, iCloud Fotoğrafları’nda gizlenen ufaklıklara yönelik cinsel istismarı materyallerini (CSAM) tespit etmeye yönelik tartışmalı planından vazgeçti.
Şirket, yapmış olduğu açıklamada, “Geçen yıl önerdiğimiz çocuk koruma girişimleri hakkında geri bildirim toplamak için uzmanlarla kapsamlı istişarelerin arkasından, ilk olarak Aralık 2021’de kullanıma sunduğumuz İletişim Güvenliği özelliğine yaptığımız yatırımı derinleştiriyoruz. Daha ilkin iCloud Fotoğrafları için önerdiğimiz CSAM tespit aracımızı kullanmamaya karar verdik. Firmalar kişisel verileri taramadan da çocuklar korunabilir ve gençleri korumaya, mahremiyet haklarını korumaya ve interneti çocuklar ve çoğumuz için daha güvenli bir yer haline getirmeye destek olmak için hükümetler, çocuk savunucuları ve öteki şirketlerle çalışmaya devam edeceğiz. ” dedi.
Apple başlangıçta CSAM tespitinin 2021’in sonuna kadar iOS 15 ve iPadOS 15 güncellemesinde uygulanacağını söylemiş oldu. Sadece şirket sonuçta “müşterilerden, savunuculuk gruplarından, araştırmacılardan ve öbürlerinden gelen geri bildirimlere” dayanarak özelliği erteledi. Apple, şimdi ise CSAM tarama planlarını tamamen terk etti.
Apple, CSAM tarama sisteminin “kullanıcı gizliliği göz önünde bulundurularak tasarlandığını” taahhüt etmişti.



Yoruma kapalı.