Apple, Tenkit Toplayan CSAM Tespitinin Nasıl Çalışacağını deklare etti Apple, geçtiğimiz günlerde kullanıcıların iCloud fotoğraflarında çocuklara yönelik cinsel istismarla ilgili görselleri tarayabilen yeni bir çocuk güvenliği özelliğini kullanıma sundu. Lakin, ekseriyetle olduğu üzere, bu sonucu mahremiyet savunucularından gelen önemli tenkitler izledi.
Eleştiriyi ele alan Reuters, teknoloji devinin bunu nasıl yapacağını deklare etti. Buna göre, “birden çok ülkedeki ticaret odaları tarafınca işaretlenen” görüntüler taranacak ve ziyanlı içerik bu türlü belirlenecek. Otomatik tarama sistemi, bir insan incelemecinin sorunu yönetebilmesi için sadece 30 fotoğraflık bir başlangıç eşiğini geçtiğinde Apple’ı uyaracak.
Firma, gelecekte bu sayının kesinlikle azaltılacağını söylemiş oldu. Ayrıyeten, manzara tanımlayıcı listesinin kozmik olduğunu ve uygulanacağı her aygıt için birebir olacağını da açıkça belirtti.
Teknoloji devi, birinci duyurularla ilgili “karışıklık” olduğunu ve ayrıyeten programın “hala geliştirme aşamasında” olduğunu da kelamlarına ekledi.
Eleştiriyi ele alan Reuters, teknoloji devinin bunu nasıl yapacağını deklare etti. Buna göre, “birden çok ülkedeki ticaret odaları tarafınca işaretlenen” görüntüler taranacak ve ziyanlı içerik bu türlü belirlenecek. Otomatik tarama sistemi, bir insan incelemecinin sorunu yönetebilmesi için sadece 30 fotoğraflık bir başlangıç eşiğini geçtiğinde Apple’ı uyaracak.
Firma, gelecekte bu sayının kesinlikle azaltılacağını söylemiş oldu. Ayrıyeten, manzara tanımlayıcı listesinin kozmik olduğunu ve uygulanacağı her aygıt için birebir olacağını da açıkça belirtti.
Teknoloji devi, birinci duyurularla ilgili “karışıklık” olduğunu ve ayrıyeten programın “hala geliştirme aşamasında” olduğunu da kelamlarına ekledi.
- Apple CSAM Tespiti Nedir, Ne Değildir?