Apple, iCloud’da çocuklara yönelik uygunsuz eylemler içeren içerikleri taramadığı için dava edildi

Davaya bakan avukat, tazminat almaya hak kazanabilecek 2.680 mağdurun bulunduğunu belirtti. 

Apple, çocuk istismarına yönelik bir iCloud tarama sistemi olan Child Sexual Abuse Material (CSAM) Detection uygulamama kararı almasının ardından takma isimli 27 yaşındaki bir kadın tarafından dava edildi. 

Davacı kadın, bir akrabası tarafından bebekken taciz edildiğini ve internette fotoğraflarının paylaşıldığını söyledi. Görüntüler hala dolaşımda olduğu için yetkililerden düzenli olarak bilgilendirme aldığını belirten davacı, Apple’ın bu konuda sorumluluk alması gerektiğini savunuyor.

Davaya bakan Avukat James Marsh, yaptığı basın açıklamasında bu dava tazminat almaya hak kazanabilecek 2.680 mağdurun bulunduğunu belirtti. 

Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) iş birliğinde geliştirilen ve 2021 yılında duyurulan CSAM Detection sistemi, kullanıcıların iCloud fotoğraf arşivine yüklenen görselleri tarayarak çocuk istismarına yönelik materyallerin tespit edilmesini amaçlıyordu. 

NCMEC’den bilinen çocuk istismarı içeriklerinin dijital parmak izlerini (hash değerlerini) alarak tarama için kullanmayı planlayan Apple, iCloud’da paylaşılan görsellerin CSAM içerikleriyle eşleşip eşlemediğini belirlemek üzere veritabanındaki hash’lerle karşılaştıracaktı. 

Bir kullanıcının cihazında belirli bir sayıda eşleşme olmadıkça yetkililere raporlama yapmadığını duyuran Apple, CSAM uygulamasıyla olumsuz eleştiriler aldı. Eleştirmenler, sistemin kötüye kullanılabileceğini ve hükümetler tarafından sansür veya gözetim aracı olarak görülebileceği endişelerini paylaştı. 

Tepkilerin ardından geri adım atan Apple, CSAM’ın uygulama süresini 2021 Eylül ayında süresiz olarak ertelediğini açıkladı. 2022 yılında ise çocuk istismarını önlemek için daha etkili ve kullanıcı gizliliğine duyarlı bir yöntem geliştirme sözü vererek CSAM Detection’ı tamamen iptal etti. 

İlginizi çekebilir