Apple po përballet me kritika për një sistem të ri që gjen materiale të abuzimit seksual të fëmijëve (CSAM) në pajisjet e përdoruesve amerikanë.
Teknologjia do të kërkojë ndeshje të CSAM të njohura para se imazhi të ruhet në iCloud Photos.
Por ka shqetësime se teknologjia mund të zgjerohet dhe përdoret nga qeveritë autoritare për të spiunuar qytetarët e saj.
Kreu i WhatsApp Will Cathcart e quajti lëvizjen e Apple “shumë shqetësuese”.
Apple tha se versionet e reja të iOS dhe iPadOS – të cilat do të dalin më vonë këtë vit – do të kenë “aplikacione të reja të kriptografisë për të ndihmuar në kufizimin e përhapjes së CSAM në internet, ndërsa dizajnojnë për privatësinë e përdoruesit”.
Sistemi do të raportojë një ndeshje e cila më pas shqyrtohet me dorë nga një person. Pastaj mund të ndërmarrë hapa për të çaktivizuar llogarinë e një përdoruesi dhe të raportojë tek zbatimi i ligjit.
Kompania thotë se teknologjia e re ofron përfitime “domethënëse” të privatësisë mbi teknikat ekzistuese – pasi Apple mëson për fotot e përdoruesve vetëm nëse ata kanë një koleksion të materialeve të njohura të abuzimit seksual të fëmijëve në llogarinë e tyre iCloud.
Por Cathcart i WhatsApp thotë se sistemi “shumë lehtë mund të përdoret për të skanuar përmbajtje private për çdo gjë që ata ose një qeveri vendos që dëshiron të kontrollojë. Vendet ku shiten iPhone -et do të kenë përkufizime të ndryshme për atë që është e pranueshme”.