Apple News

Cercetătorii în domeniul securității își exprimă alarma cu privire la planurile Apple de a scana imagini iCloud, dar practica este deja răspândită

Joi, 5 august 2021, 14:04 PDT de Juli Clover

măr a anunțat astăzi că odată cu lansarea de iOS 15 și iPad 15 , va începe scanarea Fotografii iCloud în S.U.A. să caute materiale cunoscute pentru abuzul sexual asupra copiilor (CSAM), cu intenții de a raporta constatările Centrului Național pentru Copii Dispăruți și Exploatați (NCMEC).





Funcție de siguranță pentru copii
Înainte de momentul în care Apple și-a detaliat planurile, știrile despre inițiativa CSAM s-au scurs, iar cercetătorii de securitate au început deja să-și exprime îngrijorarea cu privire la modul în care noul protocol de scanare a imaginilor de la Apple ar putea fi utilizat în viitor, după cum a menționat Timpuri financiare .

Apple folosește un sistem „NeuralHash” pentru a compara imaginile CSAM cunoscute cu fotografiile de pe cele ale unui utilizator iPhone înainte de a fi încărcate pe iCloud. Dacă există o potrivire, fotografia respectivă este încărcată cu un voucher de siguranță criptografic, iar la un anumit prag, se declanșează o revizuire pentru a verifica dacă persoana are CSAM pe dispozitivele sale.



camera iphone 11 pro max vs iphone 12 pro max

În prezent, Apple își folosește tehnologia de scanare și potrivire a imaginilor pentru a căuta abuzuri asupra copiilor, dar cercetătorii se tem că, în viitor, ar putea fi adaptat pentru a scana alte tipuri de imagini care sunt mai îngrijorătoare, cum ar fi semnele antiguvernamentale la proteste.

Într-o serie de tweet-uri, cercetătorul în criptografie de la Johns Hopkins Matthew Green a spus că scanarea CSAM este o „idee foarte proastă”, deoarece, în viitor, s-ar putea extinde la scanarea fotografiilor criptate end-to-end, mai degrabă decât doar conținutul care este încărcat pe ‌iCloud‌. Pentru copii, Apple este implementarea unei funcții de scanare separată care caută conținut sexual explicit direct în iMessages, care sunt criptate de la capăt la capăt.

De asemenea, Green și-a exprimat îngrijorarea cu privire la hashurile pe care Apple intenționează să le folosească, deoarece ar putea exista „coliziuni”, în cazul în care cineva trimite un fișier inofensiv care partajează un hash cu CSAM și ar putea duce la un semnal fals.

Apple, la rândul său, spune că tehnologia sa de scanare are un „nivel extrem de ridicat de acuratețe” pentru a se asigura că conturile nu sunt semnalate incorect, iar rapoartele sunt revizuite manual înainte de ‌iCloud‌ contul este dezactivat și un raport este trimis către NCMEC.

Green crede că implementarea Apple va împinge alte companii de tehnologie să adopte tehnici similare. „Acesta va rupe barajul”, a scris el. „Guvernele vor cere asta de la toată lumea”. El a comparat tehnologia cu „instrumentele pe care regimurile represive le-au implementat”.


Cercetătorul de securitate Alec Muffett, care a lucrat anterior la Facebook, a spus că decizia Apple de a implementa acest tip de scanare a imaginilor a fost un „pas uriaș și regresiv pentru confidențialitatea individuală”. „Apple renunță la confidențialitate pentru a permite 1984”, a spus el.

Ross Anderson, profesor de inginerie de securitate la Universitatea din Cambridge, a declarat că aceasta este o „idee absolut îngrozitoare” care ar putea duce la „supravegherea în masă distribuită” a dispozitivelor.

După cum au subliniat mulți pe Twitter, mai multe companii de tehnologie fac deja scanări de imagini pentru CSAM. Google, Twitter, Microsoft, Facebook și alții folosesc metode de hashing a imaginilor pentru a căuta și raporta imagini cunoscute de abuz asupra copiilor.


De asemenea, este de remarcat faptul că Apple a fost deja scanarea unui anumit conținut pentru imaginile de abuz asupra copiilor înainte de lansarea noii inițiative CSAM. În 2020, șeful Apple pentru confidențialitate, Jane Horvath, a declarat că Apple a folosit tehnologia de screening pentru a căuta imagini ilegale și apoi dezactivează conturile dacă sunt detectate dovezi ale CSAM.

cum uit o rețea wifi pe Mac-ul meu

Apple în 2019 și-a actualizat politicile de confidențialitate să rețineți că ar scana conținutul încărcat pentru „conținut potențial ilegal, inclusiv material de exploatare sexuală a copiilor”, așa că anunțurile de astăzi nu sunt complet noi.

Notă: Datorită naturii politice sau sociale a discuției pe această temă, firul de discuție se află în nostru Știri politice forum. Toți membrii forumului și vizitatorii site-ului sunt bineveniți să citească și să urmărească firul, dar postarea este limitată la membrii forumului cu cel puțin 100 de postări.

Etichete: Confidențialitate Apple , Funcții Apple pentru siguranța copiilor