Apple News

Craig Federighi recunoaște confuzia în jurul caracteristicilor Apple pentru siguranța copiilor și explică noi detalii despre măsurile de protecție

Vineri, 13 august 2021, 7:33 PDT de Hartley Charlton

Vicepreședintele senior de inginerie software al Apple, Craig Federighi, a apărat astăzi controversatul plan al companiei. caracteristici de siguranță pentru copii într-un interviu semnificativ cu The Wall Street Journal , dezvăluind o serie de detalii noi despre măsurile de protecție încorporate în sistemul Apple pentru scanarea bibliotecilor de fotografii ale utilizatorilor pentru Materialul de abuz sexual asupra copiilor (CSAM).





confidențialitate craig wwdc 2021
Federighi a recunoscut că Apple s-a ocupat de săptămâna trecută anunţ dintre cele două funcții noi, care se referă la detectarea conținutului explicit în Mesaje pentru copii și a conținutului CSAM stocat în Fotografii iCloud biblioteci și a recunoscut confuzia larg răspândită în jurul instrumentelor:

Este foarte clar că o mulțime de mesaje au fost amestecate destul de prost în ceea ce privește modul în care au fost înțelese lucrurile. Ne dorim ca acest lucru să fi ieșit puțin mai clar pentru toată lumea, deoarece ne simțim foarte pozitivi și puternic în ceea ce facem.



mesaj în afara biroului Apple Mail

[...]

În retrospectivă, introducerea acestor două caracteristici în același timp a fost o rețetă pentru acest tip de confuzie. Eliberându-le în același timp, oamenii le-au conectat tehnic și s-au speriat foarte tare: ce se întâmplă cu mesajele mele? Răspunsul este... nu se întâmplă nimic cu mesajele tale.

Funcția de siguranță a comunicațiilor înseamnă că, dacă copiii trimit sau primesc imagini explicite prin iMessage, ei vor fi avertizați înainte de a o vizualiza, imaginea va fi neclară și va exista o opțiune ca părinții lor să fie alertați. Scanarea CSAM, pe de altă parte, încearcă să potrivească fotografiile utilizatorilor cu imagini cu hashing ale CSAM cunoscut înainte ca acestea să fie încărcate pe iCloud . Conturile pentru care s-a detectat CSAM vor fi apoi supuse unei revizuiri manuale de către Apple și pot fi raportate Centrului Național pentru Copii Dispăruți și Exploatați (NCMEC).

Oferte Apple iPhone Black Friday 2020

Noile funcții au fost supuse unui număr mare de critici din partea utilizatorilor, cercetători de securitate , cel Electronic Frontier Foundation (EFF) și Edward Snowden , Fostul șef al securității Facebook , și chiar Angajații Apple .

Pe fondul acestor critici, Federighi a abordat unul dintre principalele domenii de îngrijorare, subliniind că sistemul Apple va fi protejat împotriva profitării de către guverne sau alți terți cu „niveluri multiple de auditare”.


Federighi a dezvăluit, de asemenea, o serie de detalii noi cu privire la garanțiile sistemului, cum ar fi faptul că un utilizator va trebui să îndeplinească aproximativ 30 de potriviri pentru conținutul CSAM în Fotografii bibliotecă înainte ca Apple să fie alertat, după care va confirma dacă acele imagini par a fi exemple autentice ale CSAM.

Dacă și numai dacă atingeți un prag de ceva de ordinul a 30 de imagini pornografice infantile cunoscute care se potrivesc, abia atunci Apple știe ceva despre contul dvs. și știe ceva despre acele imagini și, în acel moment, știe doar despre acele imagini, nu despre oricare dintre celelalte imagini ale tale. Asta nu face niște analize pentru că ai avut o poză cu copilul tău în cadă? Sau, de altfel, ai avut o poză cu vreun alt fel de pornografie? Acest lucru se potrivește literalmente doar pe amprentele exacte ale unor imagini pornografice infantile cunoscute.

El a subliniat, de asemenea, avantajul de securitate al plasării procesului de potrivire pe iPhone direct, mai degrabă decât să apară pe serverele lui ‌iCloud‌.

Deoarece este pe [telefon], cercetătorii de securitate sunt în mod constant capabili să introspecteze ceea ce se întâmplă în software-ul [telefonului] Apple. Deci, dacă s-au făcut modificări care ar trebui să extindă domeniul de aplicare al acestui lucru într-un fel - într-un mod pe care ne-am angajat să nu-l facem - există posibilitatea de verificare, ei pot observa că asta se întâmplă.

Întrebat dacă baza de date de imagini folosită pentru a potrivi conținutul CSAM de pe dispozitivele utilizatorilor ar putea fi compromisă prin introducerea altor materiale, cum ar fi conținut politic în anumite regiuni, Federighi a explicat că baza de date este construită din imagini CSAM cunoscute de la mai multe organizații pentru siguranța copiilor, cu cel puțin două fiind „în jurisdicții distincte”, pentru a proteja împotriva abuzului de sistem.

cel mai ieftin loc pentru a cumpăra macbook air

Aceste organizații pentru protecția copilului, precum și un auditor independent, vor putea verifica că baza de date de imagini este formată doar din conținut de la acele entități, potrivit Federighi.

Interviul lui Federighi se numără printre cele mai mari respingeri de PR din partea Apple de până acum în urma răspunsului public mixt la anunțul caracteristicilor de siguranță pentru copii, dar compania a încercat în mod repetat să abordează preocupările utilizatorilor , publicarea unei întrebări frecvente și abordând direct preocupările în interviuri cu mass-media .

Etichete: The Wall Street Journal , Craig Federighi , Funcții Apple pentru siguranța copiilor