Apple News

Apple prezintă securitatea și confidențialitatea sistemului de detectare CSAM într-un document nou

Vineri, 13 august 2021, 12:45 PDT de Joe Rossignol

Apple azi a partajat un document care oferă o imagine de ansamblu mai detaliată a caracteristici de siguranță pentru copii pe care le-a anunțat pentru prima dată săptămâna trecută , inclusiv principiile de proiectare, cerințele de securitate și confidențialitate și considerente ale modelului de amenințare.





caracteristica de siguranță a comunicațiilor iPhone
Planul Apple de a detecta imaginile cunoscute de material de abuz sexual asupra copiilor (CSAM) stocate în iCloud Photos a fost deosebit de controversată și a stârnit îngrijorări din partea unor cercetători în domeniul securității, a Fundației non-profit Electronic Frontier și a altora cu privire la sistemul potențial abuzat de guverne ca formă de supraveghere în masă.

Documentul își propune să abordeze aceste preocupări și reiterează câteva detalii care au apărut mai devreme într-un interviu cu șeful de inginerie software al Apple, Craig Federighi , inclusiv că Apple se așteaptă să stabilească un prag de potrivire inițial de 30 de imagini CSAM cunoscute înainte ca un cont iCloud să fie semnalat pentru revizuire manuală de către companie.



Apple a mai spus că baza de date de pe dispozitiv de imagini CSAM cunoscute conține doar intrări care au fost trimise în mod independent de două sau mai multe organizații pentru siguranța copiilor care operează în jurisdicții suverane separate și nu sunt sub controlul aceluiași guvern.

Sistemul este proiectat astfel încât un utilizator să nu aibă încredere în Apple, în orice altă entitate unică sau chiar în orice set de entități care se pot colabora din aceeași jurisdicție suverană (adică sub controlul aceluiași guvern) pentru a avea încredere că sistemul funcționează așa cum este anunțat. Acest lucru se realizează prin mai multe mecanisme de interconectare, inclusiv auditabilitatea intrinsecă a unei singure imagini software distribuite la nivel mondial pentru execuție pe dispozitiv, o cerință ca orice hash-uri de imagine perceptuale incluse în baza de date CSAM criptată pe dispozitiv să fie furnizate independent de doi sau mai mulți copii de siguranță. organizații din jurisdicții suverane separate și, în sfârșit, un proces de revizuire umană pentru a preveni orice raportare neregulă.

Apple a adăugat că va publica un document de asistență pe site-ul său web care conține un hash rădăcină al bazei de date hash criptate CSAM inclusă cu fiecare versiune a fiecărui sistem de operare Apple care acceptă această caracteristică. În plus, Apple a spus că utilizatorii vor putea inspecta hash-ul rădăcină al bazei de date criptate prezente pe dispozitivul lor și îl vor compara cu hash-ul rădăcină așteptat din documentul de asistență. Nu a fost prevăzut un interval de timp pentru aceasta.

Într-un memoriu obtinut de Bloomberg este Mark Gurman , Apple a spus că va avea și un auditor independent să examineze sistemul. Nota menționează că angajații Apple din comerțul cu amănuntul pot primi întrebări de la clienți cu privire la funcțiile de siguranță pentru copii și la care se leagă o Întrebări frecvente pe care Apple a distribuit-o la începutul acestei săptămâni ca resursă pe care angajații o pot folosi pentru a răspunde întrebărilor și pentru a oferi mai multă claritate și transparență clienților.

Apple a spus inițial că noile funcții de siguranță pentru copii vor fi disponibile pe iPhone, iPad și Mac cu actualizări de software mai târziu în acest an, iar compania a spus că funcțiile vor fi disponibile în SUA doar la lansare. În ciuda faptului că s-a confruntat cu critici, Apple a declarat astăzi că nu a făcut nicio modificare în acest interval de timp pentru lansarea funcțiilor către utilizatori.