Apple News

Cercetătorii universității care au construit un sistem de scanare CSAM îndeamnă Apple să nu folosească tehnologia „periculoasă”.

Vineri, 20 august 2021, 6:48 PDT de Sami Fathi

Respectați cercetători universitari trag un semnal de alarmă cu privire la tehnologia din spatele planurilor Apple de a scana iPhone bibliotecile de fotografii ale utilizatorilor pentru CSAM, sau materialele de abuz sexual asupra copiilor, denumind tehnologia „periculoasă”.





confidențialitatea Apple
Jonanath Mayer, profesor asistent de informatică și afaceri publice la Universitatea Princeton, precum și Anunay Kulshrestha, cercetător la Centrul pentru Politica de Tehnologia Informației de la Universitatea Princeton, ambele a scris un articol de opinie pentru The Washington Post , subliniind experiențele lor cu tehnologia de detectare a imaginii de construcție.

Cercetătorii au început un proiect în urmă cu doi ani pentru a identifica CSAM în servicii online criptate end-to-end. Cercetătorii notează că, având în vedere domeniul lor, ei „cunosc valoarea criptării end-to-end, care protejează datele de accesul terților”. Această îngrijorare, spun ei, este ceea ce îi îngrozește din cauza „proliferării CSAM pe platforme criptate”.



macbook pro 16 inch m1 chip

Mayer și Kulshrestha au spus că doresc să găsească o cale de mijloc pentru situație: să construiască un sistem pe care platformele online să-l poată utiliza pentru a găsi CSAM și pentru a proteja criptarea end-to-end. Cercetătorii notează că experții în domeniu s-au îndoit de perspectiva unui astfel de sistem, dar au reușit să-l construiască și în acest proces au observat o problemă semnificativă.

Am căutat să explorăm o posibilă cale de mijloc, în care serviciile online ar putea identifica conținut dăunător, păstrând în același timp criptarea end-to-end. Conceptul era simplu: dacă cineva distribuia material care corespunde unei baze de date de conținut dăunător cunoscut, serviciul era alertat. Dacă o persoană ar împărtăși conținut inocent, serviciul nu ar afla nimic. Oamenii nu au putut să citească baza de date sau să afle dacă conținutul se potrivea, deoarece aceste informații ar putea dezvălui metode de aplicare a legii și ar putea ajuta infractorii să se sustragă de la detecție.

Observatorii cunoscători au susținut că un sistem ca al nostru este departe de a fi fezabil. După multe porniri greșite, am construit un prototip funcțional. Dar ne-am confruntat cu o problemă flagrantă.

De la anunțul de către Apple a caracteristicii, compania a fost bombardată cu preocupări că sistemul din spatele detectării CSAM ar putea fi folosit pentru a detecta alte forme de fotografii la cererea guvernelor opresive. Apple a respins cu fermitate o astfel de posibilitate, spunând că va refuza orice astfel de solicitare din partea guvernelor.

Cu toate acestea, preocupările cu privire la implicațiile viitoare ale tehnologiei utilizate pentru detectarea CSAM sunt larg răspândite. Mayer și Kulshrestha au spus că preocupările lor cu privire la modul în care guvernele ar putea folosi sistemul pentru a detecta conținut, altul decât CSAM, i-au „deranjat”.

ce poate face iphone 12 pro max

Un guvern străin ar putea, de exemplu, să oblige un serviciu către oamenii care împărtășesc un discurs politic defavorizat. Nu este ipotetic: WeChat, populara aplicație de mesagerie chineză, folosește deja potrivirea conținutului pentru a identifica materialul disident. India a adoptat reguli în acest an care ar putea necesita pre-screening conținut critic la adresa politicii guvernamentale. Rusia a amendat recent Google, Facebook și Twitter pentru că nu au eliminat materialele de protest pro-democrație.

Am observat alte neajunsuri. Procesul de potrivire a conținutului ar putea avea rezultate false pozitive, iar utilizatorii rău intenționați ar putea juca sistemul pentru a supune utilizatorilor nevinovați controlului.

Am fost atât de deranjați încât am făcut un pas pe care nu îl mai văzusem până acum în literatura de specialitate: am avertizat împotriva propriului nostru sistem de proiectare, îndemnând cercetări suplimentare despre cum să atenuăm dezavantajele grave...

Apple a continuat să abordeze preocupările utilizatorilor cu privire la planurile sale, publicarea documentelor suplimentare și o pagină de întrebări frecvente . Apple continuă să creadă că sistemul său de detectare CSAM, care va avea loc pe dispozitivul unui utilizator, se aliniază cu valorile sale de confidențialitate de lungă durată.

Etichete: confidențialitate Apple , WashingtonPost.com , Funcții Apple pentru siguranța copiilor