Apple News

Fostul șef al securității Facebook discută despre controversele legate de funcțiile Apple pentru siguranța copiilor planificate

Marți, 10 august 2021, 6:50 PDT de Hartley Charlton

Pe fondul controversei în curs cu privire la planurile de implementare ale Apple noi caracteristici de siguranță pentru copii care ar implica scanarea mesajelor și a bibliotecilor de fotografii ale utilizatorilor, fostul șef al securității Facebook, Alex Stamos, a intervenit în dezbatere cu critici la adresa mai multor părți implicate și sugestii pentru viitor.





Funcție de siguranță pentru copii
Într-un mod extins Firma Twitter , Stamos a spus că „nu există răspunsuri simple” în dezbaterea privind protecția copilului versus intimitatea personală.

ce înseamnă încărcarea optimizată a bateriei

Stamos și-a exprimat frustrarea față de modul în care Apple a gestionat anunțul noilor funcții și criticat compania pentru că nu s-a implicat în discuții mai ample din industrie cu privire la aspectele de siguranță și confidențialitate ale criptării end-to-end în ultimii ani.



Apple a fost invitat, dar a refuzat să participe la aceste discuții și, odată cu acest anunț, tocmai a intrat în dezbaterea de echilibrare și i-a împins pe toți în cele mai îndepărtate colțuri, fără consultare sau dezbatere publică.

De asemenea, spuse Stamos că a fost dezamăgit de diverse ONG-uri, cum ar fi Electronic Frontier Foundation (EFF) și Centrul Național pentru Copii Dispăruți și Exploatați (NCMEC), pentru că au lăsat puțin loc pentru discuții în declarațiile lor publice. NCMEC, de exemplu, numiți angajați Apple care a pus sub semnul întrebării implicațiile privind confidențialitatea noilor caracteristici „vocile strigătoare ale minorității”. „Mișcarea publică a Apple i-a împins să pledeze pentru acțiunile lor până la extrem”, a explicat Stamos.

Stamos îndemnat s cercetători de securitate și militanții care au fost surprinși de anunțul Apple de a acorda mai multă atenție mediului de reglementare global și au speculat că Legea privind siguranța online din Marea Britanie și Legea privind serviciile digitale a UE au jucat un rol esențial în mișcarea Apple de a implementa noile funcții de siguranță pentru copii.

Una dintre problemele de bază ale abordării Apple este că par disperați să evite construirea unei funcții reale de încredere și siguranță pentru produsele lor de comunicații. Nu există niciun mecanism pentru a raporta spam, amenințări cu moartea, discurs instigator la ură, NCII sau orice alte tipuri de abuz pe iMessage.

El a mai spus că Apple nu are suficiente funcții pentru încredere și siguranță și a încurajat Apple pentru a crea un sistem de raportare în iMessage, pentru a implementa ML la nivel de client pentru a-i determina pe utilizatori să raporteze ceva abuziv și pentru a angaja o echipă pentru siguranța copiilor pentru a investiga cele mai rele rapoarte.

În schimb, obținem un sistem ML care se adresează doar copiilor (sub) 13 ani (nu este cel mai mare grup de ținte de sextorsionare/îngrijire din experiența mea), care le oferă copiilor o alegere pe care nu sunt echipați să o facă și îi informează pe părinți. în loc de Apple T&S.

Stamos spus că nu a înțeles de ce Apple scanează local pentru CSAM, cu excepția cazului în care criptarea de rezervă iCloud este în lucru și a avertizat că Apple ar putea avea o opinie „otrăvită” împotriva clasificatorilor de pe partea clientului.

cum se face captură de ecran pe macbook pro 2020

De asemenea, nu înțeleg de ce Apple introduce scanarea CSAM pentru iCloud în dispozitiv, cu excepția cazului în care este pregătit pentru criptarea reală a backup-urilor iCloud. O țintă rezonabilă ar trebui să fie scanarea albumelor iCloud partajate, care ar putea fi implementate pe partea de server.

În orice caz, ieșirea de pe poartă cu scanarea neconsensuală a fotografiilor locale și crearea ML la nivelul clientului care nu va oferi o mulțime de prevenire reală a daunelor, înseamnă că Apple ar fi putut otrăvi puțul împotriva oricărei utilizări a clientului. -clasificatoare laterale pentru protejarea utilizatorilor.

Cu toate acestea, Stamos a evidențiat că Facebook a surprins 4,5 milioane de utilizatori care postau imagini cu abuzuri asupra copiilor și că aceasta este probabil doar o proporție din numărul total de infractori, prin scanarea imaginilor cu potriviri cunoscute pentru CSAM.

Etichete: Facebook , Funcții de siguranță pentru copii Apple