Apple News

Angajații Apple își exprimă îngrijorări interne cu privire la planurile de detectare CSAM

Vineri, 13 august 2021, 12:43 PDT de Sami Fathi

Angajații Apple se alătură acum corului de persoane care își exprimă îngrijorarea cu privire la planurile Apple de a scana iPhone bibliotecile de fotografii ale utilizatorilor pentru CSAM sau materiale de abuz sexual asupra copiilor, care au vorbit în interior despre modul în care tehnologia ar putea fi utilizată pentru a scana fotografiile utilizatorilor pentru alte tipuri de conținut, potrivit unui raport de la Reuters .





dronă Apple Park iunie 2018 2
Conform Reuters , un număr nespecificat de angajați Apple au apelat la canalele interne Slack pentru a ridica îngrijorări cu privire la detectarea CSAM. Mai exact, angajații sunt îngrijorați de faptul că guvernele ar putea forța Apple să folosească tehnologia pentru cenzură, găsind alt conținut decât CSAM. Unii angajați sunt îngrijorați de faptul că Apple își dăunează reputației de confidențialitate lider în industrie.

Angajații Apple au inundat un canal intern Apple Slack cu peste 800 de mesaje despre planul anunțat în urmă cu o săptămână, au declarat pentru Reuters lucrătorii care au cerut să nu fie identificați. Mulți și-au exprimat îngrijorarea că funcția ar putea fi exploatată de guvernele represive care caută să găsească alte materiale pentru cenzură sau arestări, potrivit lucrătorilor care au văzut firul de câteva zile.



Modificările anterioare de securitate la Apple au provocat, de asemenea, îngrijorare în rândul angajaților, dar volumul și durata noii dezbateri sunt surprinzătoare, au spus lucrătorii. Unii afișe s-au îngrijorat de faptul că Apple își dăunează reputației de lider pentru protejarea confidențialității.

Potrivit raportului, nu se crede că angajații Apple în roluri legate de securitatea utilizatorilor au făcut parte din protestul intern.

De când ea anunț de săptămâna trecută , Apple a fost bombardat de critici cu privire la planurile sale de detectare CSAM, care încă se așteaptă să fie lansate cu iOS 15 și iPadOS 15 în această toamnă. Preocupările se învârt în principal în jurul modului în care tehnologia ar putea prezenta o pantă alunecoasă pentru implementările viitoare de către guvernele și regimurile opresive.

diferența dintre iphone 12 și mini

Apple a respins cu fermitate ideea că tehnologia de pe dispozitiv folosită pentru detectarea materialului CSAM ar putea fi folosită în orice alt scop. Într-o documentul de întrebări frecvente publicat , compania spune că va refuza vehement orice astfel de cerere din partea guvernelor.

Ar putea guvernele să forțeze Apple să adauge imagini non-CSAM la lista hash?
Apple va refuza orice astfel de cereri. Capacitatea de detectare CSAM a Apple este creată exclusiv pentru a detecta imaginile CSAM cunoscute stocate în iCloud Photos care au fost identificate de experții de la NCMEC și de alte grupuri pentru siguranța copiilor. Ne-am confruntat înainte cu solicitări de a construi și implementa modificări impuse de guvern care degradează confidențialitatea utilizatorilor și am refuzat cu fermitate aceste cereri. Vom continua să le refuzăm pe viitor. Să fim clari, această tehnologie se limitează la detectarea CSAM stocate în iCloud și nu vom accepta cererea niciunui guvern de a o extinde. În plus, Apple efectuează o analiză umană înainte de a face un raport către NCMEC. În cazul în care sistemul semnalează fotografii care nu se potrivesc cu imaginile CSAM cunoscute, contul nu va fi dezactivat și niciun raport nu va fi depus la NCMEC.

Un scrisoare deschisă criticând Apple și chemând companiei să oprească imediat planul său de a implementa detectarea CSAM, a câștigat peste 7.000 de semnături la momentul scrierii acestui articol. Șeful WhatsApp a și el a cântărit în dezbatere .

Etichete: Confidențialitate Apple , Funcții Apple pentru siguranța copiilor