Apple amână implementarea pe iPhone a funcțiilor de scanare a fotografiilor utilizatorilor

Autor: Cătălin Niţu 06.09.2021
Apple amână implementarea pe iPhone a funcțiilor de scanare a fotografiilor utilizatorilor

Apple recunoaște că a greșit în comunicarea noilor capabilități pentru detectarea de pornografie infantilă de pe telefoanele utilizatorilor. Compania a anunțat că va amâna implementarea acestor capabilități și că ia în calcul informațiile pe care le-a primit de la utilizatori, pentru a crea un sistem mai bun și mai sigur pentru toată lumea. Asta nu înseamnă că va renunța la idee, ci doar că va încerca să o implementeze într-un mod mai puțin intruziv.

Apple ia în considerare răspunsurile primite din partea utilizatorilor

Compania anunța în luna august că va implementa un sistem software care poate să scaneze fotografiile stocate pe telefoanele utilizatorilor, pentru a identifica pornografie infantilă dintr-o bază de date deja existentă. Astfel, dacă utilizatorii de iPhone sau alte dispozitive Apple ar fi în posesia respectivelor fotografii, deja identificate de sistem, compania ar putea notifica autoritățile.

Utilizatori, dar și multe asociații care protejează drepturile civile ale cetățenilor au criticat această mișcare, întrucât un sistem automat ar putea fi ineficient în depistarea conținutului și ar putea acuza pe nedrept utilizatori din cauza erorilor. Sistemul Apple folosește NeuralHash, un algoritm care compară identificatorul fotografiei și nu analizează fotografia în sine. De altfel, datele din iCloud sunt oricum criptate și nu pot fi accesate nici de către Apple. S-a dovedit însă că poți avea două fotografii complet diferite, dar care pot avea un identificator hash identic.

Apple spune că metoda de a scana în acest fel este una foarte sigură, care nu violează intimitatea utilizatorilor, făcând scanarea la nivelul dispozitivului, nu prin upload online a conținutului. Totuși, răspunsul negativ asupra acestei decizii nu a rămas neobservat.

„Luna trecută am anunțat planuri pentru funcții are au ca scop protejarea copiilor de prădători, care folosesc unelte de comunicare pentru a-i racola și exploata, și pentru a limita răspândirea de materiale care includ abuzuri sexuale ale minorilor (Child Sexual Abuse Material/CSAM). Pe baza feedback-ului de la clienți, grupuri de sprijin, cercetători și alții, am decis să rezervăm mai mult timp în lunile următoare pentru a aduna informații și pentru a face îmbunătățiri înainte de a lansa aceste funcții critice de siguranță pentru copii.”, au declarat reprezentanții Apple pentru Tech Crunch.

sursa: TechCrunch