Apple este gata să lupte împotriva răspândirii pornografiei infantile pe iCloud

Apple și-a anunțat disponibilitatea de a scana fotografii ale utilizatorilor de iPhone.

Dezvoltatorii intenționează să combată abuzul asupra copiilor și răspândirea pornografiei infantile în acest fel.

Va fi analizat tot conținutul media al utilizatorului de pe smartphone transmis prin stocarea iCloud.

A fost dezvoltat un algoritm special pentru a studia astfel de fișiere.

În acest caz, conturile utilizatorilor condamnați pentru stocarea pornografiei infantile vor fi dezactivate forțat.

Acest lucru a fost declarat de un director senior la Apple în timpul CES 2020.

În același timp, conducerea companiei nu informează despre mecanismele de funcționare ale sistemului.

Unii experți au sugerat deja că compania ar putea folosi PhotoDNA în acest scop.

Folosind hashing, algoritmul va scana detaliile imaginii și o va compara cu modelele tipice conținutului pornografic.

Sistemul PhotoDNA în sine a fost creat de specialiștii Microsoft încă din 2009.

În prezent, a găsit aplicație în rețelele sociale ale dezvoltatorilor precum Facebook și alte companii IT.

Comentând cu privire la confidențialitatea informațiilor despre utilizatori, Apple a declarat încă din octombrie 2019 că compania are dreptul de a studia conținutul media al utilizatorilor dispozitivelor sale.

Se știe acum că compania a actualizat secțiunea de politică de confidențialitate a site-ului său, unde a anunțat modificări care vizează combaterea conținutului ilegal și a exploatării sexuale a copiilor.

În plus, Apple a declarat că folosește informațiile personale ale utilizatorilor pentru a asigura protecția serviciilor companiei în interesul tuturor utilizatorilor.

Foto: © Belnovosti