“NeuralHash”, la technologie d’Apple pour lutter contre les abus sexuels sur les enfants

“NeuralHash”, la technologie d’Apple pour lutter contre les abus sexuels sur les enfants

Apple Inc a annoncé jeudi qu’il mettrait en place un système qui vérifie les photos sur les iPhones aux États-Unis avant qu’elles ne soient téléchargées sur ses services de stockage iCloud pour s’assurer que le téléchargement ne correspond pas aux images connues d’abus sexuels sur des enfants.

La détection des téléchargements d’images d’abus d’enfants suffisante pour se prémunir contre les faux positifs déclenchera un examen humain et un signalement de l’utilisateur aux forces de l’ordre, a déclaré Apple. Il a déclaré que le système est conçu pour réduire les faux positifs à un sur un milliard.

Le nouveau système d’Apple cherche à répondre aux demandes des forces de l’ordre pour aider à endiguer les abus sexuels sur les enfants tout en respectant les pratiques de confidentialité et de sécurité qui sont un principe fondamental de la marque de l’entreprise. Mais certains défenseurs de la vie privée ont déclaré que le système pourrait ouvrir la porte à la surveillance du discours politique ou d’autres contenus sur les iPhones.

La plupart des autres grands fournisseurs de technologies – y compris Alphabet Inc Google, Facebook Inc et Microsoft Corp – vérifient déjà les images par rapport à une base de données d’images connues d’abus sexuels sur des enfants.

“Avec autant de personnes utilisant des produits Apple, ces nouvelles mesures de sécurité ont un potentiel de sauvetage pour les enfants qui sont attirés en ligne et dont les images horribles sont diffusées dans du matériel d’abus sexuel d’enfants”, John Clark, directeur général du Centre national pour les enfants disparus et exploités a déclaré dans un communiqué. “La réalité est que la vie privée et la protection des enfants peuvent coexister.”

Voici comment fonctionne le système d’Apple. Les responsables de l’application des lois maintiennent une base de données d’images connues d’abus sexuels sur des enfants et traduisent ces images en “hachages” – des codes numériques qui identifient positivement l’image mais ne peuvent pas être utilisés pour les reconstituer.

Apple a implémenté cette base de données à l’aide d’une technologie appelée “NeuralHash”, conçue pour capturer également des images modifiées similaires aux originaux. Cette base de données sera stockée sur les iPhones.

Lorsqu’un utilisateur télécharge une image sur le service de stockage iCloud d’Apple, l’iPhone crée un hachage de l’image à télécharger et la compare à la base de données.

Les photos stockées uniquement sur le téléphone ne sont pas vérifiées, a déclaré Apple, et l’examen humain avant de signaler un compte aux forces de l’ordre est destiné à s’assurer que toutes les correspondances sont authentiques avant de suspendre un compte.

Apple a déclaré que les utilisateurs qui estiment que leur compte a été suspendu de manière inappropriée peuvent faire appel pour le rétablir.

Imene K