Protection en ligne des mineurs - Apple face à ses responsabilités
Cupertino face à des accusations de négligence dans la lutte contre l'exploitation sexuelle en ligne des enfants.
La protection des plus vulnérables, en particulier les mineurs, devrait être une priorité absolue pour les géants du numérique. Une récente enquête menée par la National Society for the Prevention of Cruelty to Children (NSPCC) au Royaume-Uni soulève des questions troublantes sur l'efficacité d'Apple dans la lutte contre l'exploitation sexuelle en ligne des enfants. Selon les données obtenues, Cupertino semble largement sous-estimer la présence de matériel d'abus sexuel sur mineurs (CSAM) sur ses plateformes. Les chiffres sont alarmants, entre avril 2022 et mars 2023, en Angleterre et au Pays de Galles uniquement, 337 infractions liées à des images d'abus ont été enregistrées impliquant les services du géant américain tels que iCloud, iMessage et FaceTime. Ce nombre dépasse à lui seul le total des signalements effectués par Apple à l'échelle mondiale sur la même période.
Une question de confidentialité ?
En effet, en 2023, Apple n'a rapporté que 267 cas suspects de CSAM au National Center for Missing & Exploited Children (NCMEC), l'organisme américain chargé de centraliser ces signalements. Cette statistique est d'autant plus frappante lorsqu'on la compare aux chiffres de ses concurrents. Google a signalé plus de 1,47 million de cas, tandis que Meta en a rapporté plus de 30,6 millions. Cette disparité soulève des questions sur l'engagement de la marque à la pomme dans la protection des enfants en ligne. Face à ces accusations, Cupertino reste sur la défensive. L'entreprise renvoie à des déclarations faites en août dernier, justifiant sa décision de ne pas mettre en œuvre un programme de scan des photos iCloud pour détecter le CSAM, en invoquant la priorité donnée à la sécurité et à la confidentialité de ses utilisateurs. Cette position, bien que compréhensible du point de vue de la protection de la vie privée, soulève des questions sur l'équilibre entre confidentialité et protection des mineurs.
L’abandon de l’outil de scan des photos iCloud (appelé neuralMatch) fin 2022, a été accueillie avec déception par les défenseurs de la protection de l'enfance. Cet outil aurait pu comparer les images téléchargées à une base de données d'images d'abus connus, utilisant des empreintes mathématiques appelées valeurs de hachage. Bien que les groupes de défense des droits numériques aient exprimé des inquiétudes quant à la confidentialité, son annulation laisse un vide dans la lutte contre le CSAM. Sarah Gardner, PDG de Heat Initiative, une organisation à but non lucratif basée à Los Angeles et axée sur la protection de l'enfance, souligne le manque d'efforts d'Apple:
"Apple ne détecte pas le CSAM dans la majorité de ses environnements à grande échelle. Ils sous-déclarent clairement et n'ont pas investi dans des équipes de confiance et de sécurité capables de gérer cela."
L’IA en question
L'annonce récente du lancement d’Apple Intelligence a encore accru les inquiétudes des experts. Alors que l'IA générative soulève déjà des préoccupations quant à la création de CSAM, la décision d'Apple de se lancer dans cette technologie sans avoir mis en place des mesures de protection adéquates est perçue comme prématurée et potentiellement dangereuse. En 2023, le NCMEC a reçu plus de 4 700 signalements de CSAM généré par l'IA, un chiffre qui devrait augmenter à l'avenir. Des rapports récents ont révélé que des prédateurs utilisent cette technologie pour créer de nouvelles images de leurs victimes, exacerbant ainsi leur traumatisme.
Face à ces constats, il est important qu'Apple prenne des mesures concrètes pour renforcer sa lutte contre l'exploitation sexuelle en ligne des mineurs. Cela pourrait inclure l'investissement dans des équipes de sécurité dédiées, le développement de technologies de détection plus efficaces tout en respectant la vie privée des utilisateurs, et une collaboration plus étroite avec les autorités et les organisations de protection de l'enfance.
Alors que le monde numérique continue d'évoluer rapidement, la protection des enfants doit rester une priorité absolue. Apple, en tant que leader technologique mondial, a la responsabilité et les ressources nécessaires pour jouer un rôle de premier plan dans cette lutte. Il est temps pour l'entreprise de réévaluer ses stratégies et de prendre des mesures décisives pour garantir un environnement en ligne plus sûr pour tous, en particulier pour les plus vulnérables de notre société.
Se cacher derrière la protection de la vie privé est quand même sacrément malhonnête. Après, il faudrait peut être que les législateurs imposent des lois permettant une lutte efficace, avec des sanctions digne de ce nom.