Une enquête menée conjointement par le Wall Street Journal, l'université de Stanford et l'université du Massachusetts a révélé que les algorithmes d'Instagram favorisent activement les réseaux de pédophilie qui vendent et commandent des contenus d'abus sexuels envers des enfants sur la plateforme.
Elle a démontré que les systèmes de recommandation d'Instagram mettent en relation les pédophiles et les guident vers les vendeurs de contenus, avec des hashtags explicites comme #pedowhore, #preteensex et #pedobait utilisés pour faire la publicité de ces comptes.
Les pédophiles proposent aux utilisateurs des menus de contenus explicites à acheter, notamment des images d'automutilation et de bestialité. Lorsque les chercheurs ont créé un compte test et visionné le contenu de ces réseaux, ils se sont immédiatement vu recommander d'autres comptes à suivre, ce qui a eu pour effet d'inonder ce dernier de contenus sexualisés impliquant des enfants.
En réponse à ce rapport, Meta, la société mère d'Instagram, a annoncé la création d'un groupe de travail interne chargé d'examiner les questions soulevées par l'enquête. Elle a déclaré qu'elle recherchait en permanence des moyens de lutter activement contre l'exploitation des enfants, soulignant qu'elle avait supprimé 490 000 comptes violant les politiques de sécurité des enfants au cours du seul mois de janvier et supprimé 27 réseaux pédophiles au cours des deux dernières années. L'entreprise a également affirmé avoir bloqué des milliers de hashtags associés à la sexualisation des enfants et restreint les termes de recherche connexes.
Alex Stamos, directeur de l'Observatoire de l'Internet de Stanford et ancien responsable de la sécurité de Meta, a souligné que l'entreprise devait faire davantage pour résoudre ce problème et que la découverte d'un réseau pédophile important par une petite équipe d'universitaires devrait alerter Meta. Il a suggéré que l'entreprise réinvestisse dans des enquêteurs humains.
L'enquête a également mis au jour des problèmes liés aux pratiques de modération d'Instagram, les signalements de matériel pédopornographique étant souvent ignorés ou rejetés. Les utilisateurs ont signalé des posts et des comptes au contenu suspect, mais l'équipe de révision a supprimé le contenu ou a répondu par des messages automatisés en invoquant le volume élevé de signalements. Meta a reconnu qu'elle n'avait pas donné suite et a déclaré qu'elle était en train de revoir ses procédures internes.
Bien que l'enquête ait également porté sur d'autres plateformes, telles que Twitter, TikTok et Snapchat, Instagram s'est avéré plus propice à la croissance des réseaux pédophiles. Twitter comptait moins de comptes proposant de vendre du matériel pédopornographique, bien que le nombre d'utilisateurs y soit moins élevé. TikTok ne semblait pas connaître de prolifération de ce type de contenu, et Snapchat, principalement utilisé pour la messagerie directe, n'encourageait pas activement ce type de réseaux.
Le rapport conclut qu'Instagram n'a pas trouvé le bon équilibre entre les systèmes de recommandation qui encouragent la croissance des utilisateurs et les fonctions de sécurité qui détectent et suppriment les contenus abusifs. Il souligne la nécessité pour le réseau social de mettre en œuvre des mesures de sécurité adéquates pour garantir un environnement nominalement sûr.
Enregistrer un commentaire