Nous disposons de fonctionnalités et de contrôles qui contribuent à prévenir l'exploitation et les abus, et nous avons recours à une équipe dédiée comprenant des experts en matière d'application de la loi, de politique de sécurité en ligne, d'enquêtes et de développement technologique pour superviser ces efforts.

WhatsApp prône la tolérance zéro en ce qui concerne l'exploitation et l'abus sexuel d'enfants, et nous bannissons les utilisateurs partageant des contenus qui exploitent ou mettent en danger les enfants dès que nous en sommes informés. Nous signalons également le contenu et les comptes qui enfreignent nos règles au National Center for Missing and Exploited Children (NCMEC), qui transmet ces CyberTips aux autorités judiciaires et de police du monde entier. Nous disposons de fonctionnalités et de contrôles qui contribuent à prévenir l'exploitation et les abus, et nous avons recours à une équipe dédiée comprenant des experts en matière d'application de la loi, de politique de sécurité en ligne, d'enquêtes et de développement technologique pour superviser ces efforts.
Prévenir les abus
L'application WhatsApp a été conçue pour permettre d'envoyer des messages personnels. Afin de protéger la confidentialité et la sécurité de nos utilisateurs, nous procédons par défaut au chiffrement de bout en bout, ce qui signifie que seuls l'expéditeur et le destinataire peuvent voir le contenu des messages. Pour préserver la sécurité de nos utilisateurs, nous nous efforçons de prévenir les abus avant qu'ils se produisent. Sur WhatsApp, contrairement aux espaces publics, vous ne pouvez pas rechercher des personnes que vous ne connaissez pas. Vous avez besoin du numéro de téléphone d'une personne pour pouvoir entrer en contact avec elle, et la première fois que vous recevez un message d'une personne extérieure à votre carnet d'adresses, nous vous demandons si vous voulez la bloquer ou la signaler. 90 % des messages envoyés sur WhatsApp sont entre deux personnes, et les groupes comprennent en moyenne moins de dix personnes. Nous laissons le contrôle aux utilisateurs de décider qui peut les ajouter à des groupes, et nous limitons le nombre de discussion dans lesquelles un message peut être transféré à la fois, afin de limiter la diffusion de contenu viral dangereux.
Nous travaillons également avec des fournisseurs de boutiques d'application afin d'empêcher la multiplication d'applications qui contiennent des images d'exploitation d'enfants ou qui essaient de connecter des personnes voulant partager ce type de contenu via des liens d'invitation de groupe. Nous empêchons les moteurs de recherche populaires d'inclure des liens d'invitation dans leurs résultats.
Détection
Pour renforcer la lutte contre l'exploitation sexuelle des enfants, WhatsApp s'appuie sur toutes les informations non chiffrées disponibles, y compris les signalements des utilisateurs, afin de détecter et d'empêcher ce type d'abus, et nous travaillons constamment à l'amélioration de la technologie de détection.
Nos méthodes de détection comprennent l'utilisation de technologies automatisées sophistiquées, notamment la technologie de reconnaissance photo/vidéo pour analyser de manière proactive les informations non chiffrées telles que les photos de profil et de groupe et les signalements des utilisateurs pour des images connues d'exploitation d'enfants. Nous disposons de technologies supplémentaires pour détecter de nouvelles images inconnues d'exploitation d'enfants au sein de ces informations non chiffrées. Nous utilisons également des classificateurs à apprentissage automatique avancés pour analyser les espaces de texte, tels que les profils d'utilisateurs et les descriptions de groupes, et nous évaluons les informations et les comportements des groupes en cas de suspicion de partage d'images d'exploitation d'enfants.
En parallèle de notre travail de détection proactive, WhatsApp encourage les utilisateurs à signaler tout contenu problématique. Les utilisateurs peuvent également bloquer ou signaler un compte individuel ou un groupe à tout moment. Pour en savoir plus sur la manière de garantir la sécurité sur WhatsApp, consultez notre Centre d'aide.
Grâce à ces technologies, WhatsApp bannit plus de 300 000 comptes par mois pour suspicion de partage d'images d'exploitation d'enfants.
Collaboration avec les autorités judiciaires et de police
WhatsApp salue le travail que font les forces de l'ordre pour garantir la protection des particuliers dans le monde entier. Nous échangeons régulièrement avec les agences de forces de l'ordre pour nous assurer qu'elles savent comment nous contacter et qu'ils comprennent comment faire des demandes auprès de WhatsApp. Notre centre de ressources d'Informations pour les autorités judiciaires et de police comprend un système en ligne via lequel les forces de l'ordre peuvent soumettre des demandes légales en toute sécurité.
Lorsque des images d'exploitation d'enfants sont décelées sur la plateforme de WhatsApp, nous bannissons les comptes impliqués. Nous supprimons les images et les signalons au NCMEC avec les informations du compte associé, conformément à la loi des États-Unis.
Lorsque le NCMEC soumet des dossiers aux forces de l'ordre pour enquête, WhatsApp se tient prêt à répondre aux demandes valides des forces de l'ordre en conséquence. D'après les retours des forces de l'ordre, les efforts de WhatsApp ont contribué à secourir des enfants victimes d'abus.
Février 2021 (statistiques des comptes bannis basées sur l'analyse du quatrième trimestre 2020)
Cela répond-il à votre question ?
Oui
Non