De qué manera ayuda WhatsApp en la lucha contra la explotación infantil

En WhatsApp, mantenemos una posición de cero tolerancia en lo que respecta a la explotación sexual y el abuso de menores, y suspendemos a los usuarios si se demuestra que están compartiendo contenido que explota a niños o los pone en peligro. Del mismo modo, informamos acerca del contenido y las cuentas que infringen las reglas al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés), el cual deriva estas pistas informativas, llamadas CyberTips, a fuerzas del orden de todo el mundo. Contamos con funciones y controles que ayudan a evitar la explotación y el abuso, además de un equipo dedicado que incluye expertos en fuerzas del orden, políticas de seguridad en línea, investigaciones y desarrollo de tecnología, quienes se encargan de supervisar estos esfuerzos.
Evitar el abuso
WhatsApp se creó para enviar mensajes personales. Con el fin de proteger la privacidad y la seguridad de nuestros usuarios, ofrecemos cifrado de extremo a extremo de forma predeterminada, lo que significa que solo pueden ver el contenido de los mensajes las personas que los envían y sus destinatarios. A fin de proteger a nuestros usuarios, trabajamos para evitar que se produzca cualquier tipo de abuso. A diferencia de lo que sucede en espacios públicos, WhatsApp no permite a los usuarios buscar a personas que no conocen. Para ponerte en contacto con alguien, debes tener su número de teléfono, y la primera vez que recibes un mensaje de alguien que no está en tu libreta de contactos, te preguntamos si quieres bloquear o reportar a esa persona. El 90 % de los mensajes que se envían por WhatsApp corresponden a conversaciones entre dos personas, y la cantidad promedio de participantes de un grupo es 10. Les damos a los nuestros usuarios el poder de decidir quién los puede añadir a grupos y, con el fin de ayudar a limitar la difusión de contenido viral dañino, limitamos la cantidad de chats a los que se puede reenviar un mensaje al mismo tiempo.
Asimismo, trabajamos con los proveedores de tiendas de aplicaciones para evitar la proliferación de aquellas que contengan imágenes de explotación infantil (CEI, por sus siglas en inglés) o que intenten conectar a personas que deseen compartir ese tipo de contenido mediante enlaces de invitación a grupos. Restringimos la publicación de enlaces de invitación en los buscadores populares.
Detección
A fin de combatir la explotación sexual infantil, WhatsApp se basa en toda la información no cifrada disponible, como los informes de los usuarios, para detectar y evitar este tipo de abuso, y mejoramos constantemente nuestra tecnología de detección.
Nuestros métodos de detección incluyen el uso de tecnología automatizada de avanzada, como sistemas para detectar videos y fotos similares, que permite analizar proactivamente información no cifrada en busca de CEI, como fotos del perfil y de grupos, así como informes de usuarios. Además, contamos con tecnologías adicionales para detectar CEI nuevas y desconocidas dentro de esta información no cifrada. También usamos clasificadores de aprendizaje automático a fin de analizar superficies de texto, como perfiles de usuario y descripciones de grupos, y evaluar la información y la conducta de los grupos ante la sospecha de que están compartiendo CEI.
Junto con este trabajo proactivo de detección, WhatsApp alienta a los usuarios a que nos informen si detectan contenido problemático. Los usuarios también pueden bloquear o reportar una cuenta individual o un grupo en cualquier momento. Para obtener más información sobre cómo proteger tu integridad en WhatsApp, visita nuestro Centro de ayuda.
Gracias a estas técnicas, WhatsApp bloquea más de 300 000 cuentas por mes debido a sospechas de que comparten CEI.
Trabajamos con las fuerzas del orden
WhatsApp valora el trabajo que realizan las agencias del orden público para proteger a las personas de todo el mundo. Colaboramos regularmente con estos organismos con el fin de garantizar que sepan cómo comunicarse con nosotros y entiendan cómo presentar solicitudes a WhatsApp. El centro de recursos Información para las fuerzas del orden incluye un sistema en línea para que dichas agencias puedan enviar estas solicitudes legales de manera segura.
En WhatsApp, cuando nos percatamos de la presencia de CEI en la plataforma, suspendemos las cuentas involucradas. Además, eliminamos las imágenes y, de conformidad con las leyes de los Estados Unidos, informamos al NCMEC sobre ellas y le proporcionamos los detalles de las cuentas asociadas.
Una vez que el NCMEC deriva estos casos a las fuerzas del orden para que se lleve a cabo la investigación pertinente, estamos listos para responder de manera apropiada a las solicitudes legales válidas de estos organismos. En WhatsApp, hemos recibido informes de las fuerzas del orden que indican que nuestros esfuerzos han servido para rescatar a víctimas de abuso infantil.
Febrero de 2021 (estadísticas de suspensión de cuentas basadas en el análisis del cuarto trimestre de 2020)
¿Esto responde a tu pregunta?
No