Un nuevo sistema ayuda a frenar las imágenes de abusos sexuales a menores
Existen 150 leyes sobre abuso sexual infantil en todo el mundo. Los metadatos ahora facilitan que los países trabajen juntos.
Un equipo de analistas británicos se enfrenta a una montaña aparentemente interminable de horror. Este equipo de 21, con sede en la oficina de Cambridgeshire de Internet Watch Foundation, pasa horas siguiendo imágenes y videos que contienen abuso sexual de menores. Y cada vez que encuentran una foto o una grabación, hay que evaluarlas y marcarlas.
Solo en el último año, el equipo identificó 153,383 sitios web con enlaces a imágenes de abuso sexual infantil. Esto crea una enorme base de datos que se puede compartir internacionalmente para frenar el abuso.
¿El problema? Cada país tiene una forma diferente de clasificar imágenes y videos.
Hasta ahora, los analistas de la organización de protección infantil del Reino Unido han comprobado si el material que encuentran se divide en tres categorías: A, B o C. Estas agrupaciones se basan en las leyes y directrices en ese país. Condena al Reino Unido por el abuso sexual de menores y establece ampliamente los tipos de abuso.
Por ejemplo, las imágenes de categoría A, las más graves, incluyen los peores delitos contra los niños. Estas clasificaciones se utilizan para calcular la duración de la sentencia por un delito. Sin embargo, otros países utilizan clasificaciones diferentes.
Ahora, el IWF cree que un gran avance en los datos podría eliminar algunas de estas disparidades. El grupo reconstruyó su software de hash llamado Intelligrade para hacer coincidir automáticamente imágenes y videos con las leyes y regulaciones de Australia, Canadá, Nueva Zelanda, Estados Unidos y el Reino Unido, también conocidos como los países de los cinco ojos. El cambio tiene como objetivo reducir la duplicación de análisis y facilitar que las empresas de tecnología prioricen imágenes y videos de los abusos más graves.
“Creemos que podemos compartir mejor los datos para que más personas puedan hacer un buen uso de ellos, en lugar de trabajar todos en nuestros propios pequeños silos”, dijo Chris Hughes, director de la línea directa del IWF. “Cuando compartimos datos hoy, es muy difícil hacer comparaciones significativas con ellos porque simplemente no encajan bien”.
Los países dan a las imágenes diferentes significados según lo que ocurra en ellas y la edad de los niños involucrados. Algunos países clasifican las imágenes según si los niños son prepúberes o púberes y según el delito cometido.
La categoría más grave en el Reino Unido, A, incluye la actividad sexual con penetración, la sodomía y el sadismo. No implica necesariamente actos de masturbación, dice Hughes. En los EE. UU., Esto entra en una categoría superior.
“En este momento, los estadounidenses que soliciten imágenes de categoría A del IWF se estarían perdiendo este tipo de contenido”, dice Hughes.
A todas las fotos y videos examinados por el IWF se les asigna un hash, básicamente un código compartido con empresas de tecnología y agencias de aplicación de la ley de todo el mundo. Estos hash se utilizan para identificar contenido abusivo conocido y evitar que se cargue nuevamente en la web. El sistema de hash ha tenido un impacto significativo en la difusión de material de abuso sexual infantil en línea, pero la última herramienta del IWF agrega información significativamente nueva a cada hash.
El arma secreta del IWF son los metadatos. Son datos que tienen que ver con datos: puede ser el qué, quién, cómo y cuándo de lo que contienen las imágenes. Los metadatos son una herramienta poderosa que los investigadores pueden utilizar para identificar patrones en las acciones de las personas y analizarlos en busca de tendencias. Algunos de los mayores defensores de los metadatos incluyen a los espías, que dicen que pueden ser más reveladores que el contenido de los mensajes.
Según Hughes, el IWF ha aumentado la cantidad de metadatos que crea para cada imagen y video que agrega a su lista hash. Cada nueva imagen o video que examina se califica con más detalle que nunca. Además de determinar si el contenido de abuso sexual coincide con los tres grupos del Reino Unido, sus analistas ahora están agregando hasta 20 piezas diferentes de información a sus informes.
Estos campos coinciden con los requisitos necesarios para determinar la clasificación de una imagen en los otros países de Five Eyes: el personal de políticas de la organización benéfica comparó todas las leyes y calculó los metadatos necesarios.
[content-egg module=GoogleImages template=image next=1]“Decidimos ofrecer un alto nivel de granularidad en términos de la descripción de la edad, un alto nivel de granularidad en términos de la representación de lo que está sucediendo en la imagen y también para confirmar el género”, dice Hughes.
Las mejoras en las tecnologías de detección de abusos y los procesos más granulares de las empresas de tecnología están encontrando más contenido que nunca, aunque algunas empresas lo hacen mejor que otras.
El año pasado, el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro, recibió 21,4 millones de denuncias de abusos de empresas de tecnología que están obligadas por la ley de EE. UU. A informar el hallazgo. Fue más que cualquier otro año registrado, y los informes incluyeron 65,4 millones de imágenes, videos y otros archivos.
A pesar del aumento de las denuncias de abuso infantil, uno de los principales desafíos es que los procedimientos y estándares de denuncia varían en todo el mundo. Debido a los diferentes enfoques, es difícil obtener una imagen completa del verdadero alcance del abuso sexual infantil en Internet. Una revisión legal de 2018 realizada por el Centro Internacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro de EE. UU., reveló muchas inconsistencias.
La revisión encontró que 118 países tienen leyes “adecuadas” sobre el abuso sexual infantil, 62 tienen leyes inadecuadas y 16 países no las tienen. Algunos países con leyes inadecuadas no definen el abuso sexual infantil, otros no consideran el uso de la tecnología en la delincuencia y algunos no penalizan la posesión de contenido abusivo.
Por otro lado, un estudio financiado por la Unión Europea y realizado por la fuerza policial internacional Interpol y ECPAT International, varias organizaciones de la sociedad civil, encontró que existen “desafíos importantes” cuando se trata de comparar información sobre contenido de abuso sexual de menores y que esto dificulta la búsqueda de víctimas.
“Esta situación se complica por el uso de diferentes enfoques de categorización al asignar características de las víctimas y experiencias de victimización, que prohíben una comparación significativa entre los estudios”, dice el informe de febrero de 2018.
El IWF espera que su sistema Intelligrade ayude con algunos de estos problemas. “Casi reduce la necesidad de aprobar una ley mundial sobre abuso sexual infantil”, dijo Emma Hardy, directora de comunicaciones del IWF. Investigaciones académicas anteriores han recomendado que los países trabajen para alinear sus leyes contra el abuso sexual infantil; aunque este es un desafío logístico y político.
[content-egg module=GoogleImages template=image next=1]“La tecnología llena los grandes vacíos en la armonización legal”, dice Hardy. El IWF ahora está investigando más países donde su herramienta podría verificar las imágenes de las leyes: hay 20 países en una larga lista.
Un portavoz de Google, que recibe los datos del IWF, dice que la mayor granularidad de los datos debería ayudar. “Este nuevo sistema se sumará a esta lucha al facilitar que las empresas, grandes o pequeñas, identifiquen los hashtags que aparecen en el Intelligrade de la IWF y se corresponden con las imágenes que son ilegales bajo diversos y complejos sistemas legales”, dice el portavoz.
Añaden que los “metadatos adicionales” pueden ayudar en la lucha contra el abuso sexual infantil en Internet. “Un mapa claro de las clasificaciones en todos los sistemas legales ayudará a las ONG, la industria y los legisladores a reconocer las diferencias en la política y la regulación y, con suerte, lograr mejores resultados legislativos”, dice el portavoz.
Pero además de tratar de cerrar algunas de las lagunas, Hughes dice que incorporar más metadatos en el trabajo de los analistas del IWF ayudará a todos a comprender y combatir los tipos de abuso que están ocurriendo. Vale la pena el tiempo adicional que requiere el personal del IWF para revisar las fotografías, dice.
Al incluir detalles como el abuso sexual en fotos y videos, los analistas pueden evaluar mejor los tipos de abuso que ven y determinar si el comportamiento delictivo está cambiando. El IWF podrá saber cuántos casos de ciertos tipos de abuso están ocurriendo y qué edades tienen las víctimas.
También le indica qué tipos de abuso se comparten con mayor frecuencia en qué sitios web. Intelligrade también se usa para extraer y almacenar nombres de archivos para contenido de abuso sexual infantil, lo que puede ayudarlo a comprender el lenguaje cifrado que usan los abusadores de niños para hablar entre ellos.
Además, al agregar datos adicionales a las imágenes, los sistemas de aprendizaje automático pueden capacitarse para identificar mejor los diferentes tipos de abuso. Una base de datos con más etiquetas significa que las imágenes pueden ser mejor entendidas por la IA: el IWF está en el proceso de clasificar millones de imágenes de las categorías A y B a las que tiene acceso a través de la base de datos de imágenes de abuso infantil del gobierno del Reino Unido.
“El plan es capacitar a los clasificadores no solo para saber si una imagen es criminal, sino para refinar esa clasificación y poder decir si contiene un acto criminal en particular”, dice.
Este método permitirá a la IWF buscar en Internet nuevas imágenes y videos de abuso sexual infantil. “A partir de entonces, podemos utilizar las ventajas para nuestras propias necesidades”, dice Hughes. “Eso significa que podemos orientar mejor el contenido”.