La herramienta de inteligencia artificial reconoce imágenes de abuso infantil con un 99% de precisión

La traducción del artículo se preparó la víspera del inicio del curso "Visión por ordenador" .














Los desarrolladores de la nueva herramienta basada en inteligencia artificial afirman que detecta imágenes de abuso infantil con casi un 99 por ciento de precisión.



Safer es una herramienta desarrollada por Thorn, una organización sin fines de lucro, para ayudar a las empresas que no tienen sus propios sistemas de filtrado a detectar y eliminar estas imágenes.



Según la Internet Watch Foundation en el Reino Unido, los informes de abuso infantil durante la cuarentena de COVID-19 han aumentado en un 50 por ciento. En las 11 semanas transcurridas desde el 23 de marzo, su línea directa ha recibido 44,809 imágenes encontradas, frente a las 29,698 del año pasado. Muchas de estas imágenes son de niños que pasaron mucho tiempo en Internet y tuvieron que publicar sus imágenes.



Andy Burroughs, jefe de seguridad infantil en Internet de NSPCC, dijo recientemente a la BBC: "El daño podría reducirse si las redes sociales invirtieran de manera más inteligente en tecnología, invirtiendo en características de diseño más seguras en una crisis".



Más seguro es una herramienta que le ayuda a marcar rápidamente el contenido de abuso infantil para reducir el daño causado.



Los servicios de descubrimiento más seguros incluyen:



  • Coincidencia de hash de imagen: un servicio insignia que genera hashes criptográficos y perceptuales para imágenes y compara estos hashes con hashes CSAM conocidos. En el momento de la publicación, la base de datos incluye 5,9 millones de hashes. El hash se realiza en la infraestructura del cliente para preservar la privacidad del usuario.
  • CSAM (CSAM Image Classifier): , Thorn Safer, , CSAM. , , CSAM , CSAM.
  • (Video Hash Matching): , , CSAM. 650 . CSAM.
  • SaferList : Safer, Safer , Safer, . , - .


Sin embargo, el problema no se limita al etiquetado de contenido. Se ha documentado que los moderadores de las plataformas de redes sociales a menudo necesitan terapia o incluso ayudar a prevenir el suicidio después de estar expuestos al contenido más perturbador publicado en Internet día tras día.



Thorn afirma que Safer está diseñado teniendo en cuenta el bienestar de los moderadores. Con este fin, el contenido se difumina automáticamente (la compañía dice que actualmente solo funciona con imágenes).



Safer tiene API disponibles para los desarrolladores que "están diseñadas para expandir el conocimiento general del contenido de abuso infantil al agregar hash, escanear con hash de otras industrias y enviar comentarios falsos positivos".



Flickr es uno de los clientes más famosos de Thorn en este momento. Usando Safer, Flickr descubrió una imagen de abuso infantil en su plataforma, que, luego de una investigación policial, resultó en la incautación de 21 niños entre las edades de 18 meses y 14 y el arresto de criminales.



Safer está actualmente disponible para cualquier empresa que opere en los EE. UU. Thorn planea expandir sus operaciones a otros países el próximo año, después de adaptarse a los requisitos de informes nacionales de cada país.



Puede leer más sobre esta herramienta y cómo empezar aquí .



All Articles