Apple anunció que próximamente incluirá un software que detectará imágenes de abuso infantil o pornografía infantil en los iPhones de sus usuarios. Para iniciar, el sistema se implementará en Estados Unidos, según el Financial Times.
La compañía de la manzana comentó en rueda de prensa que, para no invadir la privacidad del usuario de forma ilegal, se está desarrollando un plan para expandir el servicio según las leyes de cada país donde se vende la marca.
Se estima que este nuevo sistema se encuentre activo dentro de las funciones del iOS 15, la empresa espera lanzarlo en septiembre.
Según Financial Times, 'neutralMatch' es el software que alimentaría de manera proactiva a un equipo de especialistas humanos, cuando se detecten imágenes ilegales estos se pondrán en contacto con la autoridad para verificar el material.
El software escaneará las fotos almacenadas en el Apple de un usuario en Estados Unidos y las que están en el respaldo del iCloud, estas se compararán con una base de datos de 200 mil imágenes conocidas de abuso sexual infantil que recopiló el NCMEC (National Center for Missing & Exploited Children).
El sistema además de detectar abuso infantil, en un futuro podría adaptarse para buscar imágenes y textos específicos como decapitaciones terroristas o cárteles antigubernamentales en protestas, señalaron los investigadores.
MGB