15 jun (Reuters) - Facebook reveló el jueves nuevos detalles de sus esfuerzos para remover contenido sobre terrorismo, una respuesta a presiones políticas en Europa por grupos militantes que usan la red social para difundir propaganda y reclutar nuevos integrantes.
La compañía ha reforzado herramientas de inteligencia artificial como el contraste de imágenes y la compresión del lenguaje para identificar y remover contenido rápidamente, dijeron la directora de políticas globales de Facebook Monika Bickert y el responsable de normas contra el terrorismo, Brian Fishman, en una publicación sobre este asunto en el blog de la red.
Facebook utiliza inteligencia artificial para ver si fotografías o videos que hayan sido publicados coinciden con material de grupos que ya ha definido como terroristas, como Estado Islámico, al Qaeda o sus afiliados, indicó la compañía.
YouTube, Google, Facebook, Twitter y Microsoft crearon el año pasado una base de datos de huellas digitales automáticamente asignadas a videos o fotografías de contenido militante para contribuir entre ellas en la identificación de asuntos similares en sus plataformas.
De manera parecida, Facebook ahora analiza textos que ya hayan sido eliminados por ensalzar o apoyar organizaciones militantes con el fin de elaborar patrones de propaganda.
"Más de la mitad de las cuentas que removemos por terrorismo las hemos encontrado nosotros mismos, es algo que queremos que nuestros usuarios conozcan, para que sepan que estamos de verdad comprometidos con hacer de Facebook un lugar hostil para terroristas", declaró Bickert en una entrevista telefónica.
Países como Alemania, Francia y Gran Bretaña - que en los últimos años han sufrido varios ataques que han dejado víctimas civiles por parte de militantes islamistas - han presionado a Facebook y otros servicios como Google y Twitter a hacer más para remover contenidos militantes y discursos de odio.