Un estudio advirtió sobre la capacidad de manipulación mediante imágenes médicas falsas que generan sistemas de inteligencia artificial, con resultados que engañan a especialistas y a herramientas digitales.
La investigación se publicó en la revista Radiology.
El desafío de detectar lo "invisible": Médicos frente a la IA
Diecisiete radiólogos de doce hospitales en seis países evaluaron 264 radiografías. La mitad provino de sistemas como ChatGPT y RoentGen. Cuando los participantes no conocían el objetivo, solo el 41 por ciento identificó imágenes sintéticas.
Tras recibir información sobre la presencia de material artificial, la precisión alcanzó 75 por ciento.
Amenazas a la ciberseguridad y riesgos legales
El líder del estudio, Mickael Tordjman, de la Escuela de Medicina Icahn del Mount Sinai, señaló que la similitud entre imágenes reales y simuladas genera riesgo de litigios con base en diagnósticos alterados.
También advirtió sobre amenazas a la seguridad digital si actores externos insertan imágenes falsas en sistemas hospitalarios.
El análisis incluyó modelos como GPT-4o, GPT-5, Gemini 2.5 Pro y Llama 4 Maverick. La detección de contenido falso osciló entre 57 y 85 por ciento.
El propio sistema que generó imágenes no logró reconocer todos los casos.
Los investigadores plantearon el uso de marcas digitales y bases de datos para identificar contenido falso y reforzar controles.
El equipo consideró que la generación de estudios clínicos simulados puede extenderse a otras técnicas de diagnóstico y afectar la confianza en registros médicos.
LV