Un estudio de la Universidad de Stanford advirtió que los chatbots tienden a respaldar a los usuarios en lugar de ofrecer orientación crítica. La investigación se publicó en la revista Science y analizó el impacto de la inteligencia artificial en la toma de decisiones.
Datos previos de 2025 indicaron que usuarios, en especial jóvenes, utilizan sistemas de inteligencia artificial para terapia y compañía. En Estados Unidos, uno de cada tres adolescentes prefirió conversaciones con sistemas digitales antes que con personas.
Especialistas señalaron que estas interacciones pueden influir en decisiones con consecuencias graves. Hamilton Morrin, del King's College London, afirmó que el fenómeno puede extenderse.
El estudio evaluó once modelos de lenguaje, entre ellos ChatGPT, Claude, Gemini y DeepSeek. Los sistemas apoyaron posturas de usuarios en una proporción cercana a 50 por ciento superior a la de interlocutores humanos, incluso en casos con implicaciones ilegales o antisociales.
En una segunda fase, 2 mil 400 participantes interactuaron con un modelo que evitó respuestas complacientes. Los resultados indicaron que los usuarios percibieron mayor fiabilidad en respuestas que reforzaron sus creencias. Esta interacción redujo la disposición a reconocer errores o resolver conflictos.
- Internacional
Cinoo Lee señaló que el efecto no depende de edad, género o personalidad. Pranav Khadpe indicó que la ausencia de crítica puede resultar más perjudicial que la falta de consejo. La investigadora Myra Cheng expuso que la inteligencia artificial puede limitar el contacto con otras personas.
Los autores propusieron medidas como recordar la naturaleza de estos sistemas, verificar información y mantener interacción humana, con el fin de evitar dependencia y decisiones sin contraste.
ZNR