18.9 C
Málaga
11 abril, 2026
MálagaUniversidad de Málaga

Cuando la IA se inventa lugares que no existen: los errores del chatbot disuaden al viajero

Un estudio de la Universidad de Málaga analiza cómo los fallos de ChatGPT a la hora de planificar viajes erosionan la confianza del usuario y reducen su disposición a seguir las recomendaciones del sistema.

La inteligencia artificial generativa se ha convertido en una herramienta cada vez más popular para planificar viajes. Millones de usuarios recurren ya a sistemas como ChatGPT para obtener itinerarios personalizados en cuestión de segundos. Pero estas herramientas tienen un talón de Aquiles bien documentado: las llamadas «alucinaciones», es decir, respuestas que suenan creíbles pero que son falsas. Un restaurante que no existe, un museo con el horario equivocado o un monumento inventado de la nada.

Hasta ahora se sabía que estos errores ocurren, pero se conocía poco sobre cómo afectan al comportamiento del viajero. Un equipo de investigadores de la Universidad de Málaga (UMA) ha querido responder precisamente esa pregunta, y los resultados acaban de publicarse en la revista científica Journal of Consumer Behaviour.

El error no importa tanto por sí solo, sino por lo que provoca después

El estudio, firmado por Francisco Rejón-Guardia, Sebastián Molinillo y Rafael Anaya-Sánchez, se apoya en dos experimentos para entender el mecanismo psicológico que se activa cuando un viajero detecta un fallo en el itinerario que le ha propuesto la IA. La conclusión más llamativa es que el efecto del error no es directo, sino encadenado.

En el primer experimento, los investigadores comprobaron que cuando un itinerario generado por ChatGPT contiene alucinaciones, el usuario lo percibe como menos preciso y menos útil, lo que a su vez debilita la confianza en el sistema. Y es esa pérdida de confianza la que, en última instancia, reduce las probabilidades de que el viajero decida seguir la recomendación. El error en sí no basta para disuadir al usuario; lo que verdaderamente le frena es la desconfianza que ese error genera.

Cuando el error tiene consecuencias reales, el daño se multiplica

El segundo experimento añadió otra capa al análisis: ¿qué ocurre cuando el usuario no solo detecta el error, sino que además sufre sus consecuencias? Los investigadores observaron que las experiencias positivas —seguir una recomendación de la IA y que salga bien— aumentan la disposición del viajero a volver a confiar en el sistema. Hasta ahí, lo esperable.

El hallazgo más relevante llega cuando el error es lo que los investigadores llaman «saliente»: visible, con consecuencias negativas concretas. En ese caso, la intención de seguir futuras recomendaciones cae todavía más. Un fallo que provoca que el turista se presente en un local cerrado o que reserve una excursión que no existe no solo daña la imagen del chatbot, sino que deja una huella psicológica que cuesta revertir. «Cuando los errores fueron salientes, la intención de seguir la recomendación disminuyó aún más», explica Rejón-Guardia.

Por qué importa en el turismo más que en otros sectores

Los autores subrayan que el turismo es un ámbito especialmente sensible a este tipo de fallos. A diferencia de otros contextos en los que se usa la IA, planificar un viaje implica tomar decisiones con antelación, gastar dinero y depositar expectativas personales. Un error en la recomendación de una película tiene pocas consecuencias; un error en la planificación de unas vacaciones puede arruinarlas.

Por eso, según los investigadores, estos resultados no son solo un diagnóstico del problema sino también una hoja de ruta para quienes desarrollan estos sistemas. Comprender qué mecanismos psicológicos se activan cuando un usuario detecta un fallo permite diseñar herramientas más transparentes, que avisen al usuario de sus limitaciones y que minimicen el impacto de los inevitables errores.

Porque, como señala el propio Rejón-Guardia, eliminar por completo las alucinaciones en la IA generativa es, a día de hoy, imposible. La clave está en gestionarlas de forma que no destruyan la confianza del usuario antes de que la tecnología madure lo suficiente para reducirlas.

Otras noticias de interés

La UMA y la Fundación entregan los Premios de Investigación

Mariano Nogales

Aquae Talent Hub llega a Málaga de la mano de la Fundación Unicaja

Aula Magna

El XXVIII Encuentro Alumni España reúne en la UMA a un centenar de participantes

Alexis Ojeda

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información. ACEPTAR

Aviso de cookies