Una investigación de la Universidad Autónoma de Madrid concluye que los estudiantes que finalizan sus carreras tienen la capacidad de discernir cuándo las herramientas de inteligencia artificial generativa son fiables y cuándo no
Los estudiantes que se encuentran en la recta final de su formación universitaria han desarrollado un pensamiento crítico suficiente para utilizar la inteligencia artificial (IA) generativa de forma responsable. Esta es la principal conclusión de un estudio realizado por investigadores de la Universidad Autónoma de Madrid (UAM), que arroja luz sobre uno de los mayores debates educativos de la actualidad.
La irrupción de herramientas como ChatGPT ha generado un dilema en las aulas, similar al que en su día provocaron las calculadoras. La pregunta es la misma: ¿cuándo su uso apoya el aprendizaje y cuándo se convierte en un obstáculo que impide al alumno desarrollar sus propias capacidades? El reto con la IA es mayor, ya que sus respuestas pueden ser subjetivas, incompletas o directamente erróneas.
Para abordar esta cuestión, el estudio, publicado en la revista científica Applied Sciences, evaluó la capacidad de juicio de alumnos de último curso de grados tan diversos como Química, Psicología, Derecho, Economía, Ingeniería o Turismo. Los resultados fueron consistentes en todas las áreas: los futuros graduados saben distinguir cuándo la IA es un aliado útil y cuándo sus respuestas no son fiables.
«Hemos demostrado que los alumnos adquieren, a lo largo de su trayectoria académica, la formación necesaria para hacer un uso responsable de la IA generativa, independientemente del tipo de estudios cursados», explican los autores del trabajo.
Este hallazgo no cierra el debate, sino que lo desplaza. Según los investigadores, el foco debe ponerse ahora en averiguar en qué momento exacto de la vida académica se alcanza ese nivel de madurez crítica. «La cuestión que debe abordarse es determinar en qué momento educativo los estudiantes alcanzan el nivel de pensamiento crítico suficiente», señalan.
Identificar ese punto es clave para diseñar políticas educativas que guíen a los estudiantes más jóvenes. El objetivo es evitar un uso inadecuado de estas tecnologías antes de que hayan desarrollado las competencias necesarias para cuestionar y verificar la información que reciben de ellas.
Esta investigación forma parte del proyecto TutorIA_Lab, una iniciativa financiada por la Comunidad de Madrid y dirigida por la profesora María Elena Cuenca. Su objetivo es analizar en profundidad el impacto que la inteligencia artificial está teniendo en los procesos de aprendizaje en la educación superior.
