La inteligencia artificial (IA) está transformando la educación a un ritmo vertiginoso. Desde cómo los alumnos escriben ensayos y practican idiomas hasta la forma en que completan sus trabajos prácticos, la tecnología se ha vuelto omnipresente. Los docentes también experimentan con ella para planificar clases, corregir y dar devoluciones. La velocidad es tal que escuelas, universidades y legisladores luchan por mantenerse al día.

En medio de esta vorágine, una pregunta fundamental suele pasarse por alto: ¿cómo están aprendiendo realmente los estudiantes y profesores a usar la IA? Hoy por hoy, gran parte de este aprendizaje es informal. Los alumnos intercambian consejos en TikTok o Discord, o incluso le piden instrucciones al propio ChatGPT. Los docentes, por su parte, comparten tips en la sala de profesores o se informan a través de debates en LinkedIn. Estas redes difunden el conocimiento de manera rápida pero desigual, y rara vez fomentan una reflexión sobre cuestiones más profundas como los sesgos, la vigilancia o la equidad.

Promesas versus realidad: ¿la IA realmente ayuda a aprender?

Cuando OpenAI lanzó su “modo estudio” en julio de 2025, la compañía promocionó los beneficios educativos de ChatGPT, asegurando que podía mejorar significativamente el rendimiento académico. Sin embargo, cualquier docente con experiencia se preguntaría: ¿es solo marketing o la investigación académica respalda estas afirmaciones?

Aunque las herramientas de IA generativa avanzan a toda velocidad en el ámbito educativo, la investigación sólida sobre su impacto no va tan rápido. Algunos estudios iniciales muestran beneficios para grupos específicos, como estudiantes de programación o de inglés. Un estudio publicado en la revista Nature en mayo de 2025 sugirió que los chatbots podrían facilitar el aprendizaje y el pensamiento de orden superior. No obstante, muchos académicos han señalado debilidades metodológicas importantes en varias de estas investigaciones.

Otros estudios pintan un panorama más preocupante, sugiriendo que la IA puede perjudicar el rendimiento o habilidades cognitivas como el pensamiento crítico. Un artículo demostró que cuanto más usaba un estudiante ChatGPT para aprender, peor le iba después en tareas similares sin la herramienta. La investigación apenas está comenzando a rascar la superficie de cómo esta tecnología afectará realmente el aprendizaje a largo plazo.

El cerebro necesita esforzarse para crecer

Para encontrar pistas, podemos recurrir a la psicología cognitiva. Los expertos en este campo sostienen que nuestros pensamientos son el resultado de dos modos de procesamiento: el Sistema 1 y el Sistema 2. El primero es rápido, intuitivo y automático, como cuando andamos en bicicleta o nos vestimos. El Sistema 2, en cambio, es lento, deliberado y requiere un esfuerzo mental a veces doloroso, pero produce resultados más sólidos.

Ambos sistemas son necesarios, pero adquirir conocimientos y dominar nuevas habilidades depende fundamentalmente del Sistema 2. El esfuerzo, la fricción y la lucha mental son cruciales para el trabajo cognitivo de aprender y fortalecer las conexiones neuronales. Como le digo a mis alumnos, el cerebro es como un músculo: necesita trabajo duro para ver resultados. Sin desafiarlo, no crece.

El peligro de que la máquina “piense” por nosotros

Ahora, imaginemos un robot que nos acompaña al gimnasio y levanta las pesas por nosotros, sin que tengamos que hacer ningún esfuerzo. En poco tiempo, nuestros músculos se atrofiarían. La IA, mal utilizada —para resolver un examen o escribir un ensayo completo—, permite a los estudiantes evitar precisamente aquello que necesitan para desarrollar sus habilidades. Les quita el entrenamiento mental.

Este fenómeno, conocido como “descarga cognitiva”, puede tener un efecto perjudicial en el aprendizaje y la memoria. Investigaciones han demostrado que delegar habitualmente la navegación al GPS puede deteriorar la memoria espacial, o que usar Google para responder preguntas nos hace sobrestimar nuestro propio conocimiento. Un estudio reveló que los alumnos que investigaban un tema con ChatGPT en lugar de un buscador web tradicional tenían una carga cognitiva menor —pensaban menos— y producían un razonamiento de peor calidad. Es el equivalente a dejar que el robot haga nuestro entrenamiento en el gimnasio.

Capacitar a los docentes: la clave para un uso crítico

La solución no parece ser la prohibición, sino la preparación. Ante la falta de formación formal, diseñé un módulo de desarrollo profesional para futuros docentes en la Mount Saint Vincent University. El objetivo no era solo aprender a usar la IA, sino pasar de la experimentación casual a un compromiso crítico. Los participantes exploraron herramientas de IA, diseñaron evaluaciones que las integraban y analizaron dilemas éticos.

Los resultados fueron reveladores. El entusiasmo inicial de los docentes en formación se mantuvo, pero se transformó. Al finalizar, reportaron una mayor capacidad para evaluar herramientas, reconocer sesgos y aplicar la IA de manera reflexiva. Su lenguaje también cambió: pasaron de la incertidumbre a usar con confianza términos como “sesgo algorítmico” y “consentimiento informado”. Empezaron a ver la alfabetización en IA como una parte de su juicio profesional, conectada con la pedagogía y la identidad docente.

Políticas institucionales: una deuda pendiente en las universidades

Estos hallazgos en el aula reflejan desafíos institucionales más amplios. Las universidades de todo el mundo han adoptado políticas fragmentadas: algunas prohíben la IA, otras la respaldan con cautela y muchas mantienen una postura ambigua. Esta inconsistencia genera confusión y desconfianza, dejando a los docentes como “eticistas ad-hoc” sin respaldo institucional.

Junto a mi colega Emily Ballantyne, propusimos un modelo que introduce una dimensión “relacional y afectiva”, destacando que la IA no solo afecta la eficiencia, sino también la confianza y la dinámica en la relación entre docentes y alumnos. Cuando las instituciones evitan establecer políticas claras, la carga recae injustamente en el educador individual.

Hacia una integración responsable: los próximos pasos

Para que la IA apoye genuinamente la enseñanza, las instituciones deben invertir en construir el conocimiento y los hábitos que sostienen un uso crítico.

  1. La alfabetización en IA debe ser central: No puede ser un taller opcional. Los programas de formación docente deben integrarla en sus planes de estudio.

  2. Las políticas deben ser claras y prácticas: Las instituciones deben distinguir entre el mal uso (como el plagio directo o ghostwriting) y los usos válidos (como recibir ayuda para una lluvia de ideas o feedback), tal como recomienda la investigación reciente.

  3. Fomentar comunidades de aprendizaje: El conocimiento sobre IA evoluciona constantemente. Círculos de debate entre docentes, repositorios de recursos y centros interdisciplinarios pueden ayudar a compartir estrategias y debatir dilemas.

  4. La equidad debe ser prioritaria: Las herramientas de IA incorporan los sesgos de sus datos de entrenamiento y a menudo perjudican a los estudiantes multilingües o de contextos desfavorecidos. Las instituciones deben realizar auditorías de equidad y alinear la adopción de IA con los estándares de accesibilidad.