Headnote
Resumen
La inteligencia artificial (IA) está transformando la educación con aplicaciones como tutoría inteligente, aprendizaje personalizado y evaluación automatizada. Esta revisión examina el potencial y los riesgos de su adopción, incluyendo beneficios como eficiencia y personalización, y desafíos éticos como privacidad, sesgo y desigualdad. Se analizan evidencias académicas, informes internacionales y debates actuales, destacando la necesidad de supervisión docente, la solidez pedagógica y el enfoque equitativo. Se concluye que el éxito de la IA educativa depende de su integración responsable, promoviendo una alianza humano-máquina que permita construir sistemas educativos más inclusivos, eficientes e innovadores.
Palabras clave: inteligencia artificial, tecnología educativa, aprendizaje personalizado, IA generativa, equidad educativa, |A ética, política educativa.
Abstract
Artificial Intelligence (Al) is transforming education through intelligent tutoring, personalized learning, and automated assessment. This review explores both its potential and risks, highlighting benefits such as efficiency and customization, alongside ethical concerns like data privacy, bias, and inequality. Drawing from academic research, international reports, and current debates, it stresses the need for teacher oversight, pedagogical soundness, and equity. The conclusion emphasizes that Al's educational success relies on responsible integration, fostering a human-Al partnership aimed at building more inclusive, effective, and innovative education systems worldwide.
Keywords: gartificial intelligence, educational technology, personalized learning, generative Al, educational equity, ethical Al, education policy.
JEL classification: 121, 128, 133.
I. INTRODUCCIÓN
La inteligencia artificial (IA) se está convirtiendo rápidamente en una fuerza transformadora de la educación en todo el mundo, con la promesa de abordar los retos persistentes e innovar las prácticas de enseñanza y aprendizaje en todos los niveles educativos. La IA en la educación (a menudo abreviada como AlEd) abarca una amplia gama de tecnologías -desde algoritmos de aprendizaje automático y sistemas de tutoría inteligente hasta robótica y procesamiento del lenguaje natural- que se aplican a entornos educativos. Organizaciones mundiales como la Unesco han destacado el potencial de la |A para ayudar a alcanzar el Objetivo de Desarrollo Sostenible 4 (Educación de calidad) mejorando la enseñanza y el aprendizaje y acelerando el progreso, al tiempo que han advertido de que el rápido desarrollo de la IA conlleva riesgos que han superado los debates políticos. En esencia, la IA es muy prometedora para mejorar la calidad, la equidad y la eficiencia de la educación, pero su adopción debe gestionarse cuidadosamente para garantizar que beneficie a todos los alumnos y educadores y no profundice las brechas existentes (Pedro et al., 2019; Unesco, 2021).
El interés por el papel de la IA en la educación ha aumentado en los últimos años, estimulado tanto por los avances tecnológicos como por las presiones de la pandemia COVID-19, que aceleró la adopcion del aprendizaje digital (Dhawan, 2020; OCDE, 2021). Las primeras formas de AlEd, como los sistemas de tutoría inteligente, se han estudiado durante décadas, pero afinales de la década de 2010 y principios de la de 2020 se produjo un punto de inflexión en la concienciación pública y la implementación. En particular, la llegada de la IA generativa (por ejemplo, ChatGPT de OpenAl en 2022) puso las capacidades de la IA al alcance de un amplio público, lo que llevó a educadores y responsables políticos de todo el mundo alidiar con sus implicaciones para el currículo, la evaluación y la integridad académica. A mediados de 2023, la Unesco convocó alos ministros de educación de más de 40 países para debatir cómo responder ala IA generativa en la educación, lo que puso de manifiesto tanto el entusiasmo por el potencial de la IA como la urgente preocupación por sus riesgos. Resulta revelador que una encuesta mundial realizada por la Unesco en 2023 revelara que menos del 10 por 100 de las escuelas y universidades disponían de orientaciones o políticas formales sobre el uso de la IA, lo que subraya que los sistemas educativos apenas están empezando a formular respuestas estructuradas a estas tecnologías. Este contexto sienta las bases para un examen equilibrado de la IA en la educación: mientras que las capacidades de la tecnología avanzan rápidamente, las estrategias para aprovecharla de manera eficaz y ética en las aulas son todavía incipientes.
Esta revisión ofrece un análisis exhaustivo del papel de la IA en la educación a todos los niveles -infantil, primaria, secundaria, superior y formación profesional- a escala mundial. Comenzamos explorando las aplicaciones de la IA en la enseñanza, el aprendizaje, la evaluación, la administración y la educación personalizada, señalando ejemplos del mundo real y desarrollos recientes. A continuación, analizamos las implicaciones económicas de estas aplicaciones de la IA, tanto positivas como negativas, incluidos los aumentos de eficiencia, las repercusiones en el mercado laboral, las consideraciones de costes y las cuestiones de equidad y acceso. Sintetizamos los resultados de la literatura académica reciente, los informes internacionales y los análisis políticos para presentar una visión rigurosa y actualizada. Al analizar los beneficios, también damos la misma importancia alos retos y alas preocupaciones éticas que surgen con la lA en la educación -desde la privacidad de los datos y el sesgo algorítmico hasta el riesgo de exacerbar las desigualdades- para garantizar una perspectiva equilibrada. El objetivo es dilucidar cómo la IA está revolucionando la educación enla práctica y lo que esto significa para los alumnos, los profesores y las sociedades, proporcionando ideas que puedan guiar a los educadores, los responsables políticos y las partes interesadas en la toma de decisiones informadas sobre la integración de la IA en la educación. Al hacerlo, mantenemos un tono académico y utilizamos el estilo de citación APA para hacer referencia al conjunto emergente de pruebas y opiniones de expertos sobre este tema fundamental.
Il. APLICACIONES DE LA IA EN LA EDUCACIÓN
1. La IA en la enseñanza y la instrucción en el aula
Una aplicación significativa de la IA en la educación es el apoyo a la enseñanza y la entrega de instrucción. En lugar de sustituir alos profesores, la IA se está utilizando en gran medida como una herramienta para mejorar las capacidades de los profesores y reducir su carga de trabajo (Holmes et al., 2019). Por ejemplo, la IA puede automatizar varias tareas administrativas y preparatorias -como calificar tareas sencillas, tomar asistencia u organizar los materiales de clase-, liberando así a los profesores para que se centren más enla instrucción directa y el compromiso de los estudiantes (Luckin et al., 2016). Según el Foro Económico Mundial, la mayor promesa de la ТА en las aulas es "mejorar, más que sustituir, la enseñanza impartida por personas", encargándose de las tareas secundarias y permitiendo a los profesores dedicar más tiempo al trabajo interactivo y personalizado con los alumnos. Los primeros indicios sugieren que esto puede mejorar la eficacia y la satisfacción laboral de los profesores. En Estados Unidos, algunos distritos escolares han experimentado con asistentes de calificación de IA y descubrieron que los profesores podían ahorrar un tiempo sustancial en la calificación de tareas, que podían reinvertir en la planificación de lecciones o en tutorías individuales (Pane et al., 2017; Zawacki-Richter et al., 2019). También están surgiendo herramientas de planificación de lecciones impulsadas por IA: estas herramientas pueden sugerir recursos didácticos o generar borradores de planes de lecciones alineados con los estándares curriculares, en función de un tema determinado y de las necesidades de los estudiantes. Al analizar grandes repositorios de contenido educativo, un sistema de IA podría crear rápidamente vídeos, lecturas o ejercicios para una lección, que un profesor puede refinar y personalizar (Holmes et al., 2019).
En la educación superior, los instructores han aprovechado a los asistentes de enseñanza de IA en grandes cursos. Uno de los primeros ejemplos conocidos fue el de "Jill Watson", una asistente virtual de IBM Watson que se utilizó en Georgia Tech para responder a las preguntas rutinarias de los estudiantes en un foro en línea (Goel y Polepeddi, 2016). Los estudiantes interactuaron con él durante todo un semestre antes de darse cuenta de que se trataba de una IA; fue capaz de responder a las preguntas más frecuentes y liberar a los instructores humanos para abordar las consultas más complejas de los estudiantes. Desde 2020, estos chatbots de IA se han vuelto mucho más sofisticados gracias a los avances en el procesamiento del lenguaje natural. En 2022-2023, el lanzamiento de IA conversacional como GPT-3 y GPT-4 dio lugar a pilotos de tutores/asistentes de IA en las aulas; por ejemplo, algunos profesores utilizan ahora ChatGPT (con precaución) para obtener sugerencias sobre cómo explicar un concepto difícil de forma diferente, o para generar ejemplos y cuestionarios sobre la marcha. Estos asistentes de IA pueden actuar como ayudantes del profesor, proporcionando comentarios rápidos o explicaciones alternativas durante la clase. Y lo que es más importante, los educadores mantienen el control: la IA ofrece recomendaciones, pero el profesor decide qué utilizar o adaptar. Esto concuerda con una recomendación clave de los expertos de que los educadores permanezcan "en el bucle" de la instrucción impulsada por la IA para asegurarse de que concuerda con los objetivos y valores pedagógicos.
La IA también está entrando en las aulas físicas a través de robots sociales y dispositivos inteligentes que ayudan a los profesores. En la educación infantil, por ejemplo, algunos centros de preescolar han experimentado con robots adaptados a los niños (como "NAO" de SoftBank o similares) que pueden hacer participar a los más pequeños en actividades de aprendizaje: cantar canciones, leer cuentos o practicar vocabulario en varios idiomas (Mubin et al., 2013).
Otra forma en que la IA apoya la enseñanza es ayudando a los educadores a analizar los datos de los alumnos para informar su instrucción. Las aulas modernas y los entornos de aprendizaje en línea generan abundantes datos (puntuaciones en pruebas, índices de participación, entregas de deberes, etc.). Las plataformas de análisis basadas en IA pueden procesar estos datos para obtener información sobre los temas más difíciles de la clase, los alumnos que se están quedando rezagados o los conceptos erróneos más comunes (Ifenthaler y Yau, 2020).
Es importante señalar que, aunque la IA puede mejorar la eficiencia y aumentar la enseñanza, también introduce nuevos retos para los educadores. Los profesores deben aprender a utilizar estas herramientas con eficacia, por ejemplo, interpretando correctamente los análisis de la IA o comprobando la exactitud de los contenidos generados por la IA. El desarrollo profesional y la alfabetización de los profesores en IA se están convirtiendo en aspectos críticos.
2. La IA en el aprendizaje y la tutoría de estudiantes
Quizá la aplicación más desarrollada de la IA en la educación sea el apoyo directo al aprendizaje de los alumnos mediante la tutoría inteligente y la práctica personalizada. Los sistemas de aprendizaje basados en IA pueden actuar como tutores, entrenadores o compañeros de prácticas que complementan la enseñanza en el aula. Estos sistemas modelan una experiencia de tutoría individual: presentan el material, permiten que el alumno responda (responda a una pregunta o resuelva un problema), proporcionan retroalimentación inmediata y adaptan las tareas posteriores en función del rendimiento del alumno. Estos sistemas de tutoría inteligente (STI) existen de alguna forma desde los años setenta, pero los últimos avances los han hecho mucho más adaptables y ricos en contenido (VanLehn, 2011).
Un ejemplo destacado son los programas de tutoría matemática basados en IA. Sistemas como ASSISTments, ALEKS, Knewton o MATHia, de Carnegie Learning, utilizan algoritmos de IA para presentar problemas matemáticos adaptados al nivel actual del alumno, darle pistas cuando tiene dificultades y decidir cuándo está preparado para pasara un tema más avanzado. Por ejemplo, un metaanálisis de intervenciones ed-tech realizado por Escueta et al. (2020) concluyó que los sistemas de tutoría personalizada mejoran sistemáticamente los resultados de aprendizaje de los estudiantes, con algunos estudios que muestran una mejora en las puntuaciones de los exámenes del orden de 0,2 a 0,4 desviaciones estándar, equivalente a varios meses de aprendizaje adicional (Escueta et al., 2020; Steenbergen-Hu y Cooper, 2014).
El aprendizaje asistido por IA también está teniendo impacto en la educación infantil y especial. Para los niños pequeños (preescolar y jardín de infancia), los juegos y aplicaciones educativos basados en IA se adaptan alas respuestas del niño, manteniéndolo en una zona óptima de dificultad. Por ejemplo, una aplicación de alfabetización con IA podría introducir las letras del alfabeto en una secuencia adaptada al progreso del niño, o ajustar sobre la marcha la dificultad de un juego de narración (OECD Digital Education Outlook, 2021).
3. La IA enla valoración y la evaluación
La evaluación es otro ámbito en el que la lA está haciendo importantes avances. La evaluación tradicional -exámenes, cuestionarios, tareas- puede requerir mucho trabajo para administrarla y calificarla, y a menudo proporciona información tardía a los alumnos. La lA tiene la capacidad de automatizar y mejorarla evaluación de múltiples maneras: mediante la calificación automática de tareas objetivas y abiertas, mediante pruebas adaptativas que ajustan la dificultad de las preguntas en tiempo real, y mediante análisis que evalúan el rendimiento de los estudiantes de maneras más matizadas que la puntuación de una sola prueba.
Uno de los usos más extendidos de la IA es la calificación automatizada, sobre todo de preguntas objetivas (tipo test, rellenar un espacio en blanco), pero cada vez más de respuestas abiertas, como las redacciones. Muchos programas de evaluación a gran escala y plataformas educativas han integrado motores de puntuación de redacciones con lA. Por ejemplo, el Educational Testing Service (ETS) tiene un sistema de IA llamado e-rater que puede puntuar redacciones en pruebas estandarizadas. Del mismo modo, en los MOOC (Massive Open Online Courses) universitarios, la IA suele calificar las preguntas de respuesta corta y las redacciones para proporcionar una respuesta inmediata dado el gran número de alumnos. La ventaja es evidente: los estudiantes reciben información en segundos o minutos en lugar de esperar días o semanas, lo que les permite aprender de los errores o revisar su trabajo rápidamente. Los estudios han demostrado que la corrección por IA puede alcanzar un nivel de coherencia comparable al de los evaluadores humanos en las tareas de escritura para las que ha sido entrenada, y también puede ser más objetiva en ciertos aspectos (no se deja influir por la escritura o las impresiones superficiales).
Sin embargo, la precisión y la parcialidad en la clasificación de las IA son objeto de debate activo. Aunque una IA puede ser coherente, también puede reflejar sistemáticamente los sesgos presentes en sus datos de entrenamiento. Un sorprendente hallazgo reciente de investigadores de ETS (2024) reveló que un popular modelo lingüistico de gran tamaño (similar a GPT-4) mostraba un sesgo racial en la calificación: penalizaba más los ensayos escritos por estudiantes asiático-americanos que los de otros estudiantes, incluso cuando la calidad del ensayo era similar (Ramineni y Williamson, 2018). Muchos expertos instan a que las calificaciones de la ТА no se utilicen de forma aislada; en su lugar, un enfoque híbrido (la IA proporciona un borrador de calificación que el profesor puede revisar y ajustar) puede combinar la eficiencia con el juicio humano. Esto concuerda con el principio de mantener a un "humano en el bucle" para las decisiones de alto riesgo (Barshay, 2024).
Además de la calificación, la IA también se utiliza en la evaluación adaptativa. Las pruebas adaptativas ajustan dinámicamente la dificultad de las preguntas en función del rendimiento del examinado, con el fin de determinar con mayor precisión el nivel de capacidad con menos preguntas (Wainer, 2000).
La IA se emplea también para garantizar la integridad académica durante las evaluaciones, sobre todo en situaciones de exámenes a distancia o en línea. Durante el cambio inducido por la pandemia a los exámenes en línea, muchas instituciones recurrieron a sistemas de supervisión a distancia basados en IA.
Desde un punto de vista más positivo, la IA está permitiendo una evaluación más formativa y una mayor retroalimentación, que son cruciales para el aprendizaje (Sands et al., 2021). En la enseñanza de la escritura, por ejemplo, los estudiantes pueden utilizar herramientas controladas por IA que proporcionan comentarios sobre los borradores, como la claridad, la coherencia, la gramática e incluso la solidez de los argumentos.
4. AI en administración y gestión educativa
Las instituciones educativas también están aplicando la IA entre bastidores, en funciones administrativas y de gestión que, aunque menos visibles para los alumnos, son vitales para gestionar eficazmente los sistemas educativos. La IA en la administración puede ayudar a gestionar datos educativos a gran escala, optimizar la logística y fundamentar decisiones políticas o estratégicas. Al mejorar la eficiencia de las tareas administrativas, la IA puede mejorar indirectamente la experiencia educativa (mediante una mejor asignación de recursos, por ejemplo) y reducir potencialmente los costes.
Una de sus aplicaciones es la admisión de estudiantes y la gestión de la matriculación. Las universidades y algunos sistemas competitivos de enseñanza primaria y secundaria reciben muchas solicitudes y tienen que tomar decisiones de selección o colocación. La IA y el análisis predictivo se utilizan para mejorar este proceso.
La IA también se emplea en la elaboración de horarios, la programación y las operaciones. Elaborar el horario general de un centro educativo -conjugar profesores, alumnos, asignaturas y aulas- es una tarea muy compleja de la que tradicionalmente se han encargado administradores experimentados o programas heurísticos.
Otro uso administrativo es en los servicios de apoyo a los estudiantes, a menudo a través de chatbots de IA. Muchas universidades e incluso algunos distritos K-12 han desplegado agentes conversacionales con IA en sus sitios web o portales de estudiantes para responder a preguntas comunes. Por ejemplo, durante la pandemia, cuando las oficinas de asistencia estaban desbordadas, los chatbots de IA ayudaron a resolver las dudas de los estudiantes sobre los procedimientos de aprendizaje a distancia. Al proporcionar respuestas instantáneas 24/7, los agentes de IA mejoran la capacidad de respuesta y liberan tiempo del personal para un asesoramiento más complejo (Page y Gehlbach, 2017).
Los análisis basados en IA se utilizan cada vez más en los centros educativos y los sistemas para orientar la toma de decisiones. A menudo se denomina análisis del aprendizaje o análisis académico cuando se centra en datos educativos. Por ejemplo, los administradores escolares pueden utilizar la IA para analizar los datos de asistencia, las calificaciones y los registros de comportamiento para identificar a los estudiantes en riesgo de abandono escolar (Bowers et al., 2013).
A nivel macro, los responsables de las políticas educativas están explorando la IA para simular y evaluar opciones políticas. Por ejemplo, un departamento de educación podría utilizar modelos de IA para proyectar el impacto de la reducción del tamaño de las clases o la introducción de un nuevo plan de estudios, mediante el entrenamiento con datos históricos de varias regiones. Algunos economistas de la educación construyen simulaciones complejas (modelos basados en agentes) en las que "estudiantes" y "profesores" virtuales interactúan bajo determinadas políticas para ver los posibles resultados sobre las tasas de graduación o los resultados de los exámenes.
En el ámbito de la formación profesional y la administración de la mano de obra, la IA se utiliza para adaptar los programas de formación a las ne cesidades del mercado laboral. Las instituciones educativas colaboran con los departamentos de trabajo para utilizar la IA en grandes conjuntos de datos laborales, identificando la demanda de competencias laborales emergentes. Esto sirve para crear o actualizar programas de formación profesional.
En general, la IA en la administración puede no ser tan glamurosa como los robots tutores, pero tiene un impacto práctico sustancial. En todo caso, la mala calidad de los datos o los sesgos involuntarios en los algoritmos pueden dar lugar a decisiones administrativas erróneas (por ejemplo, una herramienta de admisión de IA podría infravalorar la diversidad si no se diseña cuidadosamente). De ahí que muchos responsables educativos traten las recomendaciones de la IA como una aportación entre muchas otras, combinándolas con el juicio profesional y la opinión de las partes interesadas (Perelman, 2014).
5. IA para el aprendizaje personalizado y adaptativo
Los sistemas de aprendizaje adaptativo son excelentes ejemplos de personalización impulsada por la lA. Se trata de plataformas (a menudo en línea) que adaptan continuamente el contenido, la dificultad y el ritmo de aprendizaje en función de las interacciones del alumno (Pane et al., 2017). Por ejemplo, pensemos en una plataforma de aprendizaje personalizado para matemáticas de secundaria: un alumno que demuestre rápidamente su dominio de, por ejemplo, ecuaciones lineales, será acelerado hacia problemas más complejos о quizá temas de enriquecimiento, mientras que un alumno con dificultades obtendrá más práctica en conceptos básicos, quizá con diferentes enfoques de instrucción (ayudas visuales, más orientación paso a paso, etc.). El algoritmo de inteligencia artificial puede utilizar un modelo del alumno (una representación del estado de sus conocimientos) y actualizarlo con cada pregunta que responda. Cuando el alumno responde correctamente con gran confianza, el sistema actualiza la probabilidad de que domine esa habilidad concreta. Cuando se producen errores, el sistema señala los posibles conceptos erróneos y ajusta en consecuencia el material que se va a impartir. Esta fina capacidad de adaptación suele compararse con la de un tutor experto que observa cada movimiento del alumno y responde adecuadamente, algo que los profesores desearían poder hacer con cada niño si tuvieran tiempo.
Es importante destacar que la personalización también se aplica alos estilos y preferencias de aprendizaje, aunque el concepto de "estilos de aprendizaje" fijos es objeto de debate enla investigación. En lugar de atender a un supuesto estilo (visual, auditivo, etc.), los modernos sistemas de IA podrían personalizar ofreciendo múltiples modos de aprendizaje y viendo a qué modo responde mejorel alumno (Bulger, 2016). Por ejemplo, una aplicación de lectura adaptativa podría darse cuenta de que un estudiante responde mejor al texto con audio e incorporar más apoyo de lectura en voz alta para ese estudiante, mientras que otro estudiante podría participar más con cuestionarios interactivos y obtener más de ellos (Shute y Rahimi, 2021).
En la enseñanza secundaria, la personalización es crucial, ya que las competencias de los estudiantes son muy divergentes, sobre todo tras perturbaciones como la pandemia. Una plataforma de aprendizaje con IA puede crear un plan de estudios personalizado para cada alumno. Por ejemplo, en un programa piloto de aprendizaje personalizado en un instituto, los alumnos de una clase de matemáticas pueden utilizar todos el mismo software, pero cada uno tiene una lista única de tareas para la semana, asignadas por la IA en función de lo que dominaron o se perdieron la semana pasada.
En la enseñanza superior, la personalización se cruza a menudo con el concepto de análisis del aprendizaje y sistemas de recomendación. Las universidades utilizan la IA para personalizar los recursos de aprendizaje de los alumnos: por ejemplo, un entorno de aprendizaje en línea puede recomendar a un estudiante lecturas o vídeos complementarios en función de las preguntas del cuestionario que haya contestado mal. En una metarevisión de la investigación sobre IA en la enseñanza superior realizada por Bond et al. (2024) se observa un "predominio del uso de sistemas adaptativos y personalización en la enseñanza superior" entre los estudios recientes, lo que indica que la personalización del aprendizaje es uno de los prin- cipales objetivos de las implementaciones de IA en las universidades.
En el aprendizaje de adultos y la formación profesional, personalización significa adaptar la formación a la experiencia previa y los objetivos profesionales de una persona. La IA puede evaluar qué habilidades tiene ya un alumno adulto (quizá mediante pruebas de diagnóstico o analizando su experiencia laboral) y recomendarle un itinerario de aprendizaje que omita lo que sabe y se centre en lo que necesita.
A pesar del entusiasmo que suscita el aprendizaje personalizado, no está exento de escollos. Uno de ellos es que, si los alumnos siguen itinerarios individualizados, pueden perderse experiencias compartidas en clase u oportunidades de aprendizaje colaborativo. Los educadores deben equilibrar los itinerarios personales con el trabajo en grupo y el debate para que el aprendizaje no sea aislante. Otra preocupación es garantizar la calidad y adecuación de los contenidos personalizados. En teoría, la IA podría diseñar un itinerario demasiado estrecho o que se desviara de las normas del plan de estudios si no se limita adecuadamente.
Los resultados iniciales del aprendizaje personalizado con IA son prometedores pero desiguales. Algunas implementaciones a gran escala (como las escuelas chárter de aprendizaje personalizado en Estados Unidos) mostraron una mejora en los resultados de los exámenes y en la autonomía de los alumnos, mientras que otras solo obtuvieron beneficios marginales o tuvieron problemas con la fidelidad de la implementación (Kulik y Fletcher, 2016). Parece que la IA es un poderoso facilitador del aprendizaje personalizado, pero el éxito aún depende de factores como el apoyo de los docentes, la motivación de los estudiantes y la integración en una estrategia de enseñanza coherente (Xie et al., 2019).
III. IMPLICACIONES ECONÓMICAS DE LA IA EN LA EDUCACIÓN
La infusión de la IA en la educación tiene importantes dimensiones económicas, que afectan a los costes, la productividad, la mano de obra educativa y la equidad en general en la sociedad. En esta sección, analizamos las implicaciones económicas de la IA en la educación, considerando tanto los impactos positivos (beneficios y eficiencias) como los negativos (costes, riesgos y consecuencias no deseadas). Este análisis abarca desde consideraciones microeconómicas (por ejemplo, la relación coste-beneficio para una escuela que adopta un sistema de IA, o el impacto en el trabajo de los profesores) hasta consideraciones macroeconómicas (por ejemplo, las implicaciones para el desarrollo de la mano de obra y la desigualdad). Es importante señalar que muchos de estos efectos económicos son aún incipientes; se han producido las primeras pruebas y debates, pero los resultados a largo plazo dependerán de cómo se extienda la adopción y de cómo respondan las políticas. No obstante, la bibliografía y los informes actuales permiten hacerse una idea de las posibles tendencias.
1. Implicaciones económicas positivas: eficiencia, ahorro de costes y crecimiento
Mejorar la eficiencia y reducir los costes es una de las ventajas económicas más citadas de la IA en la educación. Al automatizar las tareas administrativas y algunas de las docentes, la IA puede permitir a los centros educativos hacer más con los mismos o menos recursos. Por ejemplo, si un sistema de calificación de IA puede encargarse de tareas rutinarias, un profesor podría gestionar una clase ligeramente más grande sin pérdida de calidad o dedicar más tiempo a actividades de alto impacto como la tutoría individualizada de los alumnos. A escala, esto podría traducirse en menores costes laborales por estudiante o en mejores resultados de aprendizaje por el mismo coste. Un análisis de la OCDE (2021) postuló que las tecnologías inteligentes en la educación pueden contribuir a la rentabilidad de los sistemas educativos, especialmente cuando se utilizan en configuraciones híbridas de humanos e IA que aprovechan los puntos fuertes de cada uno. La idea es que la IA automatice lo que puede hacer de forma más rápida y barata (procesamiento de datos, tareas repetitivas), mientras que los humanos se centran en los aspectos complejos, creativos o empáticos de la enseñanza y la administración, con el resultado de un sistema global más eficiente.
Un área concreta de ahorro de costes es la creación y actualización de contenidos. La IA puede ayudar a generar contenidos educativos (como preguntas de práctica, vídeos tutoriales con conversión de texto a voz, etc.) mucho más rápido que los humanos. Otro importante beneficio económico potencial es hacer frente ala escasez de profesores y alos costes de formación. Muchas regiones, sobre todo en países en desarrollo o zonas rurales, se enfrentan auna grave escasez de profesores cualificados. Si resulta eficaz, la formación del profesorado impulsada por la IA podría mejorar la calidad de la enseñanza con un coste marginal relativamente bajo (Warschauer y Matuchniak, 2010).
Para los estudiantes y las familias, la IA en la educación podría reducir los gastos relacionados con la recuperación y las clases particulares. Tradicionalmente, muchos padres pagan a tutores privados o centros de aprendizaje si su hijo tiene dificultades en la escuela o si quieren mejorar su rendimiento (Bowers et al., 2013).
También existe el argumento de que la IA en la educación conducirá al crecimiento económico a largo plazo al mejorar la calidad del capital humano. La educación está ampliamente reconocida como motor de la productividad y la innovación en una economía. Sila IA ayuda a personalizar y mejorar la educación para que más estudiantes alcancen niveles de cualificación más altos, la mano de obra del futuro estará más cualificada. Esto podría estimularla innovación, el espíritu empresarial y la adaptabilidad en una economía impulsada por el conocimiento. Un blog del Banco Mundial (2025) señalaba que la desigualdad en la educación es galopante y la IA, si se aprovecha adecuadamente, podría ayudar a nivelar el terreno de juego llevando el aprendizaje de calidad alas comunidades desatendidas, desbloqueando así el potencial económico (Banco Mundial, 2025).
La IA también podría estimular la innovación en el propio sector educativo, dando lugar a nuevas industrias y puestos de trabajo. El auge de la EdTech (tecnología educativa) es una historia económica: las empresas que desarrollan software educativo basado en IA han crecido rápidamente. Esto crea puestos de trabajo de alta tecnología y puede atraer inversiones.
En la enseñanza superior, algunos ven en la IA una forma de modificar la curva de costes de las universidades tradicionalmente caras. Sila IA puede automatizar los gastos administrativos, las universidades podrían controlar el crecimiento de las matrículas. Además, la IA podría permitir un mayor uso del aprendizaje en línea/híbrido, que puede ser más barato por estudiante una vez que la infraestructura esté instalada.
2. Consecuencias económicas negativas: desorganización laboral, desigualdad y costes
Aunque los beneficios potenciales de la ТА en la educación son considerables, también existen importantes implicaciones económicas negativas y riesgos que deben reconocerse. Estos van desde las perturbaciones del mercado laboral (para educadores y personal de apoyo) hasta el peligro de exacerbar la desigualdad educativa y crear nuevos costes о ineficiencias. El impacto económico neto de la IA en la educación dependerá de cómo se gestionen estos aspectos negativos. Aquí exploramos algunas de las principales preocupaciones: los cambios en el mercado laboral de la educación y la profesión docente, los costes de implantación y las posibles ineficiencias, y la desigualdad en el acceso y los resultados.
Los cambios en el mercado laboral y el personal docente: una de las cuestiones más debatidas es si la IA desplazará o reducirá la demanda de profesores y personal educativo, lo que podría provocar la pérdida de puestos de trabajo o la desprofesionalización. Si los tutores de IA pueden encargarse de ciertas tareas de enseñanza у los sistemas de IA pueden calificar y gestionar a más alumnos por profesor, es concebible que se necesiten menos profesores para el mismo número de alumnos, o al menos el mismo número de profesores podría atender a más alumnos. Esto plantea complejas cuestiones económicas y sociales. A corto plazo, la IA no está lo suficientemente avanzada como para sustituir a los profesores al completo, y el consenso es que no debería aspirar a ello porque la pedagogía humana es vital. Sin embargo, determinadas funciones podrían verse afectadas. Los sectores de la tutoría y la preparación de exámenes podrían sufrir un declive si las alternativas de la IA se vuelven muy eficaces y mas baratas. Por ejemplo, los tutores o centros privados podrian perder clientela en favor de las aplicaciones de aprendizaje adaptativo. Del mismo modo, los ayudantes o correctores de exámenes (como los asistentes de posgrado en las universidades) podrían ver mermada la demanda de sus servicios si la corrección con IA se convierte en algo fiable; un profesor que solía contratar a dos asistentes de posgrado para corregir las redacciones podría necesitar ahora solamente a uno, y la lA se encargaría de una parte. Con el tiempo, incluso las aulas de primaria y secundaria podrían funcionar con menos profesores ayudantes si la IA asumiera tareas como el control de los ejercicios prácticos o la supervisión de las actividades rutinarias.
Para los profesores, la introducción de la IA podría cambiar el conjunto de competencias requeridas y, por tanto, el desarrollo profesional necesario (que en sí mismo es un coste). Los profesores necesitarán conocimientos básicos de datos para interpretar las ideas generadas por la IA y la capacidad de trabajar con herramientas de IA. Aquellos que no puedan adaptarse podrían tener dificultades, lo que llevaría a la necesidad de reciclaje o al riesgo de que algunos abandonen la profesión. Por otro lado, un profesor que domine el uso de la IA podría ser muy productivo y, potencialmente, podría negociar un salario más alto debido a sus capacidades mejoradas. Podríamos asistir a una estratificación: profesores que se convierten en "educadores mejorados por la IA" frente a los que no, lo que podría ampliar las diferencias salariales o de oportunidades entre los educadores.
Sin embargo, es importante señalar que, históricamente, la tecnología en la educación (desde la radio y la televisión hasta los ordenadores) no ha provocado despidos masivos de profesores, sino que ha modificado los métodos y, en ocasiones, ha aumentado la demanda de profesores cualificados. Algunos han parafraseado el dicho común: "La IA no sustituirá a los profesores, pero los profesores que utilizan la IA pueden sustituir a los que no lo hacen". Es decir, los profesores expertos en IA podrían superar a los demás (Milberg, 2024). Esta dinámica podría incentivar alos profesores a adoptar la IA, pero también crear ansiedad en el personal.
En el período de transición también puede haber ineficiencias. Al principio, es posible que los profesores con IA no sean más eficientes; de hecho, el aprendizaje y la integración de los nuevos sistemas pueden reducir temporalmente la productividad. A menudo, los profesores afirman tener que dedicar más tiempo a configurar las herramientas de IA, solucionar problemas y comprobar la precisión de los resultados de la IA (como las calificaciones). Durante esta curva de aprendizaje, es posible que el ahorro de tiempo prometido no se materialice, lo que significa que el ahorro de costes se retrasa. Algunas escuelas pueden invertir en IA y ver poco rendimiento inmediato, lo que lleva a la frustración o al abandono de las herramientas (coste hundido). Desde un punto de vista económico, existe el riesgo de asignar recursos ala lA de forma inadecuada, cuando quizá esos recursos podrían haber tenido más impacto en otros ámbitos (como la contratación de más personal o la reducción del tamaño de las clases). Es crucial que la implantación de la IA vaya acompañada de una evaluación rigurosa; de lo contrario, podríamos repetir situaciones enlas que una tecnología cara acabe como "aparatos polvorientos" en los armarios de las escuelas.
Quizá el riesgo económico y social más importante es que la IA en la educación podría aumentar las disparidades entre los que tienen y los que no tienen. Si las escuelas con más recursos pueden permitirse sofisticadas herramientas de IA y conectividad, mientras que las escuelas más pobres no pueden, entonces los estudiantes en entornos más ricos se beneficiarán del aprendizaje personalizado y la tutoría, lo que podría suponer un salto adelante, mientras que los estudiantes desfavorecidos se quedarán más rezagados (Robinson et al., 2015). Esta desigualdad educativa impulsada por la IA puede traducirse más tarde en desigualdad económica, ya que los estudiantes mejor formados accederán a empleos mejor remunerados. En la actualidad, la persistente brecha digital en muchas regiones dificulta la adopción a gran escala de la IA en la educación: los estudiantes que carecen de Internet o de dispositivos fiables simplemente no pueden beneficiarse de las herramientas de IA en línea (Warschauer y Matuchniak, 2010). Con el tiempo, los que utilicen la herramienta de IA podrían acelerar su aprendizaje, ampliando la brecha de rendimiento con sus compañeros. De hecho, "la historia confirma el temor" de que la adopción efectiva de la tutoría con IA podría aumentar las diferencias de rendimiento si la adopción difiere entre los grupos de estudiantes (Taylor, 2024).
Si la IA se encarga de más tareas administrativas, las funciones del personal de las oficinas escolares podrían cambiar o reducirse. Por ejemplo, si un chatbot de IA responde a la mayoría de las preguntas rutinarias de los estudiantes (por ejemplo, "¿Cuándo abre la biblioteca?" o "¿Cómo cambio mi contraseña?"), un centro educativo podría decidir que necesita menos personal de recepción o de ayuda. Del mismo modo, los sistemas automatizados de programación o de recursos humanos pueden reducir la necesidad de algunos puestos administrativos. Aunque estos cambios pueden considerarse eficientes (un aspecto positivo), suponen un desplazamiento potencial de puestos de trabajo para esos trabajadores, lo que tiene consecuencias económicas personales y comunitarias. Por otra parte, podrían crearse nuevos puestos de trabajo (especialistas en inteligencia artificial, analistas de datos en los departamentos de educación), pero estos requieren cualificaciones diferentes, lo que plantea problemas de reciclaje y de si la mano de obra actual puede cambiar a esas funciones o si se quedará atrás.
La cuestión ética y económica aquí es si la educación pública está transfiriendo inadvertidamente datos valiosos o el control a manos privadas sin la compensación o las garantías adecuadas. Desde una perspectiva política, algunos abogan por recursos educativos de IA de código abierto o de dominio público para evitar un escenario en el que solo las escuelas ricas puedan permitirse los "mejores" productos de IA (Slade y Prinsloo, 2013).
Desde el punto de vista económico, existe el peligro de depender excesivamente de las soluciones tecnológicas. Si los responsables políticos asumen que la IA resolverá los problemas de forma barata y, por tanto, recortan la financiación en áreas tradicionales (como la contratación o la formación de profesores), podría resultar contraproducente. La educación podría verse perjudicada si la tecnología no ofrece los resultados esperados. Por ejemplo, un Gobierno podría invertir mucho en un programa nacional de tutoría con IA y, al mismo tiempo, decidir aumentar el número de alumnos por clase suponiendo que la IA puede compensarlo; si el programa de IA no da los resultados esperados o no se utiliza correctamente, los alumnos podrían acabar peor que antes. Esta mala asignación supondría un despilfarro de fondos y perjudicaría los resultados, lo que tendría un coste económico a largo plazo en términos de erosión del capital humano. Voces prudentes (por ejemplo, Ahn, 2022; See et al., 2022) han advertido de que algunas EdTech, incluida la IA, han mostrado "efectos de reducción de diferencias" o beneficios insignificantes en determinados estudios. Así pues, apostar por una tecnología no probada podría ser económicamente peligroso. Esto subraya la necesidad de una evaluación iterativa y de no recortar los apoyos convencionales hasta que se prueben otros nuevos.
Por último, considere los costes éticos y sociales que tienen facetas económicas: si la IA en la educación erosiona la privacidad o la confianza, puede haber costes relacionados con demandas legales o pérdida de confianza pública. Por ejemplo, si se produce un incidente grave (como una violación de los datos de los estudiantes por un sistema de IA, o pruebas de discriminación algorítmica en un proceso de admisión basado en IA), una institución podría enfrentarse a demandas o a la necesidad de revisar los sistemas con un gasto significativo (O'Neil, 2016). También consideramos la cuestión general de cómo mantener un enfoque de la IA centrado en el ser humano en la educación, garantizando que estas tecnologías sirvan a los intereses de los alumnos y de la sociedad. Muchas de estas preocupaciones están interrelacionadas con puntos planteados anteriormente (como la desigualdad económica), pero aquí nos centramos en las implicaciones éticas y prácticas para las partes interesadas en la educación (Selbst y Barocas, 2018).
IV. PRIVACIDAD Y SEGURIDAD DE LOS DATOS
Los sistemas de IA en la educación a menudo se basan en la recopilación y el análisis de grandes cantidades de datos sobre los estudiantes: su información personal, su trabajo académico, sus comportamientos de aprendizaje, incluso datos biométricos (en el caso de sistemas de se guimiento de la atención o de reconocimiento de emociones). Esto plantea graves problemas de privacidad, ya que los estudiantes -especialmente los menores- son una población vulnerable que, generalmente, no puede dar su consentimiento informado, y los datos educativos pueden ser muy sensibles. Por ejemplo, un tutor de IA podría rastrear con qué frecuencia se distrae un estudiante o cómo responde emocionalmente a los errores; o un sistema de IA podría almacenar grabaciones de voz de un niño practicando la lectura. Si se manejan mal, estos datos podrían utilizarse de forma indebida o divulgarse inadvertidamente.
Las normativas actuales, como la FERPA en EE. UU. o el GDPR en Europa, ofrecen cierta protección, pero puede que no se anticipen totalmente alos contextos de la lA. En la Unión Europea (UE), el GDPR exige controles estrictos de los datos personales y tiene disposiciones especiales para los niños. Garantizar el cumplimiento de estas normativas cuando se utilizan herramientas de IA (a menudo creadas por terceros) es un reto para los centros escolares. Un ejemplo notable es cuando los distritos escolares adoptan una aplicación de IA: deben examinar las políticas de tratamiento de datos del proveedor. Sin embargo, en la práctica, muchas escuelas carecen de los conocimientos técnicos necesarios para evaluar rigurosamente la privacidad de los sistemas de IA y confían en las garantías del proveedor.
El riesgo de violación o filtración de datos también es primordial. Si las plataformas educativas de IA almacenan datos en la nube, podrían convertirse en objetivo de los piratas informáticos. Una filtración podría dejar al descubierto datos personales, expedientes académicos o incluso perfiles psicológicos de los estudiantes. Las consecuencias van desde la usurpación de identidad hasta, potencialmente, el daño a las oportunidades futuras de un estudiante si, por ejemplo, se filtraran datos disciplinarios o sobre problemas de aprendizaje y llegaran a conocimiento de alguien que tomara una decisión sobre ellos. Desde el punto de vista ético, no se puede esperar que los niños comprendan estos riesgos, por lo que la obligación de salvaguardar sus datos recae enteramente en los adultos y las instituciones.
Otro aspecto de la privacidad es la vigilancia y la autonomía. Algunas aplicaciones de la IA, como las herramientas de supervisión o de control de la atención, rozan la vigilancia. La vigilancia constante puede vulnerar el derecho a la intimidad de los estudiantes y crear un clima de miedo o incomodidad poco propicio para el aprendizaje. Ha habido casos de estudiantes que se han sentido violados por programas de control de inteligencia artificial que les graban en sus habitaciones durante los exámenes, o programas de seguimiento ocular que les hacen sentir como si estuvieran siempre vigilados.
Los sistemas de IA son tan justos como los datos y algoritmos que les dan forma. En la educación, el sesgo algorítmico puede tener profundas implicaciones, reforzando potencialmente las desigualdades existentes o creando nuevas formas de discriminación. Antes hemos visto cómo un algoritmo de IA penalizaba injustamente las redacciones de los estudiantes asiático-americanos. Este es un ejemplo de un problema más amplio: si los modelos de IA se entrenan a partir de datos educativos históricos, podrían captar sesgos presentes en la sociedad.
El sesgo también puede introducirse a través del contenido. Los planes de estudio o las recomendaciones de la IA pueden no representar ciertas culturas o perspectivas. Imaginemos un sistema de tutoría por IA que utilice pasajes de lectura que traten, sobre todo, de contextos occidentales: los estudiantes procedentes de entornos no occidentales podrían no relacionarlos y desinteresarse.
En la lA para la primera infancia, los problemas de sesgo pueden ser sutiles pero impactantes. Por ejemplo, una IA de reconocimiento de voz utilizada para ayudar a los niños pequeños a aprender a leer podría tener tasas de error más elevadas para los niños con determinados acentos o dialectos (un problema documentado incluso con los asistentes de voz para adultos) (D'Mello et al., 2017). Si la IA no consigue entender a un niño de forma sistemática, ese niño podría ser injustamente evaluado o desanimado. Del mismo modo, las herramientas educativas basadas en la visión por ordenador podrían no reconocer igual de bien a niños de di- ferentes tonos de piel (un problema conocido en los algoritmos de detección de rostros). El diseño inclusivo y las pruebas son necesarios para mitigar estos sesgos, pero el imperativo ético es claro: ningún niño debe ser desfavorecido por una IA debido a características inherentes como la raza, el idioma o la discapacidad.
La imparcialidad se extiende a la toma de decisiones mediante IA en la Administración, como los algoritmos de admisión o las recomendaciones de becas. Es comprensible que el público se sienta incómodo ante la idea de que algoritmos opacos tomen decisiones que alteran la vida. El escándalo del "algoritmo de los A-Levels" de 2020 en el Reino Unido es un ejemplo a tener en cuenta: debido a la cancelación de exámenes a consecuencia del COVID-19, se utilizó un algoritmo para predecir las notas de los estudiantes basándose en el historial y la clasificación escolar. El resultado se percibió como tremendamente injusto, ya que sistemáticamente se bajaba la nota a los alumnos de alto rendimiento de los colegios con peores resultados históricos, lo que afectaba de forma desproporcionada a los estudiantes desfavorecidos. El revuelo provocó el abandono del algoritmo y la vuelta a las evaluaciones de los profesores. Este incidente, aunque no es una herramienta de IA en el aula, subraya que la transparencia algorítmica y la equidad son cruciales en la educación (Ofqual, 2020). Cualquier IA que influya en los resultados de los exámenes de alto riesgo debe ser examinada minuciosamente para detectar sesgos y estar sujeta a procesos humanos de apelación o anulación. La Recomendación de la Unesco sobre la ética de la IA (2021), adoptada por muchos países, exige específicamente equidad, no discriminación y transparencia en el uso de la IA.
V. TRANSPARENCIA, RESPONSABILIDAD Y SUPERVISIÓN HUMANA
La naturaleza de caja negra de muchos sistemas de IA plantea un reto en la educación, donde la confianza y la comprensión son primordiales. Profesores, alumnos y padres necesitan saber cómo y por qué una herramienta de IA toma determinadas decisiones o recomendaciones, especialmente si afectan a los itinerarios de aprendizaje o a las evaluaciones. La falta de transparencia puede erosionar la confianza y dificulta el diagnóstico de los problemas cuando surgen. Por ejemplo, si un tutor de IA sigue dando a un estudiante un tipo particular de problema, el estudiante y el profesor deberían conocer la razón (tal vez el estudiante no domina un concepto todavía) en lugar de adivinar. Del mismo modo, si un estudiante es marcado como "en riesgo" por un sistema de IA, el consejero debe saber qué puntos de datos condujeron a esa bandera -¿fueron las calificaciones, la asistencia, los datos de interacción? - para evaluar si el indicador tiene sentido (Ifenthaler et al., 2020).
Muchos expertos abogan por una "IA explicable" en la educación: sistemas que puedan ofrecer explicaciones legibles para el ser humano sobre sus resultados. En la práctica, esto podría significar que un sistema de calificación de IA destacara las secciones de un ensayo que considera más débiles y por qué, o que un sistema de recomendación de aprendizaje mostrara qué respuestas erróneas desencadenan una secuencia de recuperación. Se están haciendo algunos progresos en la investigación sobre IA explicable para la educación, pero aún es pronto. Hasta entonces, un enfoque pragmático consiste en aplicar la supervisión y el juicio humanos como contrapeso a la opacidad de la IA (Cios y Zapala, 2021). El informe 2023 del Departamento de Educación de EE. UU. hace hincapié en un enfoque "humano" para la IA en la enseñanza y el aprendizaje, recomendando que las decisiones de la IA estén sujetas a revisión y anulación por parte de los educadores. Por ejemplo, si una IA sugiere un itinerario personalizado para un estudiante, un profesor o asesor académico debe revisarlo, ajustarlo si es necesario y comunicárselo al estudiante de forma comprensible.
VI. CALIDAD, VALIDEZ Y ASPECTOS PEDAGÓGICOS
No todas las herramientas de IA son adecuadas desde el punto de vista pedagógico. Uno de los retos es garantizar que los métodos basados en la IA se ajusten a los principios establecidos de buena enseñanza y aprendizaje. Un riesgo es que algunos productos de IA den prioridad a las métricas de compromiso del alumno o a la realización de tareas sobre el aprendizaje en profundidad. Por ejemplo, un tutor de IA puede guiar a un estudiante para que obtenga las respuestas correctas mediante pistas, pero el estudiante puede seguir careciendo de una verdadera comprensión conceptual; básicamente, la IA podría entrenar inadvertidamente a los estudiantes para "vencer al sistema" en lugar de aprender. Sin un diseño cuidadoso, la IA también podría promover una dependencia excesiva del andamiaje paso a paso, obstaculizando el desarrollo de habilidades independientes de resolución de problemas. Existe el deber ético de evaluar continuamentesi la enseñanza mediada por IA es realmente eficaz (¿conduce a la retención a largo plazo?, ¿transferencia de conocimientos?) y de evitar usos artificiosos de la IA que puedan impresionar a corto plazo, pero aporten poco valor educativo.
Otra preocupación que ha surgido con fuerza con la IA generativa es la integridad académica y la autenticidad del trabajo de los estudiantes. Con IA como ChatGPT, capaz de generar ensayos, soluciones o incluso código, los educadores temen un aumento del plagio o las trampas facilitadas por la IA. Esto da la vuelta al guion: antes hablábamos de la ayuda de la IA para detectar las trampas; ahora la IA también puede facilitarlas. En 2023-2024, las escuelas y universidades se apresuraron a actualizar los códigos de honor y a desarrollar herramientas de detección (algunas recurrieron a la IA para detectar textos generados por ella, una especie de carrera armamentística). Sin embargo, la detección es imperfecta y plantea sus propios problemas (algunos detectores marcan falsamente el trabajo escrito por humanos, lo que provoca estrés).
También surgen consideraciones sociales y de desarrollo. Sobre todo, en la primera infancia y la enseñanza primaria, el uso intensivo de la IA o del aprendizaje basado en pantallas puede afectar al desarrollo social. Los niños pequeños aprenden habilidades sociales cruciales a través de la interacción humana -compartir, empatía, turnarse- que una IA no puede reproducir de forma auténtica. Una dependencia excesiva de los tutores de IA o de los amigos robot podría obstaculizar esas oportunidades. Un plan ético de educación debe definir unos límites claros: por ejemplo, un programa de educación infantil puede utilizar una aplicación de logopedia de IA durante quince minutos al día, pero garantizar que el resto del día sea rico en juego e interacción humanos.
En el caso de los alumnos de mas edad, está la cuestión de la autonomía y el pensamiento crítico de los estudiantes. Si los alumnos se acostumbran demasiado a que la IA les diga lo que tienen que hacer o les dé pistas, pueden convertirse en aprendices pasivos. Es esencial diseñar la IA de forma que fomente la metacognición, por ejemplo, pidiendo a los alumnos que reflexionen sobre sus errores o que elijan entre las actividades de aprendizaje en lugar de dirigirlos siempre automáticamente. El objetivo debe ser aumentar la inteligencia humana, no sustituirla ni subordinarla. Los profesores tienen un papel que desempeñar en este sentido: por ejemplo, pidiendo de vez en cuando a los alumnos que expliquen cómo les ha ayudado el tutor de la IA o que cuestionen una sugerencia de la IA (quizá la IA no siempre tenga razón). Asi se crea un sano escepticismo y se comprende que la lA es una herramienta, no un oráculo infalible.
Por último, hay que tener en cuenta la falta de investigación sólida que hay detrás de muchas herramientas de |A. Algunas son desarrolladas por empresas emergentes y lanzadas al mercado con una evaluación independiente mínima. Se trata de un problema ético porque los estudiantes y los profesores se convierten en probadores beta, posiblemente a costa del tiempo de aprendizaje. Se necesitan ensayos clínicos rigurosos o estudios longitudinales para validar la eficacia de la lA, pero estos requieren tiempo y recursos. Mientras tanto, las escuelas pueden confiar en el marketing de los proveedores o en algunos estudios piloto. Una revisión sistemática de AlEd por Zawacki-Richter et al. (2019) y otros señalaron que mucha literatura es entusiasta, pero no siempre metodológicamente sólida; pidieron una recopilación de evidencia más firme. Hasta que se disponga de pruebas más concluyentes, existe la obligación ética de que los educadores pongan a prueba nuevas intervenciones de la IA de manera controlada y midan los resultados, en lugar de desplegar tecnología no probada en toda la escuela y arriesgarse a obtener poco o ningún beneficio о incluso daño. Esto enlaza con el punto anterior sobre la falta de pruebas.
VII. POLÍTICA, REGULACIÓN Y NECESIDAD DE GOBERNANZA
Para abordar muchos de estos retos, existe una clara necesidad de políticas y directrices a nivel institucional, nacional e internacional. A mediados de la década de 2020, las políticas se están poniendo al día. La Unesco se ha mostrado activa en la elaboración de orientaciones, como su Consenso de Beijing de 2019 sobre la IA en la Educación y una publicación de 2021 AI and Education: Guidance for Policy-Makers, que establece principios para un uso equitativo y ético de la IA. Para 2023-2024, algunos países y Estados han comenzado a redactar o promulgar políticas para la IA en las escuelas (por ejemplo, exigiendo transparencia sobre el uso de la IA, ordenando protecciones de privacidad de datos específicas para datos educativos o prohibiendo ciertos usos como el reconocimiento facial en las escuelas). También se está avanzando en la creación de marcos de competencias en materia de IA para estudiantes y profesores, como señala la Unesco, con el objetivo de garantizar que todo el mundo tenga un conocimiento básico de las oportunidades y los riesgos de la IA.
A pesar de estos esfuerzos, una encuesta mundial de la Unesco (2023) puso de relieve que únicamente una de cada diez instituciones contaba con una política formal sobre IA. Este vacío político significa que las decisiones se dejan a menudo en manos de profesores o proveedores individuales, lo que dista mucho de ser ideal. Uno de los retos es que la política debe ser ágil: la tecnología evoluciona rápidamente (por ejemplo, la repentina aparición de la IA generativa). Las políticas redactadas incluso hace dos años podrían no cubrir los nuevos avances. Por ello, algunos abogan por planteamientos basados en principios (como hacer hincapié en la agencia humana, la equidad o la seguridad) que puedan adaptarse a diversos contextos, en lugar de normas demasiado específicas que pueden quedar desfasadas.
También se está estudiando la regulación: la propuesta de Ley de IA de la Unión Europea (que probablemente finalizará en torno a 2024) clasifica los sistemas de IA en función del riesgo (Comisión Europea, 2023). Una IA utilizada en educación, especialmente para determinar el acceso (como un algoritmo de admisión), podría considerarse de alto riesgo y exigir el cumplimiento de requisitos estrictos (transparencia, supervisión humana, etc.). Si se aprueban estas normativas, los proveedores y las escuelas de esas jurisdicciones tendrán obligaciones legales sobre la forma en que despliegan la IA (por ejemplo, informar a los usuarios de que están interactuando con la IA, proporcionar vías para la intervención humana). En EE. UU., aunque todavía no hay ninguna ley federal que se refiera específicamente a la IA en la educación, hay un creciente escrutinio en torno a cuestiones como la privacidad de los datos de los estudiantes y la equidad algorítmica, y podrían surgir leyes a nivel estatal.
Los marcos éticos y los órganos de gobierno de las instituciones educativas también pueden ayudar. Algunas universidades han creado comités de ética para revisar la investigación y las aplicaciones de la IA en el campus en las que participan estudiantes. Los distritos escolares podrían convocar comités de profesores, padres, estudiantes y expertos para evaluar las herramientas de IA y crear directrices locales (por ejemplo, si se utilizan chatbots de IA, ¿cómo nos aseguramos de que sean seguros y apropiados para nuestros estudiantes?). Incluir voces diversas en estos procesos de gobernanza es clave: los estudiantes y los padres deben tener voz, no solo los administradores y los expertos en tecnología (Bryson y Theodorou, 2019).
Por último, para hacer frente a los retos es necesario crear capacidades: formar a los educadores para que comprendan las dimensiones éticas de la IA, formar a los desarrolladores de IA sobre los valores educativos y la ética, y educar a los estudiantes para que naveguen por un mundo rico en IA de forma responsable. Por ejemplo, si se enseña a los estudiantes cómo funciona la IA y sus posibles sesgos, se convertirán en usuarios más informados y podrán contribuir a utilizarla de forma ética (denunciando problemas, etc.). Los profesores necesitan apoyo sobre cómo integrar la IA respetando principios como la equidad y la privacidad; muchos programas de formación de profesores están empezando a incluir sesiones sobre ética de la tecnología educativa.
En conclusión, aunque la IA ofrece posibilidades apasionantes en la educación, conlleva una constelación de retos que debemos afrontar de frente. Estos retos no son insuperables; de hecho, la concienciación y la gestión proactiva pueden mitigar muchos riesgos. Se ha producido un rápido aumento de la concienciación: de la exuberancia inicial a una comprensión más mesurada de que la ética y la gobernanza son tan cruciales como la innovación en el ámbito de la IA en la educación. El tema general es mantener un enfoque equitativo centrado en el ser humano. Es nuestra responsabilidad colectiva -educadores, desarrolladores, responsables políticos, estudiantes- dirigir esta tecnología para el bien, garantizando que la IA en la educación respete los derechos, amplifique la buena enseñanza y sirva a todos los alumnos de forma justa.
VIII. CONCLUSIÓN
La inteligencia artificial está a punto de convertirse en parte integrante del panorama educativo mundial, transformando la forma en que enseñamos, aprendemos y gestionamos los sistemas educativos. Desde las aulas de educación infantil, donde las aplicaciones basadas en IA pueden ayudar al desarrollo del lenguaje, hasta las universidades, donde el análisis predictivo puede mejorar el éxito de los estudiantes, las aplicaciones de la IA en la educación son amplias y están en continua expansión. Esta revisión ha examinado estas aplicaciones en detalle, destacando cómo la IA puede proporcionar tutoría adaptativa, automatizar las evaluaciones, ayudar a los profesores en la instrucción y la administración, y personalizar las experiencias de aprendizaje . Los datos disponibles hasta la fecha sugieren que la IA, cuando se utiliza con criterio, puede mejorar los resultados del aprendizaje, aumentar la eficiencia y ayudar a los educadores a hacer frente a retos tan antiguos como la enseñanza diferenciada y la retroalimentación oportuna. En particular, la capacidad de la IA para analizar datos y adaptarse en tiempo real es prometedora para responder a las necesidades de alumnos diversos, lo que puede hacer que la educación sea más integradora para alumnos con ritmos, estilos y necesidades de apoyo diferentes
Sin embargo, este potencial transformador conlleva importantes implicaciones económicas y éticas que no deben pasarse por alto. Desde el punto de vista económico, la IA en la educación ofrece la posibilidad de ahorrar costes y aumentar la productividad -por ejemplo, automatizando tareas rutinarias y permitiendo tutorías individuales a gran escala-, lo que podría liberar recursos y mejorar el acceso a la educación. También podría adaptar mejor la educación a las necesidades de la mano de obra, contribuyendo al crecimiento económico gracias a una población más cualificada. Sin embargo, estos beneficios podrían verse contrarrestados por riesgos como el desplazamiento de mano de obra (con repercusiones sobre los profesores y las funciones del personal), los elevados costes de implantación y el agravamiento de las desigualdades si el acceso a las herramientas de IA es desigual. El efecto neto sobre los mercados laborales y el gasto educativo dependerá en gran medida de las opciones políticas: si utilizamos la IA para complementar y mejorar la profesión docente o para intentar reducir costes de forma que se socave la calidad educativa.
La introducción de la IA en la educación plantea profundas cuestiones y retos éticos. Debemos asegurarnos de que el uso de la IA protege la privacidad de los estudiantes, trata a los alumnos de forma justa y sigue siendo transparente y responsable. La revisión puso de relieve casos de parcialidad (como la clasificación de la IA que penaliza a determinados grupos) y preocupaciones sobre la vigilancia, todo lo cual subraya que los valores fundamentales -equidad, inclusión, dignidad humana y seguridad- deben guiar la adopción de la IA en la educación. Para hacer frente a estos problemas será necesaria la colaboración: una sólida gobernanza de los datos, auditorías algorítmicas para detectar sesgos, directrices claras para los educadores y la participación de las partes interesadas (alumnos, padres, profesores) en las decisiones sobre el uso de la IA.
Para avanzar, es esencial adoptar un enfoque equilibrado. Los resultados y análisis aquí expuestos apoyan una visión de la IA como un poderoso aliado de educadores y alumnos, no como un sustituto de los elementos humanos que definen la educación. La integración efectivadelalAimplicaracombinarlainteligencia de las máquinas con la pedagogía humana: profesores que aprovechen los conocimientos de la IA para informar sobre la enseñanza personalizada, estudiantes que utilicen herramientas de IA para mejorarla práctica sin dejar de participar en un diálogo y una colaboración humanos enriquecedores, y administradores que utilicen el análisis de datos de la IA para informar sobre las políticas al tiempo que aplican el juicio y la compasión a las decisiones. Como señaló acertadamente el Foro Económico Mundial, "la educación 4.0 consiste en mejorar, no sustituir, la enseñanza con lA". La investigación empírica y los programas piloto realizados hasta la fecha se hacen eco de esta idea. En los casos de éxito implican que la IA trabaja en tándem con educadores cualificados, y los fracasos a menudo implican que se descuida la aportación de los profesores o que se despliega la IA sin el apoyo y el contexto adecuados.
La política y la investigación en curso desempeharán un papel fundamental en la configuración de los resultados. Es alentador que estén surgiendo marcos internacionales (como las recomendaciones de la Unesco) y estrategias nacionales para garantizar que la IA en la educación se desarrolle y utilice de forma responsable. Estos marcos deben aplicarse y actualizarse continuamente. También hay una gran necesidad de más investigación interdisciplinar en la intersección de la IA, la educación y las ciencias sociales para construir la base de pruebas sobre qué funciona, para quién y en qué condiciones. Por ejemplo, los estudios longitudinales para seguir el impacto del aprendizaje asistido por IA en el rendimiento y la equidad de los estudiantes, o la investigación-acción con profesores para encontrarlas mejores prácticas de pedagogía potenciada por IA, informarán sobre mejores estrategias de integración. Además, la inclusión de especialistas en ética y sociología en el ciclo de desarrollo de la IA educativa puede ayudara prever y mitigar consecuencias imprevistas.
En conclusión, la creciente presencia de la |A en la educación es un arma de doble filo, con enormes beneficios potenciales, por un lado, e importantes retos por el otro. Para maximizar los primeros y minimizar los segundos, las partes interesadas deben dar prioridad a una aplicación de la IA centrada enel ser humano y equitativa. Esto significa preguntarse siempre: ¿Sirve esta aplicación de IA alos intereses de alumnos y profesores? ¿Promueve la comprensión, la curiosidad y la equidad? -y estar dispuestos a detener o modificar los usos que no cumplan estos criterios-. La educación, en su esencia, es crecimiento humano y capacitación. La IA puede ser un catalizador de este crecimiento, abriendo nuevas vías de conocimiento y personalización que antes eran inalcanzables. Pero debe utilizarse con sabiduría y cuidado.
Si procedemos con cautela, guiados por la investigación y la ética, podemos imaginar un futuro en el que la IA ayude a todos los niños -ya sea en una aldea remota о en un centro urbano- а aprender con un apoyo personalizado, en el que los profesores tengan más tiempo y conocimientos para centrarse en lo que mejor saben hacer los humanos (orientar, inspirar, empatizar), y en el que los sistemas educativos sean más receptivos y eficaces. Alcanzar esta visión exigirá una vigilancia constante y la colaboración entre el mundo académico, la industria y la Administración. Los próximos años serán cruciales para sentar los precedentes y las normas de la IA en la educación. Esta revisión sirve de base para comprender el panorama; corresponderá a la próxima oleada de estudiosos continuar supervisando, evaluando y guiando este profundo viaje hacia un futuro educativo potenciado por la lA.
Sidebar
References
BIBLIOGRAFÍA
Barshay, J. (2024). New Evidence Affirms Teachers Should Go Slow Using Al to Grade Essays. FutureEd. https://www. future-ed.org/new-evidence-affirms-teachers-shouldgo-slow-using-ai-to-grade-essays/
Bond, M., Khosravi, H., De Laat, M., Bergdahl, N., Negrea, V., Oxley, E., Pham, P., Chong, $. W. y Siemens, С. (2023). A meta systematic review of artificial intelligence in higher education: a call for increased ethics, collaboration, and rigour. University of ST Andrews.
Bowers, А. J., Sprott, В. у Taff, $. А. (2013). ¿Sabemos quién abandonará los estudios? Una revisión de los predictores de abandono de la escuela secundaria. The High School Journal, 96(2), 77-100.
Bryson, J., y Theodorou, A. (2019). Cómo la sociedad puede mantener la inteligencia artificial centrada en el ser humano. En Digitalización y servicios centrados en el ser humano, pp. 305-313. Springer.
Bulger, M. (2016). Aprendizaje personalizado: Las conversaciones que no estamos teniendo. Instituto de Investigación de Datos y Sociedad.
Chong, S. W. y Siemens, G. (2024). A meta systematic review of artificial intelligence in higher education: A call for increased ethics, collaboration, and rigour. Revista Internacional de Tecnología Educativa en la Enseñanza Superior, 21(1), 4.
Cios, К. J. y Zapala, G. А. (2021). Ética de la IA en la educación: Human-in-the-loop approach. Al & Society, 36(1), 55-66.
Comision Europea. (2023). Propuesta de Reglamento por el que se establecen normas armonizadas sobre la inteligencia artificial (Al Act). https://eur-lex.europa.eu.
D'Mello, S., Dieterle, E. y Duckworth, A. (2017). Medición avanzada, analítica y automatizada (AAA) del engagement durante el aprendizaje. Psicólogo Educativo, 52(2), 104-123.
Departamento de Educación de Estados Unidos, Oficina de Tecnología Educativa. (2017). Reimagining the Role of Technology in Education: 2017 National Education Technology Plan Update.
Departamento de Educación de los Estados Unidos (USDOE), Oficina de Tecnología Educativa. (2023) La inteligencia artificial y el futuro de la enseñanza y el aprendizaje: Insights and Recommendations. Washington, DC.
Dhawan, $. (2020). Online Learning: A Panacea in the Time of COVID-19 Crisis. Journal of Educational Technology Systems, 49(1), 5-22. https://doi.org/10.1177/0047239520934018
Escueta, M., Nickow, A. J., Oreopoulos, P. y Quan, V. (2020). Mejorar la educación con tecnología: Insights from experimental research. Journal of Economic Literature, 58(4), 897-996.
Goel, A. K. y Polepeddi, L. (2016). Jill Watson: Un asistente de enseñanza virtual para la educación en línea. Instituto de Tecnología de Georgia. https://doi.org/10.13140/ RG.2.2.16783.18082
Holmes, W., Bialik, М. y Fadel, С. (2019). Inteligencia artificial en la educación: Promesas e Implicaciones para la Enseñanza y el Aprendizaje. Centro para el Rediseño Curricular.
Ifenthaler, D. y Yau, J. Y. K. (2020). Utilising learning analytics to support study success in higher education: Asystematic review. Investigación y Desarrollo en Tecnología Educativa, 68, 1961-1990.
Kulik, J. A. y Fletcher, J. О. (2016). Eficacia de los sistemas de tutoría inteligente: Una revisión meta-analítica. Revista de Investigación Educativa, 86(1), 42-78.
LeMoine, J. E. (2024). La inteligencia artificial y el campo de la primera infancia: Exploring Potential to Enhance Education, Communication and Inclusivity. Revista Zero to Three.
Luckin, R., Holmes, W., Griffiths, M. y Forcier, L. B. (2016). Intelligence Unleashed: Un argumento a favor de la IA en la educación. Pearson Education. https://www.pearson. com/content/dam/one-dot-com/one-dot-com/global/ Files/about-pearson/innovation/open-ideas/IntelligenceUnleashed-v15-Web.pdf
Ma, W., Adesope, О. O., Nesbit, J. С. y Liu, 0. (2014). Los sistemas de tutoría inteligente y los resultados del aprendizaje: A meta-analysis. Journal of Educational Psychology, 106(4), 901-918.
Milberg, T. (2024) .El futuro del aprendizaje: Cómo la IA está revolucionando la educación 4.0. Foro Económico Mundial.
Morley, $. (2023). TVET and Al: Crafting the Future of Vocational Training. El mundo de la EFTP.
Mubin, O., Stevens, С. J., Shahid, S., Mahmud, A. A. y Dong, J. J. (2013). Una revisión de la aplicabilidad de los robots en la educación. Tecnología para la educación y el aprendizaje.
O'Neil, C. (2016). Armas de destrucción matemática: Cómo el big data aumenta la desigualdad y amenaza la democracia. Crown Publishing Group.
OCDE .(2021a). Perspectivas de la Educación Digital de la OCDE 2021: Pushing the Frontiers with Al. Paris: OCDE.
OCDE. (2021b). El estado de la educación escolar: Un año después de la pandemia de COVID. Paris: OCDE. https://doi. org/10.1787/3fe4b062-en
OCDE. (2022). Marco de la OCDE para clasificar los sistemas de IA. Documentos de la OCDE sobre Economía Digital, n 327.
Ofqual. (2020). Awarding GCSE, AS & A levels in summer 2020: interim report. https://www.gov.uk/government/ publications/awarding-gcse-as-a-levels-in-summer2020-interim-report
Page, L. C. y Gehlbach, H. (2017). Cómo un asistente virtual artificialmente inteligente ayuda a los estudiantes a navegar por el camino hacia la universidad. AERA Open, 3(4), 2332858417749220.
Pane, J. F., Steiner, E. D., Baird, M. D., Hamilton, L. $. y Pane, J. D. (2017). Informar sobre el progreso: Insights on personalized learning implementation and effects. RAND Corporation. https://doi.org/10.7249/RR2042
Pedro, F., Subosa, M., Rivas, A. y Valverde, P. (2019). Inteligencia artificial en educación: Retos y oportunidades para el desarrollo sostenible. Unesco. https://unesdoc. unesco.org/ark:/48223/pf0000366994
Perelman, L. (2014). Cuando "el estado del arte" es contar palabras. MIT Comparative Media Studies Research.
Ramineni, C. y Williamson, D. M. (2018). Comprensión de las diferencias de puntuación media entre el motor de puntuación automatizado e-rater y los humanos para grupos de base demográfica en la prueba general GRE. ETS Research Report Series, 2018(1), 1-31. https://doi. org/10.1002/ets2.12192
Robinson, L., Cotten, S. R., Ono, H., Quan-Haase, A., Mesch, G., Chen, W., Schulz, J., Hale, T. M. y Stern, M. J. (2015). Desigualdades digitales у por qué importan. Información, Comunicación y Sociedad, 18(5), 569-582.
Sands, P., Waters, L. y McBride, $. (2021). Artificial intelligence in education: A critical review and implications for assessment. Assessment in Education: Principles, Policy & Practice, 28(4), 420-438.
Selbst, A. D. y Barocas, S. (2018). El atractivo intuitivo de las máquinas explicables. Fordham Law Review, 87, 1085.
Shute, V. J. y Rahimi, S. (2021). Evaluación sigilosa y análisis del aprendizaje: Medición diagnóstica para el siglo XXI. Computers in Human Behavior, 120, 106715.
Slade, S. y Prinsloo, P. (2013). Analítica del aprendizaje: Cuestiones y dilemas éticos. American Behavioral Scientist, 57(10), 1510-1529.
Steenbergen-Hu, S. y Cooper, H. (2014). A meta-analysis of the effectiveness of intelligent tutoring systems on K-12 students' mathematical learning. Journal of Educational Psychology, 106(4), 970-987. https://doi.org/10.1037/ a0037123
Taylor, R. (2024). La IA en la educación: ¿puede elevarnos o nos dividirá aún más? Documento de debate del Centro de Políticas Progresistas.
Unesco. (2019). Consenso de Beijing sobre inteligencia artificial y educación. Ediciones Unesco.
Unesco.(2021). Recomendación sobre la ética de la inteligencia artificial. Unesco. https://unesdoc.unesco. org/ark:/48223/pf0000380455
Unesco. (2023). Orientaciones para la IA Generativa en la Educación y la Investigación. Ediciones Unesco.
Unesco. (2023). Al: La UNESCO moviliza a los ministros de Educación de todo el mundo para dar una respuesta coordinada al ChatGPT (Artículo de prensa).
Unesco. (s.f.). Inteligencia artificial en la Educación. https:// www.unesco.org/en/digital-education/artificialintelligence.
VanLehn, К. (2011). La eficacia relativa de la tutoría humana, los sistemas de tutoría inteligente y otros sistemas de tutoría. Educational Psychologist, 46(4), 197-221. https:// doi.org/10.1080/00461520.2011.611369
Wainer, H. (Ed.). (2000). Computerized adaptive testing: A primer. Routledge.
Warschauer, M. y Matuchniak, T. (2010). New technology and digital worlds: Analyzing evidence of equity in access, use, and outcomes. Review of Research in Education, 34(1), 179-225. https://doi. org/10.3102/0091732X09349791
Xie, H., Chu, H. C., Hwang, 6. J. y Wang, С. С. (2019). Tendencias y desarrollo en el aprendizaje adaptativo/ personalizado mejorado por la tecnología: Una revisión sistemática. Computadoras y Educación, 140, 103599.
Zawacki-Richter, O., Marín, V. |., Bond, M. y Gouverneur, Е. (2019). Revisión sistemática de la investigación sobre aplicaciones de inteligencia artificial en la educación superior. Revista Internacional de Tecnología Educativa en la Educación Superior, 16(1), 39.