Publicidad

Investigaciones críticas sobre el impacto de la IA en el aprendizaje

El rápido auge de las tecnologías transformadoras en la educación debe inyectar entusiasmo y cautela, afirma el experto español Borja Santos Porras.

Compartir esta noticia
.
Getty Images

El año pasado ha sido increíblemente emocionante (y divertido) en el mundo de la educación, gracias, a la rápida aparición de tecnologías nuevas y relevantes. Podría decirse que ChatGPT causó un poco de angustia dentro de la comunidad académica, pero también le ha dado al sector un vigor renovado. Ha obligado a educadores, estudiantes e instituciones a mirar el aprendizaje de una manera nueva. Sin embargo, la integración de herramientas de IA en la educación superior —como en todas las industrias— no puede realizarse con un simple abandono, por muy tentador que pueda ser.

Requiere una gran previsión para garantizar que estas tecnologías y herramientas se utilicen de manera eficaz y, lo más importante, ética. De hecho, el uso de la IA en la educación presenta desafíos junto con muchas oportunidades y, por lo tanto, los educadores deben hacer un balance antes de implementarla en el plan de estudios, los programas y la enseñanza. Todavía quedan muchas preguntas que los educadores y las organizaciones educativas deben abordar para navegar y capitalizar adecuadamente un panorama tecnológico en constante evolución. Aquí hay algunas sugerencias: ¿cómo podemos evitar las implicaciones del monoculturalismo actual de la IA? Dado que la mitad del contenido de Internet está en inglés, seguido del ruso (menos del 6%) y el español (4%), y que la IA se entrena utilizando estos datos, tiene sentido que las normas culturales asociadas con esos idiomas prominentes sesgar el contenido. Además, como sostiene Jill Walker Rettberg de la Universidad de Bergen en Noruega, si bien ChatGPT puede basarse en una variedad de datos multilingües, tiende a reflejar y promover normas y valores estadounidenses, perpetuando potencialmente esa cultura. Existen varias iniciativas dedicadas a explorar diversos elementos en su propio idioma, pero aún queda espacio para la investigación para resolver estas implicaciones.

¿Cuánto de nuestros recursos se destinará a enseñar a las máquinas cómo aprender frente a enseñar a los humanos a aprender? La evolución de los modelos de lenguaje a gran escala (LLM) ha centrado el debate sobre cómo alimentar y enseñar a estas máquinas. Es justo, pero debemos tener cuidado de no descuidar el aspecto fundamental de la educación: enseñar a los humanos cómo aprender de forma eficaz e independiente.

En su libro ¿Cómo Aprendemos?, Héctor Ruiz Martín de la Fundación Internacional para la Enseñanza de las Ciencias, comenta que es fundamental que los docentes comprendan los mecanismos cognitivos y emocionales que posibilitan el aprendizaje para enseñar a los estudiantes a estudiar, aprender y memorizar. A medida que los LLM continúan aprendiendo y evolucionando, mejorando las prácticas educativas, es importante que las necesidades de aprendizaje esenciales de nuestros estudiantes se mantengan en primer plano.

¿Qué habilidades son necesarias que los estudiantes desarrollen para liderar y trabajar en esta era de la IA? La mayoría de los líderes actuales necesitarán trabajar con la IA de una forma u otra. Por tanto, veo cuatro competencias básicas y necesarias para hacerlo: a) conocimiento general de la IA, entender qué es y cómo funciona. La parte más difícil de esto es cómo mantenerse actualizado en un entorno tecnológico en constante cambio; b) una comprensión de la toma de decisiones basada en datos, desarrollando la capacidad de interpretar, utilizar y mitigar los sesgos en estos datos, y la capacidad de identificar esos sesgos; c) un compromiso firme con el uso ético y responsable de la IA, abordando cuestiones como la privacidad y la equidad; y finalmente, d) pensamiento crítico para poder formular las preguntas adecuadas.

¿Qué tan amplio es el alcance y el potencial de la IA en la educación? Ethan Mollick y Lilach Mollick de Wharton han propuesto una amplia variedad de casos en los que podría resultar muy útil. Por ejemplo, la IA puede funcionar como un tutor personal, atendiendo a los niveles y necesidades individuales de cada estudiante, o generar comentarios personalizados para los alumnos.

Sin embargo, hay otros dilemas por delante. ¿Es apropiado que un LLM asigne las calificaciones finales para las evaluaciones académicas? ¿Cómo podemos identificar cuándo esto es injusto o incorrecto? ¿Puede evaluar la creatividad? ¿En qué casos los estudiantes considerarían legítima la automatización de sus resultados? ¿Cómo abordamos el plagio y la integridad académica con respecto a la IA? Hay aplicaciones que pueden detectar casos de plagio, pero aun así tienen una alta tasa de error, incluidos falsos positivos y falsos negativos. Entonces, ¿no sería más eficaz centrarse en enseñar valores éticos para el uso responsable de la IA? ¿Cómo desarrollamos esa conciencia y cómo podemos actuar para reconocer cuando la integridad no es parte de la ecuación? ¿Es posible volverse demasiado dependiente de ChatGPT?

El uso excesivo de LLM podría restringir el desarrollo de habilidades de investigación, pensamiento crítico y resolución de problemas. La facilidad y velocidad con la que ChatGPT proporciona información también podría reducir la motivación de los estudiantes y la necesidad percibida de aprender y retener información. Incluso pueden sentirse inseguros acerca de su creatividad y originalidad una vez que se acostumbren a depender de las respuestas generadas por la IA.

Es esencial que los educadores aprendan a guiar a los estudiantes en el uso responsable de la IA. Por ejemplo, en mi curso de oratoria y redacción de discursos, les demuestro a los estudiantes cómo pueden utilizar chatbots e inteligencia artificial para generar ideas, al tiempo que destaco sus limitaciones e implicaciones éticas. Además, los guío en la elaboración de discursos más personalizados y efectivos utilizando su lenguaje único, incorporando sus historias personales originales y desarrollando su propio estilo distintivo, elementos que contribuyen significativamente a su carisma. Este enfoque enfatiza el valor de la creatividad individual, que puede ser más difícil de lograr con la IA.

¿Cómo afectan los sesgos a la IA, especialmente en los LLM que identifican patrones utilizando grandes conjuntos de datos? Si los datos utilizados para formar un LLM contienen, por ejemplo, estereotipos raciales o de género, o perspectivas culturales y geográficas dominantes, estos sesgos se reflejarán en los resultados del modelo.

La pregunta entonces es cómo garantizar que las perspectivas minoritarias, que aportan diversidad y a veces resaltan verdades menos reconocidas y ocultas, sigan siendo parte del proceso educativo.

¿Qué se debe hacer con las alucinaciones algorítmicas? No lo habríamos imaginado hace un año, pero una alucinación por IA es ahora un concepto bien comprendido en el discurso público. Los chatbots no sólo hacen las cosas mal, sino que a veces pueden fabricar información por completo. Si el contenido original está mal elaborado, puede dar lugar a desinformación en las búsquedas, distorsionando la realidad y creando confusión generalizada. ¿Cómo podemos reducir las distorsiones generadas por la IA para garantizar que no afecten la calidad de los materiales de aprendizaje o el contenido de la investigación aplicada? ¿Cuáles son los límites éticos del uso de la IA, en términos de privacidad e impacto político? A medida que los datos personales se ingresan en sistemas como los LLM, se pueden almacenar y utilizar en capacitaciones futuras, a menudo sin atribución.

Surgen preguntas sobre cómo garantizar la privacidad (en el caso del sector educativo esto es particularmente importante), qué salvaguardas existen para evitar que la IA se utilice para difundir contenido inexacto o discriminatorio, cómo se entrenan estas herramientas y qué seguridad y protección Se implementan medidas para proteger a los usuarios de información errónea e interacciones dañinas.

Además, está la cuestión de cómo la IA maneja los derechos de autor y la distribución de contenidos.

¿Qué efecto tiene la IA en nuestra huella medioambiental? Cuando se combina con tecnologías como Internet de las cosas, la IA tiene el potencial de optimizar el consumo de recursos y promover la sostenibilidad, por ejemplo, en una universidad. Sin embargo, el procesamiento de grandes volúmenes de datos que demanda la IA aumenta el consumo energético.

Para 2040, se espera que las emisiones de la industria de Tecnologías de la Información y las Comunicaciones (TIC) en su conjunto alcancen el 14% de las emisiones globales. La mayoría de estas emisiones provendrán de la infraestructura de TIC, en particular centros de datos y redes de comunicación.

Por lo tanto, nos enfrentamos a un gran dilema: ¿cómo logramos un equilibrio entre los beneficios de sostenibilidad de la IA y su impacto ambiental derivado de un mayor consumo de energía? Sin duda, la IA ya ha tenido un papel transformador en la educación y esta tendencia continuará.

Estamos ante una intersección de oportunidades sin precedentes y desafíos enormes. Es importante hacer las preguntas correctas para avanzar con una cuidadosa consideración del propósito, la ética, los recursos y siempre con el estudiante en mente. Es función de los educadores y de las instituciones académicas en general liderar el discurso en torno al aprendizaje y la IA para que podamos avanzar con integridad, inclusión y sostenibilidad.

-Borja Santos Porras, Vicedecano y Profesor de Práctica en IE School of Politics, Economics & Global Affairs

* Artículo publicado originalmente en IE INSIGHTS de IE University

¿Encontraste un error?

Reportar

Temas relacionados

premium

Te puede interesar

Publicidad

Publicidad