Por Agustín Magallanes
ChatGPT, un chat conversacional o chatbot que utiliza Inteligencia Artificial (IA), está revolucionando al mundo de la educación y otras áreas de la vida cotidiana desde su lanzamiento a fines de 2022. ¿Qué hace? Responde mediante textos casi a cualquier pregunta, en varios idiomas y de forma instantánea. Los resultados -que van desde el resumen de un asunto histórico a un ensayo- representan un nuevo desafío por la fiabilidad de los contenidos y su impacto en la sociedad.
Esta herramienta gratuita fue lanzada el 30 de noviembre por la organización OpenAI, cofundada por Elon Musk en 2015. En su web se anunció que su misión es “asegurar que la inteligencia artificial general beneficie a toda la humanidad”. Sin embargo, el objetivo de la plataforma por la que Microsoft pagará US$ 10.000 millones, según Financial Times, está puesto en duda en todo el mundo.
Se puede acceder a ChatGPT con un simple registro. Luego, en un chat podrá ver como una nube con puntitos va elaborando desde un cuento corto que mezcle a Jaime Roos y Miley Cyrus, a responder si es Nacional o Peñarol el club con más hinchas en Uruguay, o quién era Artigas. En ocasiones salta el mensaje “ChatGPT está lleno en este momento”, y propone incluir un mail para avisar cuando vuelva a estar operativo.
Sus usos son variados y ya se han tomado medidas en otros países. Por ejemplo, en Estados Unidos, medios informan que en universidades sus alumnos ya han hecho trabajos con esta herramienta que fueron destacados por docentes antes de saber su origen, lo que derivó en un intenso debate en cuanto a qué hacer. Mientras que las autoridades de la ciudad de Nueva York dieron un paso más y prohibieron el acceso a ChatGPT en sus escuelas públicas.
“Si bien la herramienta puede proporcionar respuestas rápidas y fáciles, no desarrolla habilidades de pensamiento crítico y resolución de problemas, que son esenciales para el éxito académico y de por vida”, señaló Jenna Lyle, portavoz del Departamento de Educación, en un comunicado.
OpenAI aclaró en su web que “el formato de diálogo hace posible que ChatGPT responda preguntas de seguimiento, admita sus errores, cuestione premisas incorrectas y rechace solicitudes inapropiadas”. Sobre este último punto, la revista Time informó días atrás que para su desarrollo subcontrataron trabajadores de Kenia por menos de US$ 2 la hora para que identificaran contenidos dañinos para ayudar a entrenar al sistema y evitar mensajes tóxicos.
Ante la consulta de si usó internet para elaborar las respuestas, el chatbot retrucó: “No, no tengo acceso a internet. Mi conocimiento se basa en el conjunto de datos con el que fui entrenado”. El sistema cuenta con 175 millones de parámetros, provenientes del modelo GPT 3,5, que además se actualizaría en cualquier momento. De todos modos, la herramienta tiene sus “limitaciones” y “a veces escribe respuestas que suenan plausibles pero incorrectas o sin sentido”, reconoció OpenAI.
“Se ha especulado con la posibilidad de que estas nuevas herramientas como ChatGPT, consideradas por el propio Microsoft como ‘aplicaciones asesinas’ por su capacidad para acabar con modelos actuales de producción, puedan sustituir en un futuro próximo a los buscadores gigantes como Google”, informó EFE esta semana. De hecho, la firma de Silicon Valley adelantó que se viene una “dura batalla” para hacer frente al avance de esta herramienta.
La empresa matriz de Google (Alphabet) adquirió en 2014 DeepMind. La firma elaboró un sistema de inteligencia artificial llamado AlphaCode que “escribe programas de computadora a un nivel competitivo”. Este desarrollo implica la programación autónoma, que no ha llegado a los niveles humanos aún, pero que se viene acercando. “A más largo plazo, estamos entusiasmados con el potencial (de AlphaCode) para ayudar a programadores y no programadores a escribir código, mejorar la productividad o crear nuevas formas de hacer software”, dijo a The Verge el investigador principal de DeepMind, Oriol Vinyals.
Impacto local
“Una plataforma como esta es interesante. Es bueno y es razonable, pero al mismo tiempo esto nos pone un desafío muy importante y muy grande”, remarcó a El País Carolina Aguerre, profesora asociada en el Departamento de Humanidades y Comunicación de la Universidad Católica (UCU). La experta consideró que la medida que definieron las autoridades de Nueva York de limitar el acceso de ChatGPT es para “ganar tiempo” y lo catalogó como algo que “está bien”, aunque aclaró que “también es un poco tapar el sol con las manos,”.
Aguerre -que también es investigadora afiliada del CETYS en la Universidad de San Andrés (Argentina) y del Centre for Global Cooperation Research, Universidad Duisburg-Essen (Alemania)-, planteó que en el plano educativo es un momento propicio para “desarrollar capacidades de alfabetización digital” para profesores y alumnos. Es decir, “entender cómo funciona esta tecnología” y hacer “experimentos” para conocer su funcionamiento, “sobre todo cuestionando la calidad, el resultado que endiosamos de este tipo de producciones que genera una tecnología como ChatGPT”.
Respecto a qué hacer en Uruguay frente a esta irrupción, planteó que “más que prohibirlo ahora, propondría una amplia consulta con los cuerpos docentes de todos los niveles”. Esto para “saber el estado de conocimiento que tienen sobre la tecnología”, así como para contar con una capacitación al respecto que incluya ejercicios para que “se entienda cómo es”. Luego sumaría una “consulta previa” con el fin de comprender “los riesgos que se perciben desde el aula”, y a partir de allí “tomar una decisión de política pública más clara”, explicó Aguerre. Si bien sostuvo que hay que ver cómo evoluciona, estimó que “tomando en cuenta que es una inteligencia que aprende de sí misma, además de tomar otros datos, tenemos que entender que va a mejorar”.
Eduardo Mangarelli, decano de la Facultad de Ingeniería de la ORT y presidente de Endeavor, señaló a El País que ni bien comenzó ChatGPT, en diciembre pasado, impulsó en ese centro de estudios el análisis de la herramienta. Por ahora “no hay medidas definidas”, se está explorando su uso y la salvaguarda de las evaluaciones.
Mangarelli ponderó varias dimensiones a tener en cuenta antes de tomar medidas. Por un lado, “cómo se puede integrar a la experiencia de la educación tanto en el aula como por parte de los docentes, de los estudiantes”; por otro analizar “cómo proteger la autoría de las evaluaciones” universitarias y la evaluación de los alumnos, que está en “constante evolución” desde que se masificó la búsqueda de contenidos por internet. Vinculado al último punto planteó que las evaluaciones “tienen que pasar a ser una combinación que implique mostrar la aplicación del conocimiento en la práctica”.
Una opción “extrema” sería que quien realice una evaluación no pueda tener acceso a internet. Asimismo, insistió con la idea de hallar “escenarios aún más ricos” en los cuales poder integrar la tecnología, “manteniendo la autoría”. Y aquí recordó una herramienta que funcionó para versiones previas de GPT: Hugging Face. Su tarea, dijo, consiste en detectar si el texto que se está leyendo fue creado por IA.
Apuntó, además, que el “enorme potencial” de esta tecnología está en el “siguiente paso”, que es cuando distintas herramientas o aplicaciones (Word, correo electrónico, entre otras) se “integren” a ChatGPT. Y remarcó que “como con cualquier escenario tecnológico, el primer enfoque tiene que ser cómo logramos integrarlo”.