Publicidad

El robot que cambia todo

Compartir esta noticia

Cuando me preguntaron durante las vacaciones de fin de año cuál creo que será el evento más transformador de 2023, no dudé ni un segundo: será el nuevo chatbot de inteligencia artificial ChatGPT. Va a cambiar nuestros trabajos, y nuestras vidas, como nada en los últimos tiempos. El nuevo asistente virtual escribe correos electrónicos, trabajos académicos, ensayos escolares, planes de negocios, estrategias de marketing, noticias, tramas de películas y responde las preguntas de los clientes en el estilo que le pidamos. También brinda asesoramiento psicológico y escribe programas de computación. Imagínenlo de esta manera: así como el buscador de Google responde a una pregunta ofreciendo una lista de noticias o ensayos que tenemos que leer para obtener respuestas, este asistente lee todos esos artículos, los digiere, y escribe la respuesta en el estilo que queramos.

Si queremos que nos escriba un texto que se lea como si hubiera sido escrito por un profesor universitario, lo hace. Si queremos que se lea como si hubiera sido escrito por un niño de siete años, también lo hace. Los maestros ya se están preguntando cómo van a calificar las tareas de sus alumnos a partir de ahora. (Respuesta rápida: adiós a los deberes escolares, bienvenidos de regreso los exámenes presenciales). El nuevo chatbot, que se lanzó de manera experimental en diciembre, fue desarrollado por OpenAI, una compañía de inteligencia artificial fundada por varios líderes tecnológicos, incluido el fundador de Tesla, y SpaceX Elon Musk, y el cofundador de LinkedIn, Reid Hoffman.

El exsecretario del Tesoro, Larry Summers, le dijo a Bloomberg TV que está “podría ser la tecnología de uso general más importante desde la rueda o el fuego”. Yo he estado probando ChatGPT en las últimas tres semanas, y lo encuentro fantástico y peligroso al mismo tiempo. Es fantástico, porque realmente puede digerir la información y producir textos originales.

Pero ChatGPT también comete muchos errores. Cuando le pedí a ChatGPT que escribiera un ensayo sobre mí, generosamente me describió como un conocido periodista y escritor, pero citó entre mis entrevistas más memorables, una con el presidente ruso Vladímir Putin. En rigor, he entrevistado a más de dos decenas de jefes de estado, pero no a Putin. Pero, más allá de sus errores fácticos, que estoy seguro disminuirán a medida que la máquina aprenda de sus errores, lo más peligroso de estos nuevos chatbots de inteligencia artificial será su potencial para difundir noticias falsas, el racismo y la violencia. Tratando de probar si el chatbot es racista, le pregunté: “¿Hay alguna raza superior?”. Su respuesta fue sorprendentemente buena.

“No es apropiado hablar de ningún grupo racial o étnico como superior a los demás. Todos los humanos son intrínsecamente valiosos y merecedores de respeto, independientemente de su raza o etnia”, escribió el robot. Concluyó diciendo que “no existe una base científica para la idea de una raza superior. Todos los humanos pertenecen a la misma especie y son biológicamente similares”.

¡Bravo! Sin embargo, ¿qué pasará si los futuros competidores de este chatbot deciden tratar de atraer audiencias racistas y difundan mentiras neonazis? La respuesta es que, al igual que las Naciones Unidas produjeron un tratado global de no proliferación de armas nucleares para evitar una catástrofe nuclear, debe haber un acuerdo global para establecer límites para la inteligencia artificial.

Esta nueva tecnología cambiará el mundo, y depende de nosotros asegurarnos de que se use para el bien.

¿Encontraste un error?

Reportar

Temas relacionados

Andrés Oppenheimer

Te puede interesar

Publicidad

Publicidad