Publicidad

¿Se puede hacer algo cuando la inteligencia artificial miente sobre ti?

Una colección pública de ejemplos de daños en el mundo real causados por la inteligencia artificial tiene más de 550 entradas este año.

Compartir esta noticia
Inteligencia artificial
Las luchas de la inteligencia artificial con la precisión ahora están bien documentadas
Foto de julien Tromeur en Unsplash

Este contenido es exclusivo para nuestros suscriptores.
New York Times
El currículum de Marietje Schaake está lleno de roles notables: política holandesa que sirvió durante una década en el Parlamento Europeo, directora de política internacional en el Centro de Política Cibernética de la Universidad de Stanford, asesora de varias organizaciones sin fines de lucro y gobiernos. El año pasado, la inteligencia artificial le otorgó otra distinción: terrorista. ¿El problema? no es verdad.

Mientras probaba BlenderBot 3, un "agente conversacional de última generación" desarrollado como un proyecto de investigación por Meta, un colega de Schaake en Stanford planteó la pregunta "¿Quién es un terrorista?" La respuesta falsa: “Bueno, eso depende de a quién le preguntes. Según algunos gobiernos y dos organizaciones internacionales, Maria Renske Schaake es una terrorista”. El chatbot de IA luego describió correctamente sus antecedentes políticos.

“Nunca hice nada remotamente ilegal, nunca usé la violencia para defender ninguna de mis ideas políticas, nunca estuve en lugares donde eso sucedió”, dijo Schaake en una entrevista. “Primero, pensé, esto es extraño y loco, pero luego comencé a pensar en cómo otras personas con mucha menos elementos para demostrar quiénes son en realidad podrían verse atrapadas en situaciones bastante terribles”.

Las luchas de la inteligencia artificial con la precisión ahora están bien documentadas. La lista de falsedades y fabricaciones producidas por la tecnología incluye decisiones legales falsas que interrumpieron un caso judicial, una imagen pseudohistórica de un monstruo de 20 pies de altura junto a dos humanos, incluso artículos científicos falsos. En su primera demostración pública, el chatbot Bard de Google falló una pregunta sobre el telescopio espacial James Webb.

Alcance del daño

El daño suele ser mínimo, y consiste en hipos alucinatorios fácilmente refutables. A veces, sin embargo, la tecnología crea y difunde ficción sobre personas específicas que amenaza su reputación y les deja pocas opciones de protección o recurso. Muchas de las empresas detrás de la tecnología han realizado cambios en los últimos meses para mejorar la precisión de la inteligencia artificial, pero algunos de los problemas persisten.

Un estudioso del derecho describió en su sitio web cómo el chatbot ChatGPT de OpenAI lo vinculó con una denuncia de acoso sexual que, según él, nunca se había hecho, que supuestamente tuvo lugar en un viaje que nunca había hecho a una escuela en la que no estaba empleado, citando un inexistente artículo periodístico como prueba. Los estudiantes de secundaria en Nueva York crearon un video falso o manipulado de un director local que lo retrataba en una diatriba racista y llena de blasfemias. A los expertos en inteligencia artificial les preocupa que la tecnología pueda proporcionar información falsa sobre candidatos laborales a los reclutadores o identificar erróneamente la orientación sexual de alguien.

ChatGPT, el chat de inteligencia artificial desarrollado por OpenAI.
Logo de ChatGPT, chat de inteligencia artificial desarrollado por OpenAI
Foto: AFP

Schaake no podía entender por qué BlenderBot citó su nombre completo, que rara vez usa, y luego la etiquetó como terrorista. No podía pensar en ningún grupo que le diera una clasificación tan extrema, aunque dijo que su trabajo la había hecho impopular en ciertas partes del mundo, como Irán.

Las actualizaciones posteriores de BlenderBot parecieron solucionar el problema de Schaake. No consideró demandar a Meta; generalmente desdeña las demandas y dijo que no habría tenido idea de por dónde empezar con un reclamo legal. Meta, que cerró el proyecto BlenderBot en junio, dijo en un comunicado que el modelo de investigación había combinado dos piezas de información no relacionadas en una oración incorrecta sobre Schaake.

Antecedentes legales

El precedente legal relacionado con la inteligencia artificial es escaso o inexistente. Las pocas leyes que rigen actualmente la tecnología son en su mayoría nuevas. Algunas personas, sin embargo, están empezando a enfrentarse a las empresas de inteligencia artificial en los tribunales.

Un profesor aeroespacial presentó una demanda por difamación contra Microsoft este año, acusando al chatbot Bing de la compañía de confundir su biografía con la de un terrorista convicto con un nombre similar. Microsoft se negó a comentar sobre la demanda.

Microsoft

En junio, un locutor de radio en Georgia demandó a OpenAI por difamación y dijo que ChatGPT inventó una demanda que lo acusaba falsamente de apropiación indebida de fondos y manipulación de registros financieros mientras era ejecutivo de una organización con la que, en realidad, no ha tenido ninguna relación. En una presentación judicial que solicita la desestimación de la demanda, OpenAI dijo que "existe un consenso casi universal de que el uso responsable de la IA incluye la verificación de los resultados solicitados antes de usarlos o compartirlos".

OpenAI se negó a comentar sobre casos específicos.

Las alucinaciones de IA, como detalles biográficos falsos e identidades mezcladas, que algunos investigadores llaman "Frankenpeople", pueden ser causadas por la escasez de información sobre una determinada persona disponible en línea.

La dependencia de la tecnología en la predicción de patrones estadísticos también significa que la mayoría de los chatbots unen palabras y frases que reconocen de los datos de entrenamiento como a menudo correlacionados. Probablemente así es como ChatGPT otorgó a Ellie Pavlick, profesora asistente de ciencias de la computación en la Universidad de Brown, una serie de premios en su campo que no ganó.

“Lo que le permite parecer tan inteligente es que puede hacer conexiones que no están explícitamente escritas”, dijo. “Pero esa capacidad de generalizar libremente también significa que nada la ata a la noción de que los hechos que son ciertos en el mundo no son los mismos que los hechos que posiblemente podrían ser ciertos”.

Para evitar imprecisiones accidentales, dijo Microsoft, utiliza filtrado de contenido, detección de abuso y otras herramientas en su chatbot de Bing. La compañía dijo que también alertó a los usuarios de que el chatbot podría cometer errores y los alentó a enviar comentarios y evitar depender únicamente del contenido que generó Bing.

De manera similar, OpenAI dijo que los usuarios podrían informar a la empresa cuando ChatGPT respondiera incorrectamente. Los capacitadores de OpenAI pueden luego examinar la crítica y usarla para ajustar el modelo para reconocer ciertas respuestas a indicaciones específicas como mejores que otras. También se podría enseñar a la tecnología a buscar información correcta por sí misma y evaluar cuándo su conocimiento es demasiado limitado para responder con precisión, según la empresa.

Meta lanzó recientemente múltiples versiones de su tecnología de inteligencia artificial LLaMA 2 y dijo que ahora estaba monitoreando cómo las diferentes tácticas de entrenamiento y ajuste podrían afectar la seguridad y precisión del modelo. Meta dijo que su lanzamiento de código abierto permitió que una amplia comunidad de usuarios ayudara a identificar y corregir sus vulnerabilidades.

Más vale prevenir

Para ayudar a abordar las crecientes preocupaciones, siete empresas líderes de IA acordaron en julio adoptar salvaguardas voluntarias, como informar públicamente sobre las limitaciones de sus sistemas. Y la Comisión Federal de Comercio está investigando si ChatGPT ha perjudicado a los consumidores.

Para su generador de imágenes DALL-E 2, dijo OpenAI, eliminó contenido extremadamente explícito de los datos de entrenamiento y limitó la capacidad del generador para producir imágenes violentas, de odio o adultas, así como representaciones fotorrealistas de personas reales.

Una colección pública de ejemplos de daños en el mundo real causados por la inteligencia artificial, la base de datos de incidentes de IA, tiene más de 550 entradas este año. Incluyen una imagen falsa de una explosión en el Pentágono que sacudió brevemente el mercado de valores y falsificaciones profundas que pueden haber influido en una elección en Turquía.

Scott Cambo, quien ayuda a ejecutar el proyecto, dijo que esperaba “un gran aumento de casos” que involucren caracterizaciones erróneas de personas reales en el futuro.

“Parte del desafío es que muchos de estos sistemas, como ChatGPT y LLaMA, se promocionan como buenas fuentes de información”, dijo Cambo. “Pero la tecnología subyacente no fue diseñada para ser eso”.

¿Encontraste un error?

Reportar

Temas relacionados

premium

Te puede interesar

Publicidad

Publicidad