Publicidad

Las 6 preguntas que tenemos que hacernos (una y otra vez) sobre IA - Parte II

Preguntas cuya respuesta las mentes más brillantes solo pueden por ahora intuir y responder a medias.

Compartir esta noticia
Deepfakes. Foto: Shutterstock

Como decíamos hace unas semanas en materia de Inteligencia Artificial sería recomendable, como plantea un artículo del MIT Technology Review, guiarnos por algunas preguntas. La mayoría cuya respuesta estamos lejos aún de tener.

Por eso, y porque siempre lo prometido es deuda, les dejo la segunda parte de esas preguntas cuya respuesta las mentes más brillantes del mundo solo pueden por ahora intuir y responder a medias. Si la primera parte no la leyeron y entraron de casualidad, no desesperen, se las dejo acá.

-¿Cuánto va a crecer la desinformación a partir de la Inteligencia Artificial? ¿Ya no vamos a poder creer en nada? 

Tres de las imágenes más virales de 2023 fueron el papa Francisco usando un abrigo inflado de nylon de Balenciaga, Donald Trump siendo derribado al suelo por policías y una explosión en el Pentágono. Todas falsas pero todas vistas y compartidas por millones de personas.

OpenAI, la empresa detrás del ChatGPT, ha colaborado en investigaciones que demuestran el impacto del uso de esta tecnología para campañas de las mal llamadas fake news. En un informe de 2023, advirtió que los modelos de lenguaje podrían ser utilizados para producir propaganda más persuasiva, más difícil de detectar como tal, a gran escala. En la mayoría de las legislaciones que se aprobaron o están camino a ello en el mundo una de las exigencias es que las empresas marquen con marca de agua texto, imágenes o videos generados por IA, y que aclaren a las personas cuando están interactuando con un chatbot. Son pasos importantes. Pero no suficientes porque como hemos escrito otras veces, incluso los desarrolladores de estos modelos no conocen todas sus capacidades: y ese es el problema porque es imposible saber todas las formas en que se mal usará una tecnología hasta que se use. La mayoría de los expertos predice que continuarán surgiendo nuevas formas de mal uso a medida aumenten los adeptos a esta tecnología. Y lamentablemente, habrá algunos ejemplos destacados, posiblemente relacionados con la manipulación electoral.

 -¿Podremos afrontar los costos de usar Inteligencia Artificial?

La IA tiene costos humanos y ambientales que aún no están resueltos. En 2023, el uso de trabajadores de OpenAI en Kenia ocupó las páginas del Time y The Wall Street Journal porque la firma Sama, contratada para eliminar respuestas ofensivas del ChatGPT, abusaba de sus trabajadores en Kenia

El otro gran costo es la cantidad de energía necesaria para entrenar grandes modelos generativos. En agosto, Nvidia anunció ingresos del segundo trimestre de 2024 de más de $13.5 mil millones, el doble que en el mismo período del año anterior. La mayor parte de esos ingresos ($10.3 mil millones) proviene de centros de datos, es decir, otras empresas que utilizan el hardware de Nvidia para entrenar modelos de IA. Los expertos dicen que no habrá mejoras significativas en ninguno de los frentes pronto.

-¿Seguiremos analizando la Inteligencia Artificial desde el pánico moral y no desde la razón? 

El pesimismo, el miedo a que la creación de máquinas inteligentes pueda tener consecuencias desastrosas, incluso apocalípticas, ha sido durante mucho tiempo una corriente subyacente en la IA. Es difícil entender qué es real y qué no lo es porque no conocemos los incentivos de las personas que están diciendo muchas de las cosas que producen temor. Es incluso extraño porque muchas de ellas son las que se están enriqueciendo enormemente a costa de esto. Para muchos el principal problema de estas alarmas es que desvían recursos e investigadores lejos de riesgos más inmediatos, como el sesgo, las perturbaciones laborales y la desinformación.

¿Encontraste un error?

Reportar

Temas relacionados

premium

Te puede interesar

Publicidad

Publicidad