Publicidad

Del aprendizaje profundo a la preocupación profunda

Compartir esta noticia
Foto: Pixabay

Deep Learning

Existe un mercado cuyo valor se estima en más de $6,5 mil millones y que se espera que crezca más del 400% en los próximos cinco años (1).

Este mercado tiene que ver con la información personal. Estamos escuchando algunas voces realmente autorizadas que afirman que la regulación tiene que aplicarse si no queremos volver a los viejos días de la "Fiebre del Oro". ¿Qué hago exactamente con mis datos personales? Lo que se está creando a partir de mis datos personales también debería estar sujeto a mi escrutinio.

Los datos no son una moneda. Un punto de datos puede estar en dos repositorios diferentes al mismo tiempo y aún mantener el mismo valor. En cuanto a los datos, nos enfrentamos al desafío del entrelazamiento cuántico. En este momento, mientras lees este artículo, tus datos se están recopilando. Dado que los datos están en todas partes y la inteligencia artificial está llegando a conclusiones diferentes al usar sus datos para diferentes propósitos, corresponde a nosotros comenzar a preocuparnos por lo que se está haciendo con nuestros datos. El modelo freemium (modelo de negocio que funciona ofreciendo servicios básicos gratuitos, mientras se cobra dinero por otros servicios más avanzados o especiales) de la mayoría de las compañías SaaS (Software as a Service), está llegando a un punto en el que ya no debe permitirse el lema "que usted proporcionó sus datos a cambio de una solución gratuita" o debe revisarse con urgencia.

Geoffrey Hinton revolucionó el campo de la inteligencia artificial en 2017 con las redes Capsule. Demostró que la controversia histórica entre los investigadores de los algoritmos basados en reglas, frente a los modelos de redes neuronales, se decidió a favor de los segundos, haciendo uso de pequeñas cantidades de datos y dotando a los algoritmos de la capacidad de aprender y generar algo que está cerca de la intuición. Quince años antes, este ingeniero británico que nació exactamente siete años antes de la muerte de Alan Turing, ya había sentado las bases para que los algoritmos aprendan a evolucionar por sí mismos, por haber descubierto nuevos patrones dentro de los datos. Hoy en día, el principal desafío de todas las empresas en el campo de datos es la accesibilidad. Y cuando digo datos me refiero a resultados. El algoritmo aprenderá después.

Las empresas están aprendiendo a adivinar mi próximo mejor regalo de Navidad (basado en mis gemelos digitales), aumentar o disminuir mi prima de seguro de vida basada en mi ejercicio diario (trazado por mi muñeca digital), la próxima serie de TV que voy a ver el próximo fin de semana (aprovechando su algoritmo perfectamente optimizado), averiguar exactamente la próxima fecha de la que probablemente me enamoraré (basado en mi dilatación del globo ocular digital y la retina), calcular con precisión mis ahorros para el próximo trimestre (tomando información de los gastos mensuales pasados) o diseñar mi casa perfecta para cuando me jubile. Y esto es asombroso y extraordinariamente valioso. ¿Pero dónde está el límite? El límite debe ser mi permiso y su responsabilidad.

Surge un nuevo concepto de responsabilidad social corporativa. Y se trata de controlar, monitorear y validar el buen uso de las cajas negras corporativas que manejan grandes cantidades de datos. La nueva normalidad debería incorporar la validación externa en todos los modelos predictivos y en todo el trabajo algorítmico realizado por grandes organizaciones para lograr transparencia y responsabilidad. Todos aceptamos que vivimos en la cuarta revolución industrial, una era en la que los datos y la tecnología están cambiando la forma en que avanzamos. Los usuarios finales deben tener el derecho de actuar sobre el resultado de los modelos predictivos. Esto no solo tiene que ver con el derecho a la rectificación, sino también con la transparencia. Necesitamos transparencia para validar el uso de nuestros datos y la responsabilidad por parte de las corporaciones y los gobiernos al usar datos y modelos para crear un mundo mejor.

Bajo el nombre de "Pautas éticas para una IA confiable" (2), en abril de 2019 un grupo de expertos en la Unión Europea publicó un conjunto de pautas sobre cómo las empresas y los gobiernos deberían desarrollar aplicaciones éticas de inteligencia artificial. En resumen, estos son los lineamientos de esta publicación: capacitar a los seres humanos y fomentar los derechos fundamentales; proteger la información con sistemas robustos y seguros; un total respeto a la privacidad; transparencia en los modelos: diversidad, no discriminación y equidad de las conclusiones; bienestar social y ambiental y rendición de cuentas.

Si una empresa como Facebook aprovisiona 3 mil millones de dólares en el primer trimestre de 2019 como gastos legales (3) relacionado con la investigación en curso de la Comisión Federal de Comercio de Estados Unidos, tenemos que aceptar que esa provisión, en un trimestre – exactamente una sexta parte del beneficio anual antes de impuestos del principal banco europeo, HSBC, en 2018 – debe servir como magnitud del valor de los datos con respecto a la falta de transparencia, falta de seguridad, falta de protección y falta de bienestar para todos nosotros, dados los resultados de Brexit y las elecciones estadounidenses.

El reciente caso en Estados Unidos de cupones de alimentos (4) podría ilustrar en qué medida debemos preocuparnos por la supervisión y auditoría de los modelos. Este es un ejemplo perfecto de sesgo en un algoritmo en la lucha contra el fraude de cupones de alimentos. El USDA expulsó a las pequeñas empresas del programa de cupones de alimentos bajo el supuesto de fraude. Los múltiples intercambios consecutivos en cortos períodos de tiempo causados por la necesidad de que las personas pobres compartan el transporte a las tiendas de alimentos, dada la distancia de sus hogares y la falta de vehículos privados, se detectaron como fraude. Como consecuencia, algunas tiendas fueron excluidas permanentemente del programa de cupones de alimentos. Está claro que alguien dejó de monitorear el modelo y la realidad se convirtió en un sesgo.

Diseñar un marco que mejore la transparencia al establecer ciertas reglas de gobernanza que permitan a los usuarios "reaccionar" sobre el resultado de los datos agregados liderados por las corporaciones establece un nuevo paso justo en el que las empresas son responsables del uso agregado de datos personales. ¿Estamos hablando de responsabilidad social corporativa en el uso de datos? Tal vez. Mi opinión es que deberíamos hablar de sostenibilidad en la cuarta revolución industrial. Esta es mi profunda preocupación por el uso de datos. No se trata de transformar cuadros de datos negros en cuadros de datos transparentes, sino en cuadros de datos responsables.

Tengo una profunda preocupación con respecto al uso de datos agregados. Si realmente sabemos cómo automatizar la capacidad de aprendizaje a través de los datos, tenemos que empezar a preocuparnos por como estos sistemas automatizados están diseñados para un mundo mejor. ¿Aprendizaje profundo? Sí, y también se necesita una profunda preocupación por un mundo mejor con respecto al uso de la inteligencia artificial.

(*) Director del Programa de Dirección en Transformación Digital IE BUSINESS SCHOOL

(1) Measuring the size of personal data markets https://www.gminsights.com/industry-analysis/personal-identity-management-market
(2) European Commission, april 2019: “Ethics guidelines for trustworthy AI” https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
(3) Facebook Reports First Quarter 2019 Results: https://s21.q4cdn.com/399680738/files/doc_financials/2019/Q1/Q1-19-Press-Release.pdf
(2) How an algorithm kicks small businesses out of the food stamps program on dubious fraud charges: https://newfoodeconomy.org/usda-algorithm-food-stamp-snap-fraud-small-businesses/

¿Encontraste un error?

Reportar

Te puede interesar

Publicidad

Publicidad