Publicidad

Inteligencia artificial: cofundadora del departamento de ética en Google alertó por falta de transparencia

Margaret Mitchell, que fue despedida de la popular compañía en 2021, indicó que la cultura en el desarrollo de tecnología desincentiva el trabajo en consideraciones éticas.

Compartir esta noticia
Margaret Mitchell, especialista en ética de la inteligencia artificial.
Margaret Mitchell, especialista en ética de la inteligencia artificial.
Foto: Captura / TED

Josep Catà Figuls, El País de Madrid
Margaret Mitchell, nacida en Los Ángeles, es una de las mayores expertas en ética aplicada en la tecnología, y ha dedicado su carrera a reducir los sesgos de los algoritmos. Fundó y dirigió el departamento de ética de la inteligencia artificial (IA) en Google junto a Timnit Gebru, hasta que ambas fueron despedidas con pocos meses de diferencia en 2021. Ahora, supervisa el departamento de ética en Hugging Face (una empresa de desarrollo de IA) y es una de las 100 personas más influyentes de 2023 según la revista Time.

Ante la pregunta de si a los desarrolladores de IA les importa la ética, Mitchell opinó que "depende de quién". "He trabajado con muchos que siempre están atentos a hacer las cosas bien, pero la cultura del mundo del desarrollo tecnológico y la ingeniería tiende a favorecer un comportamiento alfa, donde quieres ser el primero en sacar algo o con mejor resultado. Esto puede desincentivar el trabajar en consideraciones éticas", explicó.

En cuanto a la discriminación y los sesgos en los algoritmos que denuncia, apuntó que, como los desarrolladores de los productos suelen ser en su mayoría hombres blancos y asiáticos, "no se dan cuenta de que los datos que manejan no son completos, porque reflejan su visión", y que se debe "invitar a la mesa a personas marginadas" para solventar este problema.

Advirtió que, de seguir con este modelo, se crearán tecnologías que no funcionarán para personas marginadas, o hasta podrían hacerles daño: "Por ejemplo, coches autónomos que no detectan a los niños, porque los datos que controlan no tienen en cuenta sus comportamientos más caóticos o erráticos. Esto ya ocurría con los airbags, que hacían más daño a las mujeres, porque habían sido diseñados sin tener en cuenta que hay personas con pechos". Mitchell consideró que los grupos más discriminados por la IA son las mujeres negras, las personas no binarias, integrantes de la comunidad LGBTIQ+ y latinos.

"Me preocupa la idea de que la IA debe tener un modelo general de valores, yo prefiero la idea de una IA enfocada en tareas y valores específicos. Tienes que individualizar más los modelos para tener en cuenta los valores en cada situación, el contexto y las características de los datos que recopilas", explicó.

Mitchell dijo que las compañías "tienen que revelar los detalles básicos de sus datos de entrenamiento para IA", aunque no necesariamente hacerlos públicos para todos. Deberían "demostrar a auditores independientes que hay equidad en sus datos y que usan un contexto real, no estereotipado", opinó.

Declaró que no es optimista sobre el futuro de la IA: "creo que la gente que más probablemente se verá perjudicada por la tecnología no está en los puestos donde se habla de regulaciones, ni toma decisiones en las grandes tecnológicas". A su vez, afirmó que "hay muchos caminos beneficiosos para la humanidad y no son los que se están siguiendo".

¿Encontraste un error?

Reportar

Temas relacionados

inteligencia artificial

Te puede interesar

Publicidad

Publicidad