Josep Catà Figuls, El País de Madrid
Margaret Mitchell, nacida en Los Ángeles, es una de las mayores expertas en ética aplicada en la tecnología, y ha dedicado su carrera a reducir los sesgos de los algoritmos. Fundó y dirigió el departamento de ética de la inteligencia artificial (IA) en Google junto a Timnit Gebru, hasta que ambas fueron despedidas con pocos meses de diferencia en 2021. Ahora, supervisa el departamento de ética en Hugging Face (una empresa de desarrollo de IA) y es una de las 100 personas más influyentes de 2023 según la revista Time.
Ante la pregunta de si a los desarrolladores de IA les importa la ética, Mitchell opinó que "depende de quién". "He trabajado con muchos que siempre están atentos a hacer las cosas bien, pero la cultura del mundo del desarrollo tecnológico y la ingeniería tiende a favorecer un comportamiento alfa, donde quieres ser el primero en sacar algo o con mejor resultado. Esto puede desincentivar el trabajar en consideraciones éticas", explicó.
En cuanto a la discriminación y los sesgos en los algoritmos que denuncia, apuntó que, como los desarrolladores de los productos suelen ser en su mayoría hombres blancos y asiáticos, "no se dan cuenta de que los datos que manejan no son completos, porque reflejan su visión", y que se debe "invitar a la mesa a personas marginadas" para solventar este problema.
Advirtió que, de seguir con este modelo, se crearán tecnologías que no funcionarán para personas marginadas, o hasta podrían hacerles daño: "Por ejemplo, coches autónomos que no detectan a los niños, porque los datos que controlan no tienen en cuenta sus comportamientos más caóticos o erráticos. Esto ya ocurría con los airbags, que hacían más daño a las mujeres, porque habían sido diseñados sin tener en cuenta que hay personas con pechos". Mitchell consideró que los grupos más discriminados por la IA son las mujeres negras, las personas no binarias, integrantes de la comunidad LGBTIQ+ y latinos.
"Me preocupa la idea de que la IA debe tener un modelo general de valores, yo prefiero la idea de una IA enfocada en tareas y valores específicos. Tienes que individualizar más los modelos para tener en cuenta los valores en cada situación, el contexto y las características de los datos que recopilas", explicó.
Mitchell dijo que las compañías "tienen que revelar los detalles básicos de sus datos de entrenamiento para IA", aunque no necesariamente hacerlos públicos para todos. Deberían "demostrar a auditores independientes que hay equidad en sus datos y que usan un contexto real, no estereotipado", opinó.
Declaró que no es optimista sobre el futuro de la IA: "creo que la gente que más probablemente se verá perjudicada por la tecnología no está en los puestos donde se habla de regulaciones, ni toma decisiones en las grandes tecnológicas". A su vez, afirmó que "hay muchos caminos beneficiosos para la humanidad y no son los que se están siguiendo".
-
"Ai Pin": tiene el tamaño de una caja de fósforos y el busca reemplazar a los celulares
Los cambios que ya son realidad en el sector de tecnológicas en Uruguay y las tendencias en el mundo
Estos podrían ser los empleos del futuro: diez campos profesionales que tendrán mayor demanda
Inteligencia artificial: las nuevas leyes y alertas que se vienen a nivel mundial