Publicidad

Advertencia

El "padrino" de la inteligencia artificial advirtió sobre sus riesgos tras renunciar a Google

Geoffrey Hinton expresó sus preocupaciones respecto a la desinformación y la permanencia de los humanos en diversos trabajos.

Compartir esta noticia
Inteligencia Artificial
El desarrollo de tecnologías inteligencia artificial está en auge en los últimos tiempos.
El Pais SA

Geoffrey Hinton, reconocido por su labor en el desarrollo de la tecnología de inteligencia artificial (IA) renunció recientemente a su trabajo en Google, donde trabajó por más de una década, para poder expresar sus preocupaciones sobre los riesgos que representa la tecnología, según informó The New York Times. Él, junto con dos de sus estudiantes de posgrado en la Universidad de Toronto, creó en 2012 una tecnología que se ha convertido en la base intelectual para los sistemas de inteligencia artificial que las empresas más grandes de la industria tecnológica consideran clave para su futuro.

Un número creciente de críticos, incluyendo a Hinton, sostienen que las empresas de tecnología están dirigiéndose hacia el peligro con su campaña agresiva para crear productos basados en la inteligencia artificial generativa. Esta ya puede ser una herramienta para la desinformación y, pronto, podría ser un riesgo para los trabajos.

A principios de este año, más de 1.000 líderes e investigadores de la tecnología firmaron una carta abierta pidiendo una pausa de seis meses en el desarrollo de nuevos sistemas porque las tecnologías de inteligencia artificial plantean “riesgos profundos para la sociedad y la humanidad”. Entre los firmantes, se encontraban Elon Musk, CEO de Tesla y SpaceX, y Steve Wozniak, cofundador de Apple. Un grupo de 19 líderes de la Asociación para el Avance de la Inteligencia Artificial publicaron su propia carta días después, advirtiendo sobre sus riesgos.

Aunque Hinton, conocido como “el padrino de la inteligencia artificial”, no firmó ninguna de las cartas, notificó a Google el mes pasado que renunciaba, y habló con Sundar Pichai, el director ejecutivo de Alphabet, el jueves. El científico jefe de Google, Jeff Dean, afirmó en un comunicado que están comprometidos con un enfoque responsable de la inteligencia artificial y siguen aprendiendo para comprender los riesgos emergentes.

Hinton, un académico de toda la vida, adoptó la idea de una red neuronal en 1972 como estudiante de posgrado en la Universidad de Edimburgo. En los años 80, Hinton se desempeñaba como profesor de ciencias de la computación en la Universidad Carnegie Mellon, pero abandonó su puesto y migró a Canadá, porque se negó a recibir fondos del Pentágono. En ese momento, la mayoría de investigaciones en inteligencia artificial en Estados Unidos fue financiada por el Departamento de Defensa. Hinton se opone al uso de esta tecnología en el campo de batalla, las que él llama "soldados robot", según explica The New York Times.

En 2012, él y sus dos estudiantes, Ilya Sutskever y Alex Krishevsky, construyeron una red neuronal que podía analizar miles de fotos y enseñarse a sí misma a identificar objetos comunes. Google adquirió su empresa por $44 millones y su sistema llevó a la creación de tecnologías cada vez más poderosas, como ChatGPT y Google Bard.

En 2018, Hinton y otros dos colaboradores de mucho tiempo recibieron el Premio Turing, a menudo llamado "el Premio Nobel de computación", por su trabajo en redes neuronales, según recoge The New York Times.

Sin embargo, el experto ha cambiado de opinión respecto a los sistemas de inteligencia artificial, ya que teme que la capacidad de la tecnología pueda ser utilizada para crear y propagar información falsa en la red, lo que dificultaría la capacidad de la gente para discernir la verdad. Además, teme que reemplace a los trabajadores humanos en tareas repetitivas, y que versiones futuras de la inteligencia artificial puedan representar una amenaza para la humanidad, incluso en forma de robots asesinos autónomos.

"La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían", expresó, según consigna The New York Times. “La mayoría de la gente pensó que estaba muy lejos. Y pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso", continuó.

Hinton opina que la competencia entre empresas de tecnología como Google y Microsoft para desarrollar tecnologías de inteligencia artificial podría convertirse en una carrera que solo se detendrá con regulaciones globales. Sin embargo, también cree que regularla puede ser imposible, debido a que no se puede saber si las empresas o los países están trabajando en ella en secreto. La mejor esperanza, según el académico, es que los principales científicos del mundo colaboren en formas de controlar la tecnología.

Con información de El Comercio (GDA).

¿Encontraste un error?

Reportar

Temas relacionados

inteligencia artificialGDA

Te puede interesar

Publicidad

Publicidad