Alertan sobre los riesgos de compartir información personal con la inteligencia artificial

La Autoridad Vasca de Protección de Datos advierte que la huella digital generada al interactuar con chatbots como ChatGPT no es anónima y que los riesgos aumentan en usos sensibles.

Mano sosteniendo un teléfono móvil con la aplicación de ChatGPT en pantalla, sobre un fondo digital con un candado que simboliza los riesgos de privacidad y protección de datos en el uso de inteligencia artificial.

La Autoridad Vasca de Protección de Datos (AVPD) lanzó una advertencia pública sobre los riesgos que implica compartir información personal al interactuar con herramientas de inteligencia artificial, en un contexto de creciente adopción de chatbots y sistemas conversacionales en la vida diaria.

La alerta cobra especial relevancia luego de que ChatGPT anunciara la apertura de conversaciones eróticas para adultos verificados, un escenario que, según el organismo, incrementa la probabilidad de exposición de datos sensibles. “La huella digital, cuando se utilizan este tipo de chatbots, no es anónima”, advirtió Unai Aberasturi, presidente de la AVPD, en diálogo con este medio.

Según explicó, estas plataformas están diseñadas para retener al usuario y prolongar la interacción, lo que amplifica los riesgos asociados al volumen de información compartida. “Cuanto más tiempo pases enganchado en ese entorno, más humanizas a la máquina y más información le transmitís sobre tu vida”, señaló.

Datos personales bajo riesgo

Tal como detalla la Autoridad Vasca y recoge la World Compliance Association en su comunicación del 8 de enero, incluso sin registrarse, herramientas como ChatGPT pueden recopilar dirección IP, tipo de dispositivo, navegador, sistema operativo, fecha, hora y duración de la sesión, así como datos de interacción como los mensajes escritos y las respuestas generadas. A ello se suma el uso de cookies para conservar el contexto de la conversación.

En los casos en que el usuario se identifica, se agregan datos como correo electrónico, contraseña y país aproximado, mientras que las versiones de pago incorporan además información de facturación y datos de la tarjeta bancaria.

El riesgo, advierte Aberasturi, se incrementa cuando estas herramientas se utilizan con fines eróticos o sexuales. “Aumenta la probabilidad de aportar datos íntimos, como la orientación sexual, que podrían ser utilizados para entrenar la propia herramienta, terminar en manos de ciberdelincuentes o servir para segmentar perfiles en función de aspectos profundamente personales”, explicó.

Responsabilidad compartida

Desde la AVPD subrayan que la protección de la privacidad requiere una responsabilidad compartida entre usuarios y empresas tecnológicas. “Las compañías deben actuar diligentemente, incorporar mecanismos que garanticen un uso seguro de los datos, proteger la confidencialidad y la integridad de la información, evaluar los riesgos y cumplir con el principio de transparencia”, afirmó Aberasturi.

El organismo insiste en que uno de los principales problemas es la falta de conciencia sobre el volumen de datos que se cede al interactuar con sistemas de inteligencia artificial. “El mayor riesgo de un uso irresponsable es perder el control sobre un derecho fundamental como la privacidad”, reflexionó.

En ese sentido, la AVPD recomienda que los usuarios se formulen preguntas básicas antes de utilizar estas herramientas: para qué se usan los datos, dónde se almacenan y cómo ejercer los derechos de acceso, supresión o rectificación.

La advertencia en clave
  • La interacción con herramientas de inteligencia artificial genera una huella digital que no es anónima.
  • Incluso sin registrarse, los chatbots pueden recopilar datos técnicos y de comportamiento.
  • El riesgo se incrementa cuando se comparten datos sensibles o íntimos, como en usos eróticos.
  • Los menores de edad constituyen un grupo especialmente vulnerable.
  • La AVPD reclama responsabilidad tanto a usuarios como a empresas tecnológicas.

Especial atención a menores

La preocupación se intensifica cuando se trata de menores de edad, un colectivo que, según la Autoridad Vasca, hace un uso cada vez más intensivo de las nuevas tecnologías desde edades tempranas. El organismo alerta sobre riesgos asociados a la salud mental, el aislamiento y la desinformación, además de la exposición a contenidos inapropiados.

Datos de la propia AVPD indican que un 55% de los adolescentes de entre 13 y 17 años considera la pornografía una fuente de inspiración en sus relaciones sexuales, lo que refuerza la necesidad de mecanismos de protección específicos.

No obstante, la implementación de sistemas de verificación de edad también abre un nuevo debate. “Hemos detectado mecanismos que solicitan información excesiva, como documentos de identidad o incluso datos biométricos, lo que puede generar nuevas vulneraciones de privacidad”, advirtió Aberasturi.

La Autoridad Vasca participa activamente en foros internacionales, como la Red Iberoamericana de Protección de Datos, donde se insiste en la necesidad de sensibilizar a la ciudadanía sobre el impacto que tienen las tecnologías disruptivas en la protección de la información personal.

¿Encontraste un error?

Reportar

Te puede interesar