Cerrar

Amor en tiempos de la IA

Ojo a los datos. El amor en tiempos de IA, un peligro para los datos personales. El 90% de las aplicaciones de chatbots románticas de inteligencia artificial no cumplen con una mínima seguridad. Peligro para separar realidad de ficción

Un usuario maneja el teléfono móvil. efe

Publicado por
León

Creado:

Actualizado:

Rosses, con ojos azules o verdes, cabello largo y cuerpos perfectamente proporcionados son algunas de las chicas virtuales que se encuentran en las numerosas aplicaciones que se pueden instalar en un móvil inteligente con un sencillo clic. Pero detrás de estas aplicaciones se esconden una multitud de peligros que el usuario a menudo desconoce. Según la Fundación Mozilla, que analizó una decena de estos chatbots románticos, el 90% de estas aplicaciones pueden vender los datos de sus usuarios o compartirlos con fines publicitarios. Un 73% no da ninguna información sobre cómo gestionan las vulnerabilidades de seguridad, y prácticamente la mitad (45%) permiten contraseñas tan débiles como poner simplemente el número 1. «Este tipo de aplicaciones deberían informar de forma clara y sencilla de qué uso harán de los datos que se incorporen de forma directa o indirecta a la plataforma, si existen ciertas dudas o bien se detectan algunos usos que no son adecuados, debería ser un indicador suficiente para no utilizarlas», advierte Eduard Blasi, profesor colaborador de los Estudios de Derecho y Ciencia Política de la UOC. Pero los peligros de estos chatbots no acaban aquí: la mitad de las aplicaciones (54%) no permite eliminar los datos personales que se han facilitado, entre los que puede estar las conversaciones que se han mantenido con la chica virtual. De hecho, la mayoría de estas aplicaciones dejan claro que pueden compartir la información que se haya dado a la pareja virtual con el gobierno o las fuerzas del orden sin requerir ningún tipo de orden judicial.

«Es importante conocer qué país procesará nuestros datos personales, el país nos indicará el marco normativo y por lo tanto el grado de protección que podrá aplicarse en el tratamiento de nuestros datos»

«Las chicas de inteligencia artificial son un espejismo para la privacidad de las personas, y es una idea nefasta utilizarlas», deja claro Josep Curto, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC). En la línea de lo que advierte la Fundación Mozilla, Curto resume cuatro de los principales peligros. «Estos chatbots de IA generativa están diseñados para pedir el máximo de información posible, desde fotografías, tu voz o la información más íntima, como referencias sexuales», concreta. Para conseguirlo utilizan frases como «quiero saberlo todo de ti». En esta línea, insiste en que la información que estas aplicaciones pueden tratar es realmente sensible, que se derive de un contexto de pareja con información de carácter íntima y reservada. Un segundo punto es que la letra pequeña de las condiciones de uso de estos servicios no es clara con la utilización que hacen de los datos del usuario. «Estos datos son susceptibles de convertirse en la fuente de ingresos principal de estas empresas, compartiéndolas con compañías interesadas en perfiles de personas», apunta el profesor de la UOC. Explica que «un tercer motivo es que algunas de estas aplicaciones a menudo incluyen rastreadores que envían información a países que tienen interés en el espionaje de las personas y consideran que la privacidad no es un derecho. «Es importante conocer qué país procesará nuestros datos personales».