Cerrar

DEEPFAKE DE LIBRO EN 2023

LA IDENTIDAD. El número de deepfake o vídeos falsos crece a un ritmo anual del 900%, según el Foro Económico Mundial (WEF). Son casos que ocupan muchos titulares en los medios de comunicación; el objetivo es acosar, vengarse...

Un recargo reflejo del robo de identidad. efe

Publicado por
León

Creado:

Actualizado:

El uso de redes neuronales (método de Inteligencia Artificial) y del aprendizaje profundo o Deep Learning (de ahí el término ‘deepfake’) permite prácticamente a cualquiera usar imágenes, vídeos y audio para crear vídeos realistas de alguien en los que se ha alterado digitalmente su rostro o su cuerpo para que parezca ser otra persona. El objetivo es difundir información falsa o maliciosa, así como realizar estafas.

Muchas veces, los ciberdelincuentes utilizan los deepfakes para hacerse pasar por famosos y que las víctimas caigan más fácilmente en el engaño. Un ejemplo de ello es un vídeo creado artificialmente el año pasado con Elon Musk como protagonista. En el mismo, el fundador de Tesla prometía grandes ganancias si se seguían una serie de consejos para invertir en criptomonedas. El contenido se volvió viral y muchos usuarios perdieron su dinero. Para crear deepfakes como este, los estafadores utilizan imágenes de celebrities o mezclan vídeos antiguos y lanzan transmisiones en directo en las redes sociales, prometiendo duplicar cualquier pago en criptomoneda que se les envíe.

Con la foto de una persona se puede crear una pieza pornográfica en la que aparezca manteniendo relaciones sexuales. En varias ocasiones han aparecido vídeos de este tipo utilizando rostros conocidos, pero las víctimas también pueden ser personas anónimas. Como consecuencia, las víctimas del ataque ven dañada su reputación y vulnerados sus derechos. Uno lo de los últimos ejemplos ha sido el de la cantante Rosalía, quien fue víctima de una foto falsificada donde aparecía, supuestamente, haciendo toples.

Los deepfakes pueden utilizarse para atacar a empresas mediante extorsión, chantaje o espionaje industrial. En una ocasión, los ciberdelincuentes engañaron al gerente de un banco de Emiratos Árabes Unido con este método, robando 35 millones de dólares. A partir de una pequeña grabación de voz, crearon una locución con la que lograron engañar al responsable de la entidad. En otro caso, los estafadores trataron de embaucar a la mayor plataforma de criptomonedas del mundo, Binance. Generaron un deepfake de uno de sus directivos y lo utilizaron en una reunión online en la que hablaron en nombre del ejecutivo.

En general, entre los objetivos de estos estafadores destacan la desinformación y la manipulación de la opinión pública o el chantaje. Los responsables de recursos humanos ya están en alerta ante el uso de deepfakes por parte de candidatos que solicitan trabajo a distancia, según una advertencia del FBI. En el caso de Binance, los atacantes utilizaron imágenes de personas que encontraron en Internet para crear deepfakes para añadirlas a los currículos. Si consiguen engañar a los responsables de recursos humanos y más tarde reciben una oferta, pueden robar datos de la empresa.

Cuando los ciberdelincuentes preparan un deepfake, buscan muchos datos: fotos, vídeos, audio de la persona a suplantar. Los diferentes ángulos de cámara, la iluminación, las expresiones faciales… Todo juega un papel importante si se busca calidad. Se necesita también un ordenador y un software actualizados, puestos al día. Se trata de recursos al alcance de ciberdelincuentes.