
Aunque la Inteligencia Artificial Generativa (IAG) puede ser una herramienta muy útil para la producción de texto, imagen y video, también es un arma de doble filo, ya que puede fomentar la viralización de información falsa, como es el caso del deepfake.
Con el rápido avance de las tecnologías IA se abre un mundo de posibilidades. Al mismo tiempo, cada vez cuesta más distinguir lo verdadero de lo ficticio, y la proliferación de contenido audiovisual engañoso puede provocar desde difamación hasta estafas.
¿Qué es un deepfake?
En primer lugar, deepfake es un tipo de contenido digital extremadamente realista creado con el uso de inteligencia artificial y un “aprendizaje profundo”, llamado “Deep Learning” en inglés, el cual es un tipo de algoritmo con base en redes neuronales para estructurar información e integrar funciones.
Según indica Fundación RAE, el nombre es un acrónimo y anglicismo compuesto por la palabra deep learning (aprendizaje profundo) y fake (falso).
La tecnología ha sido usada en cine y televisión para recrear a actores fallecidos o rejuvenecer personajes, por ejemplo en la película “Alien: Romulus” (2024), en la que aparece Ian Holm, quien falleció en 2020.
Sin embargo, también puede usarse con fines de desinformación o ilícitos, tales como delitos de suplantación de identidad, extorsión o estafa y fraude financiero.
Uno de estos usos maliciosos, lo identificó el influencer Xelsoi, quien compartió en sus redes sociales un video en el que habla sobre la publicidad engañosa de Instagram, mostrando una noticia falsa en la que se involucra a un famoso en un delito o tragedia, junto con un enlace que redirige a un portal informativo falso.
¿Cómo se hace un deepfake?
Según explica la Enciclopedia Britannica, en los videos deepfake, es posible replicar la voz de una persona específica introduciendo datos de audio reales en un modelo de IA, lo que permite entrenarlo para imitarla.
A menudo, estos videos se crean superponiendo audio generado por IA, que imita la voz de la persona, sobre imágenes existentes de ella hablando.
Este tipo de material se genera mediante dos algoritmos de IA distintos. El primero genera una imagen sintética y el segundo le envía retroalimentación, que señala las áreas a mejorar. Luego, el primer algoritmo ajusta la imagen para hacerla más realista. Este proceso se repite tantas veces como sea necesario hasta que el segundo algoritmo no detecta ninguna anomalía.
¿Cómo identificar el engaño?
Aunque el realismo de estas herramientas es creciente, aún tienen algunas inconsistencias y fallos que podemos detectar para no caer en el engaño y compartirlo en el grupo familiar.
Audios
En este caso, la clave está en fijarse en la nitidez de la voz, la entonación y sobre todo en las emociones y ritmo, pues es difícil para la IA imitar emociones genuinas y las pausas naturales de la voz humana.
Videos
Lo ideal es observar gestos faciales y su sincronización con los movimientos del cuerpo. En general, la evidencia está en el parpadeo -que suele verse antinatural- y en la sincronización de los labios con el audio.
Otros aspectos como el entorno y el fondo también pueden ser de ayuda, esto debido a que muchas veces las sombras y contornos son incorrectos.
Fotos
Para las imágenes, lo más importante está en el rostro. Aquellos generados por IA pueden ser más simétricos de lo normal, con una piel uniforme y los ojos pueden tener reflejos anómalos o detalles poco realistas.
Además, es recomendable fijarse en los bordes y contornos de los sujetos, los cuales suelen estar difuminados, y en otros elementos como incongruencias en el color e iluminación de la imagen.