Donald Trump, Elon Musk y Taylor Swift, los más 'deepfakeados' en 2024

El magnate, Elon Musk, la cantante, Taylor Swift y el candidato presidencial, Donald Trump

 Por Alfonso Alvarez, www.laspalomastv.com

Madrid, España - 06/10/2024

En 2024, las personalidades públicas más afectadas por el fenómeno de los 'deepfakes' han sido Donald Trump, Elon Musk y Taylor Swift. Estos contenidos, generados con inteligencia artificial, manipulan tanto la imagen como la voz, y aunque en muchos casos se crean con fines de entretenimiento, también representan riesgos serios para la democracia y la seguridad.

Según datos proporcionados por Kapwing, una plataforma de creación de vídeos, la tecnología detrás de los 'deepfakes' permite crear una clonación realista de la voz de una persona a partir de solo 10 a 15 segundos de muestra de audio. Esto se logra analizando las características vocales y aplicándolas a un modelo que puede generar voz a partir de texto. La sincronización de los labios y gestos faciales se ajusta luego para que coincidan con la voz generada, creando un "gemelo de IA" que resulta difícil de distinguir del original.

Trump, Musk y Swift, los más populares en el mundo de los 'deepfakes'

En el análisis realizado por Kapwing, se ha contabilizado que el expresidente de Estados Unidos Donald Trump ha protagonizado 12.384 solicitudes de vídeos 'deepfake' en 2024, mientras que Elon Musk, propietario de la plataforma X (anteriormente Twitter), ha registrado 9.544 solicitudes, y la cantante Taylor Swift ha sumado 8.202.

El uso de 'deepfakes' también ha alcanzado al presidente Joe Biden, con 7.956 solicitudes, y a otras figuras del entretenimiento como los actores Tom Cruise, Dwayne Johnson y Will Smith. Los deportistas, como Cristiano Ronaldo, Leo Messi y Michael Jordan, y empresarios tecnológicos como Mark Zuckerberg, también han sido objeto de este fenómeno.

Los peligros detrás de los 'deepfakes'

Aunque una gran parte de estos contenidos se utiliza para la comedia o el entretenimiento, los 'deepfakes' también suponen un peligro real. Un ejemplo es un vídeo falso de Joe Biden anunciando la retirada de su candidatura presidencial, que pudo causar confusión entre los usuarios al pensar que se trataba de una declaración real.

Este tipo de tecnología es también un arma para los ciberdelincuentes, quienes la utilizan para realizar estafas, aprovechándose de la confianza que los usuarios depositan en las figuras públicas.

Cómo detectar un 'deepfake'

Kapwing ha compartido algunas pautas para identificar vídeos falsos creados con IA. Los movimientos inconsistentes de labios y dientes, la falta de naturalidad en los gestos corporales, y la carencia de parpadeo son señales comunes de un 'deepfake'. Además, la voz generada suele ser menos expresiva y más monótona.

El cofundador de Kapwing, Eric Lu, señaló la importancia de disponer de estas herramientas de forma segura y transparente, para que los usuarios puedan identificar cuándo el contenido ha sido manipulado.

"Las conclusiones de nuestro estudio muestran claramente que los 'deepfakes' de vídeo ya son algo habitual, al igual que las herramientas que pueden utilizarse para hacerlos. Es necesario que estas herramientas estén disponibles de forma segura", manifestó Lu.

Para más información y actualizaciones sobre esta y otras noticias, mantente en sintonía con www.laspalomastv.com

Publicar un comentario

Artículo Anterior Artículo Siguiente