Actualidad

Influencers clonando su propia voz: se abre un nuevo frente en la ciberseguridad digital

Existe un riesgo en las suplantaciones realistas de las redes sociales y la pérdida de confianza en los contenidos digitales

La inteligencia artificial generativa está revolucionando la forma en que se crean y consumen contenidos digitales, pero también está generando nuevas vulnerabilidades. El crecimiento de los deepfakes y la clonación de voz como una amenaza emergente para la ciberseguridad, la reputación de marca y la confianza en el entorno digital, según advierte Logicalis Spain.

En las últimas semanas, varios creadores e influencers españoles han empezado a utilizar herramientas de IA que permiten traducir sus vídeos a otros idiomas mientras replican su propia voz y sincronizan el movimiento de los labios. El resultado: versiones hiperrealistas que parecen auténticas, pero que en realidad son generadas artificialmente. Esta combinación de tecnologías marca un punto de inflexión: “La clonación de voz y la sincronización labial están alcanzando un nivel de realismo que plantea un riesgo claro de manipulación, suplantación y pérdida de confianza digital. Hoy cualquiera puede hacerte decir lo que nunca has dicho, en cualquier idioma”, advierte Ramón Rico Gómez, cybersecurity operations manager de Logicalis Spain.

Más allá de su potencial creativo, el fenómeno plantea retos significativos para la autenticidad y la protección de la identidad digital. Los estudios más recientes muestran que los usuarios solo identifican correctamente un deepfake vocal en el 73% de los casos, mientras que los sistemas automáticos de detección siguen siendo poco fiables ante audios realistas. Los riesgos no son teóricos.

Logicalis recuerda el caso de una empresa británica que perdió 25 millones de dólares tras recibir una llamada con la voz clonada de un directivo. Según datos de McAfee, uno de cada diez usuarios ha recibido mensajes de voz generados por IA simulando a personas conocidas, y el 77% de ellos sufrió pérdidas económicas. En el ámbito corporativo, el 85% de las medianas y grandes empresas ha sufrido al menos un intento de ataque mediante deepfake en el último año, con un coste medio por incidente de 280.000 dólares.

El impacto en redes sociales, especialmente en plataformas como Instagram -que supera los 2.000 millones de usuarios activos mensuales-, multiplica el alcance y la capacidad de viralización de estas manipulaciones. “Estamos ante un nuevo frente de la ciberdelincuencia que combina ingeniería social avanzada con IA generativa”, subrayan desde Logicalis. “Ya no basta con desconfiar de un correo sospechoso: una voz o un vídeo pueden parecer completamente reales. La confianza digital está en juego”.

Entre las medidas de prevención, se recomienda el uso de marcas de agua digitales, firmas invisibles, tecnologías forenses de verificación y la adopción de protocolos híbridos humano-IA para detectar manipulaciones. La compañía también llama a reforzar la colaboración entre plataformas tecnológicas, reguladores y autoridades para establecer marcos legales que limiten el uso malicioso de estas herramientas.