La clonación de voz con IA se consolida como la estafa digital más eficaz del año

La clonación de voz con IA se consolida como la estafa digital más eficaz del año
A medida que la inteligencia artificial se ha integrado en la vida cotidiana, también ha alimentado una de las formas de estafa más sofisticadas del año: la clonación de voz con IA. Esta técnica, conocida como deepfake de voz o voice cloning, permite reproducir de forma extremadamente realista la voz de una persona (usando apenas segundos de grabación) para engañar a víctimas y obtener dinero, datos personales o acceso a sistemas.
Las autoridades y fuerzas de seguridad y los medios de comunicación han informado de múltiples casos en 2025 en los que los estafadores han usado voces generadas por IA para hacerse pasar por familiares, amigos o incluso directivos de empresas y solicitar transferencias de dinero o información crítica. En algunos escenarios, esta modalidad de fraude se ha convertido en la estafa por WhatsApp más peligrosa del año, debido a la combinación de la tecnología realista y la confianza que los usuarios tienden a depositar en las comunicaciones de voz.
Cómo funciona (la versión 2.0):
- Contacto Inicial: recibes un mensaje (WhatsApp, SMS) de un número desconocido o que parece ser de un contacto guardado, pero con un número nuevo.
- El engaño: el impostor dice ser tu "hijo" (u otro familiar cercano) que ha perdido su teléfono o ha cambiado de número.
- La urgencia: alega una emergencia grave (accidente, problemas legales, deudas) que requiere dinero inmediatamente.
- La solicitud: pide una transferencia bancaria o pago rápido a través de métodos como Bizum, PayPal o criptomonedas, para "solucionar" el problema sin que el "padre" pueda verificar la situación.
El uso de aplicaciones abiertas o de fácil acceso para la creación de voces sintéticas ha facilitado que los delincuentes obtengan muestras de voz a partir de vídeos o mensajes de redes sociales, generando audios que parecen auténticos. La complejidad de detección de estos audios ha puesto en alerta a autoridades de ciberseguridad.
Además de las autoridades policiales, empresas de ciberseguridad y plataformas tecnológicas han señalado que esta amenaza evoluciona rápidamente y requiere mecanismos avanzados de detección y verificación de identidad, pues los métodos tradicionales de autenticación por voz pueden ser vulnerados.
Consejos prácticos:
La creciente sofisticación de las estafas basadas en clonación de voz con IA exige a los usuarios mantener una actitud preventiva y crítica ante cualquier comunicación inesperada. Para minimizar el riesgo de ser víctima se recomienda:
- Verificar por múltiples canales cualquier solicitud de dinero o datos personales, especialmente si se presenta como urgente.
- Establecer claves o palabras secretas con familiares y contactos cercanos para confirmar la autenticidad de llamadas.
- Desconfiar de mensajes demasiado convincentes y no compartir información sensible sin comprobar la identidad de quien llama.
- Mantener los dispositivos actualizados y utilizar soluciones de seguridad que detecten llamadas o audios sospechosos.
- Cuelga y llama tú: si recibes una llamada de tu banco o de un familiar en una situación sospechosa, cuelga y marca tú el número oficial o el contacto que tienes guardado en la agenda. Nunca uses la función "devolver llamada".
- Privacidad en redes: Limita quién puede ver tus vídeos y audios en perfiles públicos; son la materia prima para los estafadores.
- Configura la doble autenticación en tus cuentas principales para evitar que la clonación de voz pueda dar acceso a tu dinero
|
|

