Tecnología
Estafas con inteligencia artificial crecen: especialistas advierten sobre fraudes con clonación de voz
Las estafas con inteligencia artificial crecen y ya afectan a empresas en todo el mundo. Especialistas advierten que las llamadas falsas con deepfake de voz permiten suplantar ejecutivos y provocar fraudes financieros.
La empresa de ciberseguridad ESET informó que la IA generativa facilita crear audios falsos en pocos segundos. Como resultado, los atacantes pueden imitar voces reales para engañar a empleados y solicitar transferencias de dinero.
Según la compañía, este tipo de fraude representa una amenaza creciente para la seguridad empresarial y la protección de cuentas corporativas.
La inteligencia artificial facilita la suplantación de voz
La IA generativa (GenAI) democratizó la creación de audios y videos falsos. Hoy es posible producir clips manipulados con solo unos clics.
Estos contenidos, conocidos como deepfakes, permiten a los ciberdelincuentes suplantar la identidad de directivos, proveedores o colaboradores.
El problema va más allá de simples bromas digitales. Los expertos advierten que estas herramientas ya se usan para fraudes financieros, transferencias bancarias fraudulentas y secuestro de cuentas corporativas.
Además, el Gobierno del Reino Unido reportó que en 2024 circularon hasta ocho millones de clips falsos, frente a los 500 mil detectados el año anterior.
Cómo funciona un ataque con deepfake de voz
Investigadores de ESET explican que un ataque de clonación de voz sigue varios pasos.
Primero, el atacante elige a la persona que desea suplantar. Con frecuencia se trata de un director ejecutivo o un responsable financiero.
Luego busca una grabación breve en internet. Puede encontrarla en redes sociales, entrevistas o presentaciones públicas.
Después identifica a la víctima dentro de la empresa. Muchas veces analiza perfiles profesionales en plataformas laborales.
Finalmente, realiza una llamada utilizando audio deepfake generado con inteligencia artificial. En esa comunicación solicita una transferencia urgente o el acceso a sistemas corporativos.
El fraude puede causar pérdidas millonarias
Los expertos advierten que los ataques se vuelven cada vez más convincentes. Algunas herramientas incluso agregan pausas, ruido ambiental o tartamudeos para simular una conversación real.
“El ataque es cada vez más barato, sencillo y convincente”, explicó Macio Micucci, investigador de seguridad informática de ESET Latinoamérica.
Según el especialista, las fallas de la inteligencia artificial resultan más difíciles de detectar en llamadas telefónicas.
Un caso similar ocurrió en 2020. Un empleado en Emiratos Árabes Unidos transfirió 35 millones de dólares tras recibir una llamada falsa que imitaba la voz de su director.
Señales para detectar una llamada falsa con IA
Aunque los deepfakes mejoran cada año, todavía existen señales que pueden alertar a los usuarios.
ESET recomienda prestar atención a varios indicios. Entre ellos destacan el ritmo extraño del discurso o un tono emocional demasiado plano.
También pueden aparecer pausas inusuales, respiración artificial o frases sin respiración.
En otros casos, el audio puede sonar robótico o carecer de ruido ambiental natural.
Por ello, los expertos aconsejan verificar cualquier solicitud urgente mediante canales alternativos.
Empresas deben reforzar capacitación y controles
Las organizaciones pueden reducir el riesgo con medidas simples. ESET recomienda fortalecer la formación en ciberseguridad para empleados.
Estos programas deben incluir simulaciones de ataques con audio deepfake. Así, el personal aprende a reconocer intentos de fraude.
También aconseja aplicar controles adicionales en transferencias financieras importantes.
Entre las medidas más efectivas destacan la verificación independiente de llamadas y la autorización doble para pagos.
Micucci concluyó que la prevención requiere una estrategia basada en personas, procesos y tecnología.
“El nuevo panorama del ciberfraude exige una atención constante”, afirmó el investigador de ESET.


