No es tu jefe el que llama, es la IA que intenta engañarte: «La voz era tremendamente creíble, todo estaba personalizado»
La pantalla de nuestro móvil se ilumina con la llamada entrante de un número desconocido. Al otro lado de la línea, una voz irritada nos da instrucciones urgentes desde un número de teléfono corporativo que desconocemos para que la empresa realice una transferencia urgente de dinero para compensar el retraso en los pagos a nuestro proveedor. La voz no es desconocida: pertenece a nuestro jefe.. Y, para colmo, no está contento porque La empresa está en serios problemas. Pero todo es mentira.
La tensión de la situación, la urgencia de la voz, e incluso el hecho de que estemos en medio de una tarea totalmente irrelevante ante un incidente de tal calibre, nos hace actuar a toda velocidad y sin pensarlo: dar orden de transferencia inmediata de 1.000, 10.000 o 500.000 euros. Pero el dinero no acaba en la cuenta bancaria de nuestro proveedor ni soluciona ninguna incidencia vital para la empresa, porque Esta no es una situación real.: fuimos víctimas de un estafa de clonación de voz.
En España Esta situación todavía ocurre con raramente «porque la tecnología aún no está madura»explicó a alberto redondocomandante de la Guardia Civil y jefe del Grupo de Inteligencia Cibernética Penal de la Unidad Técnica de Policía Judicial. Además, los casos denunciados se identifican rápidamente, precisamente a causa de esta inmadurez tecnológica (voz metálica, lentitud en el habla…). Sin embargo, todo apunta a que Estas estafas aumentarán,en paralelo con el desarrollo de nuevas herramientas de inteligencia artificial (AI). Sus capacidades se extienden más allá de los límites que hasta hace poco pertenecían a la ciencia ficción: ahora es posible generar imágenes y audios de personas que confundirían a sus más cercanos, y la mejora de la modus operandi de estafadores.
Cómo funciona la estafa
«Si tenemos una grabación de una persona hablando durante 15 minutos, A partir de ahí, con inteligencia artificial, es lo que puede hacer un atacante Modula esa voz para que pueda decir lo que quiera», explica. Antonio Villalíndirector de seguridad de Grupo S2, empresa especializada en ciberseguridad. «Hoy en día mucha gente usa redes sociales, carga su imagen, su voz arriba…»añade Villalón. Con este material, los delincuentes obtienen toda la información necesaria para «modular esa voz, esa imagen».
Es decir, de un vídeo de TikTok o Instagram, cualquier -como explican los expertos, la verdadera habilidad tecnológica es cada vez menos necesaria- tener acceso a nuestra voz. Y a través de herramientas de inteligencia artificial, podrás cambiar nuestras palabras para transmitir el mensaje que deseas.
reverendo lamberto gerente global de operaciones de consumo de la empresa especializada en seguridad informática Seguridad PandaExplique cómo Se pueden entrenar modelos de inteligencia artificial con audio robado para crear una réplica idéntica de nuestra voz. La similitud es tan precisa que la clonación es capaz incluso de adaptarse a pausas, patrones de respiración o fonemas característicos de la persona. O incluso cambiar el idioma.
Cualquiera es víctima potencial de un posible ataque, aunque, como explica Lambert, existe una Interés especial en aquellas personas en posiciones de poder o influencia. en las estrategias de la empresa. «El objetivo es ser lo suficientemente creíble para poder contarte una historia, que entres en la historia y que acabes dando tus credenciales, tus datos financieros o directamente haciendo una transferencia a la cuenta del ciberdelincuente».
En el caso del director general de empresas, que a menudo tienen que pronunciar discursos en público o transmitirlos a través de sus propios canales multidireccionales, es más fácil obtener una muestra de voz. En países como Estados Unidos, este tipo de estafas existen desde hace años, y los casos de clonación de votos de Joe Biden, presidente de Estados Unidos, han sido especialmente populares durante la actual campaña electoral. Esto llevó a regular este uso de la inteligencia artificial a través de leyes promulgadas por los principales órganos del gobierno estadounidense. Asimismo, y según Lambert, la propia Comisión Federal de Comercio de Estados Unidos ha alertado sobre el auge de este fraude de clonación de votos. El experto también enumera casos de uso fraudulento de clonación de voz en Reino Unido y Perú.
La verdad es Esto ya es una prueba de que España tiene un problema en este ámbito, aunque no es fácil determinar el importe exacto del fraude. que ocurre en nuestro país, como insiste el experto. Incluso se ha intentado engañar a los directivos de los bancos con el fin de realizar transferencias de fondos, afirma Lambert. Sin embargo, se trata de casos sobre los que las empresas están mostrando cierta resistencia a denunciar por el momento, aunque algunos ya han pasado por manos de las autoridades, apunta el experto.
Para subrayar la importancia de esta amenaza, Lambert pone un ejemplo particularmente reciente: su propia empresa fue víctima de una estafa de clonación de voz cuando un empleado recibió un mensaje de voz, aparentemente de su jefe, instándolo a realizar una transferencia bancaria a una cuenta específica. «La voz era tremendamente creíble, todo era personalizado: sabían quién era el CEO, cuál era el contexto de la empresa, quién era el ejecutivo que iba a recibir el mensaje…» El experto insiste: «Hay un problema porque estas voces son algo nuevo. Y no estamos capacitados para detectar vídeos falsos y mucho menos voces clonadas. que puede utilizarse para cometer delitos cibernéticos”.
Formas de prevención
En este tipo de situaciones, los expertos básicamente recomiendan: “desconfianza racional«, y el verificación por segundas vías. Villalón sugiere llamar a otro número de teléfono para asegurarnos de que realmente es nuestro jefe el que nos pide ese trato.
Por otro lado, Lambert continúa con esta lista de medidas: además de la confirmación, debemos crear conciencia, educar en la empresa sobre este peligro creciente: «La formación es esencial». Aboga por «la verificación de identidad y las solicitudes en el contexto de la empresa, además de explicar lo que está sucediendo». Necesitamos crear conciencia. Esto es algo que nos puede pasar a todos.«. En su caso, admite que antes, cuando recibía una llamada urgente de su jefe, no dudaba de sus órdenes, pero ahora piensa mejor en las consecuencias y verifica dichas instrucciones. «Lo interioricé: compartir información de forma En mi empresa está prohibido llamar por teléfono, eso no lo hacemos”, explica.
De la empresa proveedora de servicios informáticos. NordVPNquien recientemente advirtió en un comunicado sobre el peligro que podría suponer esta práctica, Adrian Warmenhovenexperto en ciberseguridad, recomienda Cuidado con lo que publicas en las redes socialesya que los considera como los principal banco de recursos para los ciberdelincuentes. Además, sugiere cuelga la llamada una vez que lo identificamos como una estafa, no nos da tiempo para recopilar material de audio y, como los otros expertos, verificar que esta situación es real de otras manerascomo número de teléfono alternativo (y familiar).
Soy una víctima, ¿y ahora qué?
Los pasos a seguir cuando nos damos cuenta de que somos víctimas de un fraude telefónico, según el comandante Redondoson los siguientes: contactar con la entidad bancaria correspondiente detener la transferencia inmediatamente; y después acudir al cuartel de la Guardia Civil más cercano informar de la situación, siempre que todas las pruebas relacionadascomo el número de teléfono desde el que se realizó la llamada o la pista de voz utilizada. En esta evidencia digital, la clave está en localizar al atacante, pero también incluso otras posibles víctimas de estas estafas. Aunque incidentes de este tipo son muy raros en España, como explica Redondo, esto no implica la ausencia de peligro total. Al igual que el resto de herramientas que utilizan IA, es sólo cuestión de tiempo que la clonación de voz se convierta en un artefacto recurrente, por lo que es necesario concienciar a la población.
«Estas estafas son cada vez más comunes y sofisticadas y realmente representan una amenaza significativa en digital«insiste Lambert. Y subraya: «La clonación de voz es una preocupación creciente en el campo de la ciberseguridad. «No es una historia, no es ciencia ficción, está sucediendo ahora».