El poder usar voces generadas con la Inteligencia Artificial (IA) está creciendo en todo el mundo. Sin embargo, una nueva tendencia ha llamado la atención de diferentes medios de comunicación estadounidense, como el diario ‘The Washington Post’, que recientemente reseñó de diferentes casos donde delincuentes están generando videollamadas solo con IA para estafar a usuarios en Internet.
El periódico estadounidense señaló que datos de la FTC, en 2022 este tipo de fraudes en los que alguien suplanta la identidad de otra persona fueron los segundos más frecuentes, con más de 36.000 denuncias de gente que fue engañada por otros que simulaban ser amigos o familiares. En 2021, una persona logró robar 35 millones de dólares a un banco usando esta tecnología.
¿Cómo funciona este tipo de delitos con IA?
Los avances en inteligencia artificial ya permiten replicar una voz con una muestra de audio de solo unas pocas frases. El software de generación de voz analiza lo que hace que la voz de una persona sea única (edad, género o acento), y busca en una amplia base de datos de voces para encontrar voces similares y predecir patrones.
Luego puede recrear el tono, el timbre y los sonidos individuales de la voz de una persona para crear un efecto similar. A partir de ahí, el estafador puede decir lo que quiera con esa voz.
En la mayoría de las ocasiones es casi imposible distinguirla, y mucho menos cuando quien realiza la llamada lo hace con cierto tono de urgencia. Y más complicado es aún que una persona mayor y que desconoce estas tecnologías se dé cuenta del peligro.
Empresas como ElevenLabs, un startup de síntesis de voz con IA, transforman una breve muestra vocal en una voz generada sintéticamente por un módico precio que va desde los 5 euros a los 300 al mes, dependiendo del límite de audios.