Tecnología
Estas frases al contestar una llamada pueden hacer que caiga en una estafa en solo 30 segundos
La nueva forma de fraude puede llevarse a cabo incluso con fragmentos breves de audio, lo que la convierte en una amenaza creciente y peligrosa.

8 de may de 2025, 01:06 p. m.
Actualizado el 8 de may de 2025, 01:06 p. m.
8 de may de 2025, 01:06 p. m.
Actualizado el 8 de may de 2025, 01:06 p. m.
En la actualidad, las estafas digitales han avanzado notablemente gracias al desarrollo tecnológico, lo que ha permitido replicar con gran precisión diversos rasgos humanos.
Una de las técnicas más alarmantes es la clonación de voz mediante inteligencia artificial (IA), una herramienta que se está convirtiendo en un método altamente sofisticado para engañar a las personas, comprometiendo tanto su seguridad como sus finanzas.
Este tipo de clonación utiliza algoritmos de IA capaces de recrear la voz de una persona con sorprendente exactitud, incluso con tan solo 30 segundos de grabación. El sistema analiza detalles como el tono, la entonación, el ritmo y el timbre de la voz, logrando imitaciones que, en muchos casos, resultan casi imposibles de distinguir de la voz real.
La suplantación mediante clonación de voz, donde se recrea artificialmente la voz de una persona, puede realizarse incluso a partir de grabaciones muy breves, lo que la convierte en una amenaza cada vez más seria y difícil de detectar.
Aunque estas tecnologías fueron desarrolladas con fines legítimos —como generar doblajes automáticos, personalizar asistentes virtuales o facilitar la comunicación de personas con discapacidades—, su uso indebido ha comenzado a extenderse, dando paso a nuevas formas de fraude y delitos en el entorno digital.

Con tan solo unos segundos de audio —extraídos de redes sociales, mensajes de voz o llamadas interceptadas— es posible crear una réplica digital de la voz de una persona.
Estas imitaciones pueden usarse principalmente de dos maneras: una consiste en reproducir mensajes pregrabados que los delincuentes emplean para manipular a sus víctimas; la otra, más avanzada, permite generar la voz en tiempo real, facilitando interacciones en vivo donde el estafador se hace pasar por un familiar o alguien de confianza, lo que hace que el engaño resulte mucho más creíble y efectivo.

Esta técnica se ha vuelto especialmente riesgosa debido a que las imitaciones de voz son cada vez más exactas y difíciles de identificar como falsas.
En un informe emitido en 2023, la Comisión Federal de Comercio de Estados Unidos (FTC) advirtió sobre el crecimiento de este tipo de fraudes, vinculado al progreso en el entrenamiento de modelos de inteligencia artificial generativa. La FTC señaló que incluso pequeños fragmentos de audio disponibles en internet pueden ser suficientes para crear una réplica convincente de una voz, lo que incrementa considerablemente el riesgo de caer en este tipo de engaños.
Además de las fuentes más evidentes, hay métodos menos visibles para obtener muestras de voz. Uno de los más frecuentes es realizar una llamada telefónica en la que la persona destinataria no conteste, pero permanezca escuchando.
En estos casos, cuando la persona intenta obtener una respuesta utilizando frases como “¿Hola?”, “¿Quién está ahí?” o “No se oye bien”, sin saberlo genera fragmentos de audio que luego pueden ser grabados y utilizados para crear una imitación de su voz, la cual podría ser manipulada para fines fraudulentos.
Mary Mora es comunicadora social de la Universidad Santo Tomás con 7 años de experiencia en el área organizacional y periodismo. Ha trabajado en Telefónica; en el portal Colombia.com, como periodista digital, y como editora en el portal Bolivia.com. En SEMANA desde 2022.