Skip to content

El lado oscuro del clonaje de voz con IA: ¿qué tan seguras son las herramientas más populares?

July 27, 2025

La tecnología de clonación de voz mediante inteligencia artificial ha avanzado rápidamente en los últimos años. Hoy en día, basta con unos pocos segundos de una muestra de voz para generar audios que suenan sorprendentemente reales. Esto ha abierto un mundo de posibilidades positivas, desde la narración de audiolibros hasta materiales de marketing personalizados. Sin embargo, también ha desatado una serie de preocupaciones sobre su potencial para el fraude, la manipulación y otras actividades dañinas.

¿Qué tan protegidos estamos contra el uso indebido?

Consumer Reports decidió investigar esta cuestión evaluando seis de las principales herramientas de clonación de voz del mercado: Descript, ElevenLabs, Lovo, PlayHT, Resemble AI y Speechify. El objetivo fue identificar si estas plataformas cuentan con mecanismos adecuados para evitar que una voz sea clonada sin el consentimiento de su dueño.

Los resultados fueron alarmantes: cuatro de las seis plataformas (ElevenLabs, Speechify, PlayHT y Lovo) no contaban con barreras técnicas efectivas para impedir la clonación no autorizada de voces. En lugar de eso, se limitaban a pedir a los usuarios que marcaran una casilla declarando tener el derecho legal para utilizar dicha voz, sin verificar dicha afirmación.

Por otro lado, Descript y Resemble AI sí implementaban medidas adicionales, aunque imperfectas, para dificultar la clonación sin consentimiento. Por ejemplo, Descript solicita al usuario grabar una declaración de consentimiento, mientras que Resemble AI requiere que la primera clonación de voz se base en una grabación hecha en tiempo real. Aun así, ambos métodos son vulnerables, ya que un usuario malintencionado podría simplemente reproducir un audio pregrabado en otro dispositivo.

Estafas cada vez más sofisticadas

Uno de los usos más preocupantes del clonaje no consentido es el fraude emocional. Estafadores han clonado voces de familiares para engañar a personas haciéndoles creer que un ser querido necesita ayuda urgente, logrando así que envíen dinero sin cuestionar la veracidad del pedido.

Además, esta tecnología ha sido utilizada para influenciar elecciones. En 2024, por ejemplo, se clonó la voz del expresidente Joe Biden en un intento por desincentivar la participación en las urnas.

¿Cómo mejorar la protección?

Consumer Reports también examinó la facilidad para registrarse en estas plataformas. Cuatro de ellas —Speechify, Lovo, PlayHT y Descript— sólo requerían un nombre y un correo electrónico. Para mejorar la trazabilidad de posibles fraudes, se recomendó solicitar también información de pago, como una tarjeta de crédito.

Otras recomendaciones incluyen:

  • Solicitar la lectura de un guion único para verificar identidad.
  • Marcar con “watermarks” (marcas de agua digitales) los audios generados por IA.
  • Desarrollar herramientas que detecten si un audio fue generado artificialmente.
  • Bloquear frases típicas utilizadas en estafas.
  • Impedir la clonación de voces de figuras públicas o influyentes.

Un cambio radical propuesto por Consumer Reports es que el proceso de clonación de voz sea supervisado por una persona real en lugar del actual modelo autoservicio. También se subraya la importancia de establecer contratos que responsabilicen a los actores involucrados si el modelo de voz es mal utilizado.

Obligaciones legales y responsabilidad

Consumer Reports sostiene que, bajo la Sección 5 de la Ley de la Comisión Federal de Comercio (FTC), las empresas tienen la obligación contractual de evitar que sus productos causen daño. Esto no es posible sin implementar protecciones más estrictas.


La clonación de voz por inteligencia artificial está transformando la manera en que interactuamos con la tecnología. Pero junto con su potencial positivo, también plantea riesgos reales que no pueden ser ignorados. A medida que esta tecnología se populariza, será vital exigir mayores medidas de seguridad y una regulación más estricta para evitar que la voz —nuestra huella sonora más personal— sea usada en nuestra contra.