En los últimos años, la tecnología de clonación de voz basada en IA ha evolucionado a pasos agigantados: tan solo unos segundos de muestra de audio permiten replicar la voz de cualquier persona con una fidelidad sorprendente. Eso, además plantea serias preocupaciones en cuanto a la seguridad y el uso indebido... dado que la mayoría de las plataformas que ofrecen estos servicios carecen de salvaguardas efectivas para evitar su abuso.
Una investigación reciente de la asociación de consumidores estadounidense Consumer Reports ha analizado seis de los más importantes plataformas de clonación de voz disponibles para el gran público, y la conclusión ha sido que cinco de ellas tienen medidas de seguridad débiles y fácilmente eludibles. Las empresas evaluadas fueron Descript, ElevenLabs, Lovo, PlayHT, Resemble AI y Speechify.
Cuatro de estas compañías (Speechify, PlayHT, Lovo y el líder del sector, ElevenLabs) sólo requieren que los usuarios marquen una casilla en la que afirman tener derecho a clonar la voz, sin ningún mecanismo real de verificación.
Resemble AI, por su parte, exige que la persona grabe audio en tiempo real en lugar de subir un archivo... aunque este requisito fue fácilmente burlado por los investigadores al reproducir un audio pregrabado.
Las mejores inteligencias artificiales para convertir de texto a voz de forma realista.