Según un nuevo estudio de Consumer Reports, varias herramientas populares de clonación de voz en el mercado no tienen salvaguardas “significativas” para avisar fraude o extralimitación.
Consumer Reports probó productos de clonación de voz de seis compañías: descripción, merienda, lovo, playht, se asemejan a la IA y deje, para mecanismos que podrían dificultar que los usuarios maliciosos clonen la voz de alguno sin su permiso. La publicación encontró que solo dos, descriptantes y parecidos a la IA, tomaron medidas para combatir el mal uso. Otros requerían solo que los usuarios marcaran una casilla que confirmaba que tenían el derecho lícito de clonar una voz o hacer una automóvil atestación similar.
Grace Gedye, analista de políticas de Consumer Reports, dijo que las herramientas de clonación de voz de IA tienen el potencial de “sobrealimentar” las estafas de suplantación si no se establecen medidas de seguridad adecuadas.
“Nuestra evaluación muestra que hay pasos básicos que las empresas pueden tomar para dificultar clonar la voz de alguno sin su conocimiento, pero algunas compañías no los están tomando”, dijo Gedye en un comunicado.