Pasar al contenido principal

Si recibes una llamada y la voz suena como la de tu jefe (que te pide los números de la cuenta bancaria) o como la de un familiar (que te pide ayuda en un caso de emergencia), es más que probable que actúes. Es por eso que los estafadores usan la clonación de voz para lograr que sus pedidos de dinero o información sean más creíbles. Y la FTC les está haciendo frente.

Cuando la FTC anuncio el Desafío de Clonación de Voz el año pasado, el objetivo principal era fomentar formas innovadoras de ayudar a proteger a las personas de los daños causados por la clonación de voz mediante la inteligencia artificial. Hoy nos complace anunciar que la FTC ha concedido cuatro premios a las propuestas ganadoras, que adoptan una amplia gama de enfoques para hacer precisamente eso:

  • Una solución que utilizaría algoritmos para detectar si los patrones de voz son humanos o sintéticos.
  • Una tecnología que detectaría en tiempo real la clonación de voz y las falsificaciones graves en llamadas telefónicas entrantes o en audio digital en fragmentos de dos segundos, asignando un “puntaje de voz humana”.
  • Una propuesta que incluiría una marca de agua en el audio con distorsiones que la gente no podría oír, pero que podría frustrar a los clonadores de voz que usan inteligencia artificial, de modo que el audio no podría clonarse con precisión.
  • Una tecnología que podría autentificar que una voz es humana e integre la autentificación como un tipo de marca de agua.

Aprende más acerca de las propuestas ganadoras en la página del Desafío de Clonación de Voz.

El Desafío de Clonación de Voz forma parte de la tarea continua de la FTC para asegurar que la tecnología de clonación de voz no sea utilizada por los estafadores para causar perjuicio. Dicha tarea incluye la prevención de daños siempre que sea posible, una propuesta de prohibición completa del fraude por suplantación de identidad, y la aplicación de la Regla de Ventas de Telemercadeo a las llamadas fraudulentas facilitadas por la inteligencia artificial. También incluye advertir a los consumidores acerca del uso de inteligencia artificial en las estafas, por ejemplo, cuando un estafador clona la voz de uno de tus familiares, te llama fingiendo estar en problemas y luego te pide que le envíes dinero de inmediato.

Si recibes una llamada como ésta, llama a la persona que supuestamente se comunicó contigo usando un número de teléfono que te conste que es de esa persona, y verifica la historia. Si no te puedes comunicar con ese ser querido, trata de hacerlo a través de otro miembro de la familia o de sus amigos.

Si detectas una estafa, repórtala a la FTC en ReporteFraude.ftc.gov.

Search Terms