Recibes una llamada. Del otro lado de la línea escuchas una voz en pánico. Es tu nieto. Dice que está en grandes problemas, que ha destrozado el carro y que terminó en la cárcel. Pero que puedes ayudarlo si le envías dinero. Respiras hondo y piensas. Has escuchado algo sobre las estafas de los abuelos. Pero, caramba, si sonaba igualito. ¿Cómo puede ser una estafa? La explicación es la clonación de voz.
La inteligencia artificial ya no es una idea disparatada sacada de una película de ciencia ficción. Ya convive con nosotros, aquí y ahora. Un estafador podría usar inteligencia artificial para clonar la voz de tu ser querido. Todo lo que necesita es un breve clip de audio con la voz de tu familiar, que podría conseguir buscando en contenidos publicados en línea, y un programa de clonación de voz. Cuando el estafador te llame, la voz sonará igual a la de tu ser querido.
Entonces, ¿cómo se puede saber si es un familiar que está en problemas o si se trata de un estafador que utiliza una voz clonada?
No te fíes de la voz. Llama a la persona que supuestamente se comunicó contigo y verifica la historia. Usa un número de teléfono que te conste que es el de esa persona. Si no te puedes comunicar con ese ser querido, trata de hacerlo a través de otro miembro de la familia o de sus amigos.
Los estafadores te piden que pagues o envíes dinero de maneras que hacen que sea difícil recuperarlo. Si la persona que te llama te dice que le hagas una transferencia de dinero, le envíes criptomonedas o compres tarjetas de regalo y le des los números de las tarjetas y los PIN que figuran al dorso de la tarjeta, podrías interpretarlos como signos de una estafa.
Si detectas una estafa, repórtala a la FTC en ReporteFraude.ftc.gov.