La Educación

Al Servicio del Pueblo Latino de California

Traductor:

English Español Português Français Deutsch

Estafadores imitan la voz de familiares usando inteligencia artificial

April 3, 2023 - por

Estafadores imitan la voz de familiares usando inteligencia artificial

Un audio publicado en TikTok, Facebook, Instagram o YouTube es suficiente para que estafadores imiten la voz de una persona usando inteligencia artificial y pidan dinero a sus familiares fingiendo una emergencia. Parecería la escena de una película de ciencia ficción, pero ya está sucediendo.

De hecho, la Comisión Federal de Comercio (FTC), que recibe las quejas de fraude en este país, emitió este lunes una alerta en la cual se refiere específicamente sobre este nuevo método de engaño.

“Un estafador podría usar inteligencia artificial para clonar la voz de su ser querido. Todo lo que necesita es un breve audio de la voz de su familiar que podría obtener de contenido publicado en internet y un programa computacional de clonación de voz. Cuando el estafador lo llame, sonará como su ser querido”, advierte la FTC.

Esta dependencia, que el año pasado recibió un récord de denuncias por estafas de impostores que significaron pérdidas de 2,600 millones de dólares, describe en su alerta un caso hipotético en el cual un anciano recibe la llamada de quien cree es su nieto y este le dice que está en la cárcel por chocar su auto. No sería un delincuente haciendo una voz neutral esperando que no lo descubran, sino un software que efectivamente hace el timbre característico de ese nieto.

“La inteligencia artificial ya no es una idea descabellada de una película de ciencia ficción. Estamos viviendo con eso aquí y ahora”, subraya la FTC.

Así funciona la inteligencia artificial

Gracias a los avances tecnológicos, ahora un simple archivo de audio, incluso de unos cuantos segundos, le permite a un software imitar la voz de una persona casi de manera idéntica.

Lo logra tomando todo lo que hace que la voz de una persona sea única, como su edad, género y acento. También se apoya de una base de datos para encontrar voces de tras personas que sean similares.

El resultado es aterrador: el software puede recrear el tono, la cadencia, el timbre y hasta los sonidos individuales que emite una persona.

Algo que también les facilita el trabajo a los impostores es que pueden conseguir audios de sus víctimas en cualquier lado: en videos publicados en TikTok o en Instagram, en transmisiones en vivo de Facebook, o de los mensajes de voz enviados por WhatsApp.

Algunas empresas ni siquiera cobran por usar este programa que imita voces, mientras que otras piden un pago mensual de hasta 330 dólares.

“Hace un año necesitabas mucho audio para clonar la voz de una persona”, dijo Hany Farid, profesor de análisis forense digital en la Universidad de California en Berkeley, al diario Washington Post. “Ahora… si tienes una página de Facebook… o si grabaste un video de TikTok y tu voz está allí durante 30 segundos, la gente puede clonar tu voz”.

Cuatro víctimas de la imitación de voz

El Post publicó a principios de este mes un reportaje en el que cuenta los casos de cuatro ancianos que fueron estafadas a través de la clonación de voz.

En un incidente, las víctimas pensaban que su nieto les llamaba porque necesitaba dinero para pagar una fianza y le depositaron más de 2,000 dólares.

A los otros ancianos les hicieron creer que su hijo les habló por teléfono porque estaba preso por haber matado a un diplomático estadounidense en un accidente vehicular y le enviaron más 15,000 dólares.

La voz sonaba “lo suficientemente parecida para que mis padres realmente creyeran que hablaron conmigo”, dijo al Post Benjamin Perkin, quien es hijo de la segunda pareja de estafados. Se cree que quizás copiaron su voz de un video de YouTube en el que habla sobre las motos de nieve.

Expertos temen que estemos en el inicio de un método delictivo que podría vaciar los bolsillos de muchas personas en este país. Hasta ahora no hay estadísticas específicas de este problema.

Otros anticipan que el siguiente paso serían las estafas por videollamadas usando la clonación de rostros, una tecnología cuyo avance se puede palmar en los filtros disponibles en las redes sociales.

“Pronto, si recibo una llamada de FaceTime, ¿cómo voy a saber que es alguien que conozco legítimamente? Tal vez es alguien que finge ser esa persona”, dijo Marie Haynes, experta en inteligencia artificial, en una reciente entrevista con el medio CTV NEWS.