Una IA puede simular tu voz con solo 3 segundos de sonido
Oaxaca
La Capital Los Municipios
El Imparcial del Istmo El Imparcial de la Costa El Imparcial de la Cuenca
Nacional Internacional Súper Deportivo Especiales Economía Estilo Arte y Cultura En Escena Salud Ecología Ciencia Tecnología Viral Policiaca Opinión

Tecnología

Una IA puede simular tu voz con solo 3 segundos de sonido

Lo único que necesita esta inteligencia artificial es escuchar la voz que debe simular durante al menos 3 segundos, y solo con esta información es capaz de pronunciar frases introducidas por un operario con el tono de voz exacto de la ‘víctima’.


Una IA puede simular tu voz con solo 3 segundos de sonido | El Imparcial de Oaxaca

Cuando todavía no nos hemos recuperado del impacto que ChatGPT ha causado en el ámbito de la Inteligencia Artificial, Microsoft salta a la palestra para hacer pública una noticia importante: la nueva IA capaz de reproducir la voz de cualquier persona de manera sorprendentemente realista. Lo único que necesita esta inteligencia artificial es escuchar la voz que debe simular durante al menos 3 segundos, y solo con esta información es capaz de pronunciar frases introducidas por un operario con el tono de voz exacto de la ‘víctima’.

Decimos la ‘víctima’ porque esta nueva IA parece prestarse a un sinfín de usos perniciosos en internet. Si ya teníamos suficientes motivos de preocupación con los ‘deepfakes’, ahora debemos añadir la falsificación de la voz a la lista de horrores producidos por la tecnología informática del siglo XXI.

El nuevo sintetizador de audio se llama WALL-E

Presentada el pasado 5 de enero, WALL-E –así se llama esta IA– parece estar pensada con fines de integración social, verbalización de apps o narración de audiolibros. Por ejemplo, WALL-E podría haber hecho que la voz robótica de Stephen Hawking sonara exactamente como su voz real antes de verse afectada por la esclerosis múltiple. Y, en este sentido, sí que parece que puede mejorar de forma considerable la vida de millones de personas.

En cuanto a su uso en el mercado de los audiolibros, WALL-E puede tener un gran éxito abaratando el coste de las narraciones, dejando sin trabajo a miles de locutores y profesionales de la voz en todo el mundo. Los redactores de contenidos que pierdan el trabajo por causa de ChatGPT, entonces, no podrán reciclarse como narradores de libros por causa de WALL-E, y tendrán que pensar en otra profesión para poder salir adelante.

Los riesgos de la impersonación

Como ya había ocurrido con los deepfakes, esta nueva inteligencia artificial es muy susceptible de ser usada de manera maliciosa. Con los deepfakes, los agentes de la desinformación ya podían manipular un vídeo para que parezca que Joe Biden o Pedro Sánchez dicen algo que, en realidad, nunca han dicho. Y, con WALL-E, ni siquiera necesitarán contratar a un actor de voz para simular la voz de este discurso falso, porque esta nueva IA es más que capaz de imitar las voces de cualquier político y cualquier otro personaje relevante.

El peligro puede ser todavía mayor para los usuarios de internet de a pie. Al fin y al cabo, si se lanza un deepfake de una persona tan destacada como Joe Biden, lo más probable es que los medios de comunicación se apresuren a verificar si es cierto o no, y a denunciarlo como una falsificación en cuanto se detecte la impostura. Pero la gente de a pie no tiene estos privilegios, y puede verse chantajeada por la publicación en internet de vídeos falsos que pueden perjudicarles muy seriamente en su vida laboral y personal.

WALL-E, por lo tanto, viene a constituir una razón más por la que se hace necesario proteger nuestros datos en internet. Conviene reducir al mínimo los contenidos que compartimos de manera pública en las redes sociales, emplear contraseñas fuertes para proteger el acceso a nuestras cuentas, cancelar las cuentas online que no usamos, y conectarnos a una VPN en España para cifrar la información que enviamos por internet.

La ley, dos pasos por detrás de la tecnología

A pesar del creciente riesgo de estas amenazas digitales, parece que el marco legal español todavía no está preparado para hacerles frente. Mientras que países como China han elaborado leyes específicas contra los deepfakes –la nueva legislación china entraba en vigor el pasado 10 de enero–, en España parece que nos tocará esperar. Entretanto, deberemos encajar las leyes actuales en este nuevo panorama de las nuevas habilidades tecnológicas, lo que no siempre resulta sencillo.

La única esperanza –tristemente efímera– pasa por el hecho de que tecnologías como WALL-E son propiedad de Microsoft o de otras Big Tech, que tratan de guardarlas a buen recaudo. Y no parece que Microsoft tenga interés en falsificar la voz de nadie con fines ilegítimos. Sin embargo, las Big Tech ya nos han demostrado en el pasado que no siempre son capaces de proteger su propia tecnología. Sus plataformas han sido objeto frecuente de hackeos, y, si WALL-E cae en malas manos, los problemas que pueden causar son inimaginables.