Así estafan con Inteligencia Artificial clonando tu voz

La línea que separa la realidad de lo digital se está volviendo cada vez más difusa, gracias a la inteligencia artificial que ha logrado reducir esta brecha. Un experimento llevado a cabo por The Wall Street Journal demostró que es posible clonar la voz y la imagen de una persona para engañar a otros.

Toda inteligencia artificial necesita información para entrenarse y generar contenido.

Con Synthesia, una herramienta que crea avatares a partir de video y audio grabados (también conocido como deepfakes), la periodista Joanna Stern, alimentó con 30 minutos de video y casi dos horas de audio la IA para obtener su avatar. Esta plataforma permite mantener y crear un avatar personalizado por $1,000 al año, además de una tarifa mensual de suscripción, aunque también ofrece personajes predefinidos a un costo menor.

Synthesia permite generar videos con su imagen y voz, y ElevenLabs para crear archivos de audio que replicaran su voz. Con estos contenidos, pudo pasar las verificaciones de voz de su banco, engañar al directivo de una compañía para obtener una entrevista y confundir a su familia en llamadas y videollamadas.

Utilizando esta tecnología, crearon un video en TikTok para ver el alcance de la IA. Escribieron las instrucciones en texto para asegurarse de lo que iba a decir el avatar y el resultado fue satisfactorio. Aunque en la red social se dieron cuenta de que no era una persona real debido a sus pocas expresiones faciales y gestos con las manos, el experimento concluyó que para oraciones largas el avatar puede ser “convincente”.

 

 

 

 

Con información de La Tercera Voz

Entérate al instante de más noticias con tu celular siguiéndonos en Twitter y Telegram
Suscribir vía Telegram

Lea también

Le puede interesar además

Loading...

Tu opinión vale...