Robollamadas generadas por IA que fingen ser el presidente Biden Cómo la tecnología de los deepfakes está manipulando las elecciones 🕵️‍♂️

Dos expertos en falsificación de audio afirman que la llamada telefónica de voz falsa de presidente Biden que recibieron ciertos votantes la semana pasada fue probablemente producida con tecnología de la startup de clonación de voz favorita del valle del silicio.

Los investigadores de IA sugieren que el deepfake de la llamada robótica de Biden probablemente fue creado utilizando herramientas desarrolladas por ElevenLabs, una startup de IA.

Introducción: El Escándalo de la Llamada Robótica Deepfake de Biden 😱

La semana pasada, los votantes de Nuevo Hampshire recibieron una sorpresa cuando recibieron una llamada robótica en la que se hacía pasar por el presidente Joe Biden, instruyéndoles a no votar en las elecciones primarias del estado. Si bien se desconoce la fuente de la llamada, los expertos en audio creen que probablemente fue creada utilizando tecnología de la startup de clonación de voz ElevenLabs. 📞

El Ascenso de ElevenLabs y la Tecnología de Clonación de Voz 🚀

ElevenLabs, una startup de clonación de voz que ofrece herramientas de IA para diversas aplicaciones, como audiolibros y videojuegos, recientemente alcanzó el estado de “unicornio” al recaudar $80 millones a una valoración de $1.1 mil millones. Esta ronda de financiación fue liderada conjuntamente por la firma de capital de riesgo Andreessen Horowitz, lo que demuestra la confianza y la creencia de la industria en el poder de la clonación de voz. 🦄

Cualquiera puede registrarse en el servicio de pago de ElevenLabs y clonar una voz a partir de una muestra de audio. Si bien la política de seguridad de la compañía recomienda obtener permiso antes de clonar la voz de alguien, permite la clonación sin permiso para fines no comerciales, como el discurso político que contribuye a los debates públicos. 💬

Identificando al Culpable: Pindrop y Berkeley al Rescate 🕵️‍♀️

Pindrop, una empresa de seguridad especializada en identificar audio sintético, realizó un análisis exhaustivo del audio de la llamada robótica. Su investigación señala a la tecnología de ElevenLabs o a un sistema con componentes similares como la fuente probable. Los resultados fueron sorprendentemente claros, con una probabilidad de coincidencia superior al 99 por ciento. 😮

Hany Farid, especialista en forenses digitales de la Escuela de Información de UC Berkeley, inicialmente expresó dudas sobre la participación de ElevenLabs. Sin embargo, después de que su equipo realizara un análisis independiente del audio, llegaron a la misma conclusión. El conjunto de pruebas sugiere abrumadoramente que la llamada robótica deepfake de Biden se hizo utilizando la tecnología de ElevenLabs. 🔍

Controversia y Mal uso: Instancias Anteriores 👀

No es la primera vez que los investigadores sospechan que las herramientas de ElevenLabs se utilizan para la propaganda política. NewsGuard, una empresa que rastrea la desinformación en línea, afirmó anteriormente que las cuentas de TikTok que comparten teorías de conspiración, incluida una clonación de la voz de Barack Obama, utilizaban la tecnología de ElevenLabs. ElevenLabs respondió, reconociendo casos de mal uso y trabajando continuamente en el desarrollo de salvaguardias para prevenirlos. 🙅‍♂️

El Líder del Mercado: ElevenLabs y sus Inversionistas Destacados 👑

Indudablemente, ElevenLabs es considerada una de las principales compañías de clonación de voz con IA en el mercado. Su éxito se refleja en su valoración de más de $1.1 mil millones, y sus inversionistas incluyen titanes de la industria como Andreessen Horowitz, Nat Friedman y Mustafa Suleyman, entre otros. Con inversionistas destacados y financiamiento sustancial, ElevenLabs está en una posición ventajosa para crear salvaguardias efectivas contra actores maliciosos. 💪

La Necesidad Urgente de Salvaguardias en el Contexto de las Elecciones 🗳️

A medida que nos acercamos a las próximas elecciones presidenciales en Estados Unidos, la necesidad de salvaguardias contra la tecnología deepfake se vuelve cada vez más crítica. Con el potencial de que cualquier persona pueda crear impersonaciones de audio convincentes, es crucial contar con medidas regulatorias para protegernos contra el mal uso. De lo contrario, las consecuencias podrían ser catastróficas. “A medida que nos acercamos a un ciclo electoral, esto se volverá loco”, dice Vijay Balasubramaniyan, CEO de Pindrop. 🚫

Un Discord Siniestro de Intenciones: Clonación de la Voz de Biden 😈

Ha surgido un servidor de Discord dedicado a los entusiastas de ElevenLabs, donde las personas discuten activamente cómo tienen la intención de clonar la voz de Biden. En este servidor, comparten enlaces a videos y publicaciones en redes sociales con contenido deepfake que utiliza la voz de Biden o versiones generadas por IA de Donald Trump y Barack Obama. El poder de la tecnología deepfake en manos equivocadas es realmente inquietante. 😨

La tecnología superando a la regulación: Un problema real 🌐

Aunque ElevenLabs lidera el mercado en clonación de voz de IA, la disponibilidad de tecnologías similares para empresas y particulares crea tanto oportunidades comerciales como el potencial para un uso malicioso. Regular el mal uso de estas herramientas se vuelve cada vez más desafiante cuando son ampliamente accesibles. “Tenemos un problema real”, afirma Sam Gregory, director del programa en la organización sin fines de lucro Witness, enfatizando la necesidad de regulaciones efectivas. 🚔

En busca de la veracidad: Desenmascarando Deepfakes para elecciones 🕵️‍♀️

Aunque expertos como Pindrop y Berkeley pueden potencialmente revelar la fuente de las llamadas robóticas generadas por IA, el incidente expone la falta de preparación de las autoridades, la industria tecnológica y el público a medida que se acerca la temporada electoral de 2024. Identificar la procedencia de los clips de audio o determinar si son generados por IA sin experiencia especializada resulta desafiante. Además, análisis más avanzados podrían no completarse lo suficientemente rápido como para contrarrestar el daño causado por la propaganda generada por IA. 🧩

Conclusión: La necesidad de herramientas confiables y acción rápida 📣

Como demuestra el incidente de las llamadas robóticas deepfake de Biden, el avance descontrolado de la tecnología deepfake plantea graves preocupaciones para las elecciones y la confianza pública. Los periodistas, los funcionarios electorales y otros carecen de herramientas confiables para confirmar rápidamente la autenticidad o el origen de los clips de audio filtrados. Ante la posibilidad de un deepfake que pueda alterar las elecciones, el tiempo es esencial. La necesidad urgente de herramientas robustas y respuestas rápidas es fundamental. 🚨

Contenido de preguntas y respuestas adicionales:

P: ¿La tecnología de clonación de voz solo se utiliza con fines maliciosos?

R: No, la tecnología de clonación de voz tiene usos legítimos en sectores como el entretenimiento y los audiolibros. Sin embargo, su potencial de mal uso plantea preocupaciones significativas, especialmente en las campañas electorales.

P: ¿Cuáles son las posibles consecuencias de las llamadas robóticas deepfake en las elecciones?

R: Las llamadas robóticas deepfake pueden tener graves consecuencias, incluyendo la supresión de votantes, la desinformación y la manipulación de la opinión pública. Socavan la integridad del proceso democrático y erosionan la confianza pública.

P: ¿Cómo podemos protegernos contra las llamadas robóticas deepfake y la desinformación?

R: Implementar regulaciones y supervisión sobre el uso de la tecnología deepfake, así como invertir en herramientas robustas de detección, puede ayudar a combatir la propagación de las llamadas robóticas deepfake y la desinformación. Además, la alfabetización mediática y la educación son fundamentales para capacitar a las personas para discernir entre contenido genuino y manipulado.

✨ ¡No olvides compartir este artículo para crear conciencia sobre los peligros de la tecnología deepfake en las elecciones! ✨


Referencias: