Connect with us

Tecnología

Los creadores de ChatGPT presentan un clonador de voces que provoca más miedo que entusiasmo

Published

on

OpenAI acaba de revelar un avanzado clonador de voces que, aseguran, genera discursos que “suenan naturales, emotivos y realistas”. Para conseguir esos resultados, usan como dato de entrada audios de apenas 15 segundos de duración. La organización estadounidense —por cierto, son los creadores de otros sistemas de IA, como el chatbot ChatGPT y el generador de imágenes DALL-E— dice que esta tecnología ofrecerá beneficios apreciables, por ejemplo en el ámbito de la salud. En la vereda opuesta, se encienden las alarmas por los riegos intrínsecos de los gemelos digitales, cualquiera sea el formato de la copia.

OpenAI Voice Engine: encantos y peligros de los clonadores de voces

Tal como indicamos, el grupo que dirige Sam Altman explicó que el sistema Voice Engine es capaz de imitar una voz partiendo de muestras de solamente 15 segundos. Con esa información acotada, logra generar discursos extensos. Siguiendo el repaso de Engadget, la tecnología se basa en softwares preexistentes, que la organización usa desde 2022. Ahora, el clonador de voces es testeado por un grupo reducido, en forma interna.

Los clonadores de voces encienden las alarmas por los posibles usos non sanctos de esas tecnologías. (Foto: Adobe Stock)
Los clonadores de voces encienden las alarmas por los posibles usos non sanctos de esas tecnologías. (Foto: Adobe Stock)

¿Qué beneficios ofrecería un clonador de voces? Según OpenAI, emblema en la movida de la inteligencia artificial generativa, las tecnologías con estas capacidades pueden ser útiles para la lectura, la traducción de idiomas y para ayudar a personas que sufren afecciones del habla. En este punto, señalaron que realizaron un programa piloto junto a investigadores de la Universidad de Brown, de Estados Unidos, con la mira puesta en aplicaciones clínicas.

Amén de los beneficios esgrimidos, las voces clonadas traen consigo una serie de problemáticas que merecen atención. En términos resumidos, son los mismos riesgos asociados a las deepfakes, “falsificaciones profundas” en español. Se trata de contenidos —audios, videos y/o imágenes— que son creados con sistemas de IA. No son reales o, más ajustadamente, no ocurrieron en el mundo real. Sin embargo, el alto grado de realismo puede confundir a cualquier espectador, incluso a los más avezados.

El audio, un formato también "afectado" por las deepfakes. (Foto: Adobe Stock)
El audio, un formato también «afectado» por las deepfakes. (Foto: Adobe Stock)

Los peligros de las deepfakes ocurren cuando esas tecnologías están en manos de malos actores que apelan a esas tecnologías para desinformar, engañar, difamar, suplantar identidades y abusar de sus avances. Por ejemplo, para crear una imagen trucada en la que una persona aparece desnuda. O —acotándonos al sistema que ahora anuncia OpenAI— para divulgar un audio embaucador. Recientemente, eso ocurrió cuando circuló un supuesto mensaje del presidente estadounidense, Joe Biden, que pedía a los ciudadanos de aquel país que no acudieran a votar.

OpenAI reconoce los riegos de la clonación de voces

En el comunicado que reveló detalles de Voice Engine, la organización experta en IA admite que esta tecnología tiene “graves riesgos, que son especialmente importantes en un año electoral (en EE.UU)”. En ese sentido, comentó que está incorporando comentarios de “socios estadounidenses e internacionales, los medios, el entretenimiento, la educación, la sociedad civil y más” para garantizar que el producto se lance con riesgos mínimos. Así, todos los evaluadores aceptaron las políticas de uso que, entre otros aspectos, prohíben la suplantación de otra persona sin consentimiento o derecho legal.

Preocupaciones de esta especie también fueron admitidas cuando OpenAI presentó su excitante generador de videos con IA denominado Sora. En la ocasión, el grupo explicó que un lanzamiento futuro depende de un completo ajuste de tuercas, para evitar posibles abusos de la tecnología. Una de las soluciones que tienen previstas, también aplicable a Voice Engine, es la obligatoriedad de incluir marcas de agua que expliciten que el contenido fue creado con IA. Además, prevén un monitoreo constante de las creaciones con esos sistemas, además de una lista de voces prohibidas, principalmente compuesta por figuras reconocidas mundialmente.

Otras compañías tecnológicas, entre ellas ByteDace —dueño de TikTok— y Meta —patrón de Facebook e Instagram— también desarrollan clonadores de voces.

Voice Engine de OpenAI: ¿cuándo se lanzará?

De acuerdo a TechCrunch, la organización no informó cuándo se ofrecerá el clonador de voces a nivel general. Cuando eso ocurra, la tecnología no será gratuita. La fuente dice que la suscripción será de 15 dólares por cada millón de caracteres convertidos en audio, la extensión aproximada de una novela.

En relación con ese ejemplo, emerge otra de las problemáticas y temores que ha generado el despliegue de la nueva IA: que estos avances se queden con el trabajo de las personas. En este caso, es evidente que 15 dólares es una suma tentadora para las compañías que comercializan audiolibros, que ya no pagarán a locutores humanos.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Tecnología

A lo Hollywood: la inteligencia artificial está cada vez más cerca de poder hackear sola

Un estudio muestra que hay modelos de lenguaje, sobre todo GPT-4, que tomando información pública pueden generar ataques casi sin intervención humana.

Published

on

By

En el imaginario popular de Hollywood hay un escenario que se repite una y otra vez: inteligencias artificiales de avanzada que, con una serie de simples comandos, pueden hackear complejos sistemas de seguridad ingresando a computadoras de gobiernos o compañías para robar información sensible. Si bien eso es algo que por ahora fue dejado para el séptimo arte, poco a poco se está acercando a la realidad.

Lo que pasó fue que un grupo de científicos de la Universidad de Urbana-Champaign en Illinois publicó un paper donde revelaron que GPT-4 puede escribir código malicioso para explotar vulnerabilidades ya conocidas usando solo información públicamente disponible a la que cualquiera puede acceder.

De la fantasía a la vida real

Los científicos Richard Fang, Rohan Bindu, Akul Gupta y Daniel Kang, testearon 10 de los modelos de lenguaje más importantes que hay dando vueltas para ver si podían explotar 15 vulnerabilidades que habían sido descubiertas hace relativamente poco y de las cuales ya había información circulando en internet.

Según publicaron los investigadores en el paper, los datos consumidos por los algoritmos de inteligencia artificial se tratan de vulnerabilidades de alta gravedad que forman parte del “mundo real”. Los expertos descubrieron que si se le daba la descripción del problema a GPT-4, el modelo de OpenAI podía explotar la vulnerabilidad en un 87% de los casos.

Del cine a la realidad ¿qué puede llegar a hacer una Inteligencia artificial? (Imagen generada por IA/Designer Microsoft))
Del cine a la realidad ¿qué puede llegar a hacer una Inteligencia artificial? (Imagen generada por IA/Designer Microsoft))

Cómo resolver el problema

Y si bien los investigadores explican que estos modelos no pueden hacer algo que un humano experto no podría hacer, sí puede hacerlo mucho más rápido y, también, gastando mucho menos.

El problema es que los desarrolladores de los modelos de lenguaje no tienen una buena forma de luchar contra este tipo de problemáticas. Si bloquean por completo el entrenamiento relacionado a esta temática, la IA no podrá ayudar a que expertos en seguridad informática utilicen estos modelos para luchar contra la cantidad de amenazas que hay actualmente. Si sí los entrenan, pueden ser utilizados por hackers con malas intenciones.

¿Cómo resolverlo? Daniel Kang, parte del equipo que publicó el paper, sugirió un “enfoque de dos niveles”. Un modelo público limitado que no pueda realizar lo reveló su investigación y otro paralelo con un acceso un poco menos censurado pero restringido solo para aquellos desarrolladores autorizados a utilizarlo.

Alerta en políticos y desarrolladores

Al haber sido una de las primeras investigaciones que revelaba este problema, llamó muchísimo la atención. Tanto que llegó al mundo de la política.

“Ya hablé con personas del Congreso sobre estos temas y parece que están pensando al respecto. Espero que nuestro trabajo ayude a informar algunos de estos procesos de toma de decisiones”, dijo Kang, uno de los científicos que llevó adelante el estudio, en un comunicado que publicó la universidad.

Incluso desde OpenAI pararon las antenas. La compañía se puso en contacto con el grupo de científico para que no revelaran los prompts que utilizaron para llegar a sus resultados así actores con intenciones no tan buenas no pudieran usarlos.

No queremos que nuestras herramientas se utilicen con fines maliciosos y siempre estamos trabajando para hacer que nuestros sistemas sean más sólidos contra este tipo de abuso. Agradecemos a los investigadores por compartir su trabajo con nosotros”, dijeron desde la empresa.

Continue Reading

TENDENCIAS

Copyright © 1998 FUNDACION GRUPOCLAN prensagrupoclan@gmail.com