Connect with us

Tecnología

A lo Hollywood: la inteligencia artificial está cada vez más cerca de poder hackear sola

Un estudio muestra que hay modelos de lenguaje, sobre todo GPT-4, que tomando información pública pueden generar ataques casi sin intervención humana.

Published

on

En el imaginario popular de Hollywood hay un escenario que se repite una y otra vez: inteligencias artificiales de avanzada que, con una serie de simples comandos, pueden hackear complejos sistemas de seguridad ingresando a computadoras de gobiernos o compañías para robar información sensible. Si bien eso es algo que por ahora fue dejado para el séptimo arte, poco a poco se está acercando a la realidad.

Lo que pasó fue que un grupo de científicos de la Universidad de Urbana-Champaign en Illinois publicó un paper donde revelaron que GPT-4 puede escribir código malicioso para explotar vulnerabilidades ya conocidas usando solo información públicamente disponible a la que cualquiera puede acceder.

De la fantasía a la vida real

Los científicos Richard Fang, Rohan Bindu, Akul Gupta y Daniel Kang, testearon 10 de los modelos de lenguaje más importantes que hay dando vueltas para ver si podían explotar 15 vulnerabilidades que habían sido descubiertas hace relativamente poco y de las cuales ya había información circulando en internet.

Según publicaron los investigadores en el paper, los datos consumidos por los algoritmos de inteligencia artificial se tratan de vulnerabilidades de alta gravedad que forman parte del “mundo real”. Los expertos descubrieron que si se le daba la descripción del problema a GPT-4, el modelo de OpenAI podía explotar la vulnerabilidad en un 87% de los casos.

Del cine a la realidad ¿qué puede llegar a hacer una Inteligencia artificial? (Imagen generada por IA/Designer Microsoft))
Del cine a la realidad ¿qué puede llegar a hacer una Inteligencia artificial? (Imagen generada por IA/Designer Microsoft))

Cómo resolver el problema

Y si bien los investigadores explican que estos modelos no pueden hacer algo que un humano experto no podría hacer, sí puede hacerlo mucho más rápido y, también, gastando mucho menos.

El problema es que los desarrolladores de los modelos de lenguaje no tienen una buena forma de luchar contra este tipo de problemáticas. Si bloquean por completo el entrenamiento relacionado a esta temática, la IA no podrá ayudar a que expertos en seguridad informática utilicen estos modelos para luchar contra la cantidad de amenazas que hay actualmente. Si sí los entrenan, pueden ser utilizados por hackers con malas intenciones.

¿Cómo resolverlo? Daniel Kang, parte del equipo que publicó el paper, sugirió un “enfoque de dos niveles”. Un modelo público limitado que no pueda realizar lo reveló su investigación y otro paralelo con un acceso un poco menos censurado pero restringido solo para aquellos desarrolladores autorizados a utilizarlo.

Alerta en políticos y desarrolladores

Al haber sido una de las primeras investigaciones que revelaba este problema, llamó muchísimo la atención. Tanto que llegó al mundo de la política.

“Ya hablé con personas del Congreso sobre estos temas y parece que están pensando al respecto. Espero que nuestro trabajo ayude a informar algunos de estos procesos de toma de decisiones”, dijo Kang, uno de los científicos que llevó adelante el estudio, en un comunicado que publicó la universidad.

Incluso desde OpenAI pararon las antenas. La compañía se puso en contacto con el grupo de científico para que no revelaran los prompts que utilizaron para llegar a sus resultados así actores con intenciones no tan buenas no pudieran usarlos.

No queremos que nuestras herramientas se utilicen con fines maliciosos y siempre estamos trabajando para hacer que nuestros sistemas sean más sólidos contra este tipo de abuso. Agradecemos a los investigadores por compartir su trabajo con nosotros”, dijeron desde la empresa.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Tecnología

El futuro ya llegó: Instagram ahora permite publicar Stories desde los anteojos de Meta

Las gafas inteligentes desarrolladas junto a Ray-Ban agregan una opción para subir Historias sin necesidad de usar el teléfono.

Published

on

Tal como cantan Los Redonditos de Ricota en Todo un palo, “el futuro ya llegó”. Hoy recuperamos esa percepción para hablar de una función que suman las gafas inteligentes de Meta, aquellas que la empresa estadounidense desarrolló junto a Ray-Ban. Según se informó, ahora es posible publicar Stories en Instagram desde los anteojos, sin necesidad de echar mano al celular.

Además, el dispositivo de vestir agrega compatibilidad con un par de aplicaciones: la plataforma de streaming musical Amazon Music, y Calm, una de las más reconocidas entre las apps de meditación.

¿Cómo son las gafas inteligentes de Meta?

En septiembre del año pasado, la firma de Mark Zuckerberg presentó un modelo de anteojos inteligentes capaces de responder preguntas y streamear. Según contamos en la ocasión, Ray-Ban de Meta puede retransmitir lo que el usuario está viendo directamente a Instagram y Facebook, una mejora evidente respecto a las capacidades de la generación anterior, que se había lanzado en el 2021.

Video Placeholder

El dispositivo de vestir fue desarrollado en colaboración con el especialista en anteojos, Ray-Ban. (Video: Meta)

El dispositivo tiene una cámara HD incorporada, funciones táctiles en el marco y en sus patillas tiene parlantes. Además, son los primeros anteojos inteligentes con Meta AI, una inteligencia artificial que permite una interacción con manos libres.

En abril de este año, Meta agregó capacidades de IA multimodal a las gafas inteligentes Ray-Ban. Los usuarios pueden tomar una foto y pedir que el sistema de IA incorporado brinde más contexto. Por caso, permite leer carteles en diferentes idiomas, escribir subtítulos de Instagram e identificar puntos de referencia.

Instagram ahora permite publicar Historias desde las gafas smart de Meta

Una actualización del equipo permite publicar Stories, con manos libres. Según explica el sitio The Verge, esta nueva opción puede emplearse antes o después de tomar una imagen con las gafas. Los usuarios pueden decir en voz alta “Hola Meta, comparte mi foto en Instagram”, para que el sistema haga su magia.

Mark Zuckerberg durante la presentación de las gafas, en septiembre de 2023.
Mark Zuckerberg durante la presentación de las gafas, en septiembre de 2023.Por: REUTERS

Además de esta integración con Instagram, el wearable ahora se vincula con el servicio musical de Amazon. En este caso, al decir “Hola Meta, reproduce Amazon Music”, las gafas darán play a una lista de reproducción recomendada y seleccionada para los usuarios. Además, es posible subir o bajar el volumen, y pausar la música mediante controles táctiles o de voz sin necesidad de sacar el teléfono. Las Ray-Ban Meta ya ofrecían soporte para Spotify y Apple Music.

¿Cuál es la novedad con la aplicación Calm? Los anteojos de Meta suman soporte para esa herramienta, permitiendo que los usuarios hagan meditaciones mientas caminan, por ejemplo. Cabe señalar que aquella herramienta es de pago y que, en este contexto, ofrecen tres meses gratuitos a los usuarios de las gafas para que puedan probar estas nuevas funciones.

Según indicaron desde la firma californiana, las flamantes características en las gafas inteligentes se implementarán en forma gradual.

Continue Reading

TENDENCIAS

Copyright © 1998 FUNDACION GRUPOCLAN prensagrupoclan@gmail.com