Connect with us

Tecnología

Apple demanda a un exempleado que habría filtrado secretos de la empresa: “Lo hizo por goce personal”

Published

on

En la industria tecnológica, los rumores y las filtraciones son moneda corriente. En criollo, se trata de información que se anticipa a los anuncios oficiales, revelando características de productos y servicios antes de los lanzamientos. Esa bola de cristal que permite espiar el futuro no funciona mágicamente: se basan en datos que, entre otras fuentes, divulgan empleados indiscretos.

Un nuevo hecho que involucra a Apple da cuenta que esa práctica es habitual en el negocio tecnológico. La compañía californiana acaba de presentar una demanda contra un exingeniero que filtró información confidencial a medios de comunicación. “Lo hizo por goce personal”, indicaron desde la firma que dirige Tim Cook.

El caso de Andrew Aude: Apple demanda a un exempleado que filtró secretos comerciales

Un informe de New York Post repasa la demanda de Apple contra Andrew Aude, que desde el año 2016 trabajó en la división encargada de iOS, el sistema operativo que corre en los iPhone. De acuerdo a la fuente, el exingeniero de la empresa habría usado su teléfono laboral para filtrar información confidencial, a través de miles de mensajes de texto, durante más de cinco años consecutivos.

En la demanda, Apple dijo que Aude se negó a colaborar en la investigación y así evitar el litigio. (Foto: EFE/EPA/Etienne Laurent)
En la demanda, Apple dijo que Aude se negó a colaborar en la investigación y así evitar el litigio. (Foto: EFE/EPA/Etienne Laurent)

El fabricante con sede central en Cupertino presentó la demanda a fines de marzo, en el Tribunal Superior de California, en Estados Unidos. Apple no solo acusa a Aude de filtrar información secreta, sino también de presionar, con ese modus operandi, para que no se lancen características con las que estaba en desacuerdo.

En los documentos judiciales, Apple señala que su exempleado buscó perjudicar a la compañía, disfrutando de la atención de los medios.

Apple, al desnudo: ¿qué datos filtró el exingeniero demandado?

Aude habría revelado secretos de Apple a las publicaciones The Information The Wall Street Journal. Uno de los servicios de la empresa que fue eje de las filtraciones, según se indica en la demanda, fue la aplicación Journal para el iPhone —Diario, en español— que usa inteligencia artificial para crear una especie de bitácora personal. Se lanzó en diciembre del año pasado, en iOS 17.2.

El “soplón” también entregó información secreta sobre Vision Pro, las gafas de realidad mixta que Apple presentó a mediados del año pasado y lanzó al mercado en febrero.

Para sus infidencias, el demandado usó la aplicación Signal, un mensajero que se destaca por su sistema de encriptación.

“No puedo esperar a que estalle el caos en Apple”

En una de las capturas que Apple entregó a la justicia como prueba, Aude se dirige a un periodista de WSJ con el seudónimo “Homeboy”, diciéndole: “No puedo esperar a que estalle el caos antes de que la gente corporativa de Apple despierte”. El expediente judicial también indica que el exempleado de la firma de la manzana mordida viajó por todo el continente para reunirse con una periodista del sitio The Information.

Andrew Aude huyó al baño para borrar evidencias

Interrogado por sus superiores respecto a esta práctica indebida, Aude negó las acusaciones. En una ocasión, presionado para que entregue su iPhone laboral, fue al baño para borrar los mensajes en Signal.

“Fingiendo la necesidad de ir al baño en mitad de la entrevista, el señor Aude sacó el iPhone de su bolsillo y borró permanentemente cantidades significativas de evidencia de su dispositivo”, se lee en la demanda. Luego, en diciembre, el hombre apuntado admitió parcialmente las acusaciones, cuando le preguntaron por qué se eliminó la aplicación Signal y “ofreció confesiones limitadas a la información que no había podido borrar”.

Tras la negativa de Aude a cooperar con la investigación y evitar un litigio, Apple presentó la demanda que busca una retribución por daños y perjuicios.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Tecnología

A lo Hollywood: la inteligencia artificial está cada vez más cerca de poder hackear sola

Un estudio muestra que hay modelos de lenguaje, sobre todo GPT-4, que tomando información pública pueden generar ataques casi sin intervención humana.

Published

on

By

En el imaginario popular de Hollywood hay un escenario que se repite una y otra vez: inteligencias artificiales de avanzada que, con una serie de simples comandos, pueden hackear complejos sistemas de seguridad ingresando a computadoras de gobiernos o compañías para robar información sensible. Si bien eso es algo que por ahora fue dejado para el séptimo arte, poco a poco se está acercando a la realidad.

Lo que pasó fue que un grupo de científicos de la Universidad de Urbana-Champaign en Illinois publicó un paper donde revelaron que GPT-4 puede escribir código malicioso para explotar vulnerabilidades ya conocidas usando solo información públicamente disponible a la que cualquiera puede acceder.

De la fantasía a la vida real

Los científicos Richard Fang, Rohan Bindu, Akul Gupta y Daniel Kang, testearon 10 de los modelos de lenguaje más importantes que hay dando vueltas para ver si podían explotar 15 vulnerabilidades que habían sido descubiertas hace relativamente poco y de las cuales ya había información circulando en internet.

Según publicaron los investigadores en el paper, los datos consumidos por los algoritmos de inteligencia artificial se tratan de vulnerabilidades de alta gravedad que forman parte del “mundo real”. Los expertos descubrieron que si se le daba la descripción del problema a GPT-4, el modelo de OpenAI podía explotar la vulnerabilidad en un 87% de los casos.

Del cine a la realidad ¿qué puede llegar a hacer una Inteligencia artificial? (Imagen generada por IA/Designer Microsoft))
Del cine a la realidad ¿qué puede llegar a hacer una Inteligencia artificial? (Imagen generada por IA/Designer Microsoft))

Cómo resolver el problema

Y si bien los investigadores explican que estos modelos no pueden hacer algo que un humano experto no podría hacer, sí puede hacerlo mucho más rápido y, también, gastando mucho menos.

El problema es que los desarrolladores de los modelos de lenguaje no tienen una buena forma de luchar contra este tipo de problemáticas. Si bloquean por completo el entrenamiento relacionado a esta temática, la IA no podrá ayudar a que expertos en seguridad informática utilicen estos modelos para luchar contra la cantidad de amenazas que hay actualmente. Si sí los entrenan, pueden ser utilizados por hackers con malas intenciones.

¿Cómo resolverlo? Daniel Kang, parte del equipo que publicó el paper, sugirió un “enfoque de dos niveles”. Un modelo público limitado que no pueda realizar lo reveló su investigación y otro paralelo con un acceso un poco menos censurado pero restringido solo para aquellos desarrolladores autorizados a utilizarlo.

Alerta en políticos y desarrolladores

Al haber sido una de las primeras investigaciones que revelaba este problema, llamó muchísimo la atención. Tanto que llegó al mundo de la política.

“Ya hablé con personas del Congreso sobre estos temas y parece que están pensando al respecto. Espero que nuestro trabajo ayude a informar algunos de estos procesos de toma de decisiones”, dijo Kang, uno de los científicos que llevó adelante el estudio, en un comunicado que publicó la universidad.

Incluso desde OpenAI pararon las antenas. La compañía se puso en contacto con el grupo de científico para que no revelaran los prompts que utilizaron para llegar a sus resultados así actores con intenciones no tan buenas no pudieran usarlos.

No queremos que nuestras herramientas se utilicen con fines maliciosos y siempre estamos trabajando para hacer que nuestros sistemas sean más sólidos contra este tipo de abuso. Agradecemos a los investigadores por compartir su trabajo con nosotros”, dijeron desde la empresa.

Continue Reading

TENDENCIAS

Copyright © 1998 FUNDACION GRUPOCLAN prensagrupoclan@gmail.com