Connect with us

Tecnología

Presentaron el smartphone más aburrido del mundo: es transparente, con pantalla monocromo y tiene una sola app

La característica más destacada de este curioso celular es la ausencia de acceso a Internet y a las redes sociales. Busca animar a los usuarios a desconectar de la tecnología y mantener interacciones en persona.

Published

on

Los smartphones actuales ya hacen casi de todo: son verdaderas computadoras de bolsillo desde las que podemos controlar la mayoría de los aspectos de nuestra vida. No solo nos permiten comunicarnos con cualquier parte del mundo en tiempo real, sino que también nos permiten jugar, navegar por internet, mirar contenidos audiovisuales, administrar finanzas, realizar compras y mucho más.

Sin embargo, tantas funciones hicieron olvidar el propósito del dispositivo: hablar en directo con otra persona que se encuentra en otro lugar. Para volver a las raíces y simplificar la comunicación, una empresa de Finlandia creó un teléfono “tonto” que solo sirve para hacer llamadas, enviar SMS y un par de funciones básicas más.

Se trata del teléfono más aburrido del mundo, o The Boring Phone, su nombre en inglés. Es un celular plegable, de estilo retro con una carcasa de plástico transparente y pantalla monocromática.

Presentaron el smartphone más aburrido del mundo: es transparente, con pantalla monocromo y tiene una sola app. (Foto: HMD)
Presentaron el smartphone más aburrido del mundo: es transparente, con pantalla monocromo y tiene una sola app. (Foto: HMD)

El dispositivo tiene una precaria cámara de fotos de 0.3 megapixeles, radio FM y una sola app: el clásico juego de la viborita. Sin embargo, la característica más destacada de este curioso celular es la ausencia de acceso a Internet y a las redes sociales.

El objetivo de esta falta de funciones es animar a los usuarios a desconectar de la tecnología y mantener interacciones sociales en persona en lugar de distraerse con scroll infinitos o saltar de app en app.

“Con los smartphones cada vez más avanzados e interesantes para el usuario, es más fácil que nunca conectarse al mundo online, pero más difícil permanecer fuera de línea, y disfrutar en el momento”, aseguraron desde HMD (Human Mobile Devices), fabricantes del teléfono tonto. “Al eliminar los adornos modernos, el teléfono es incapaz de descargar las redes sociales u otras aplicaciones que distraen”.

¿Por qué un teléfono tonto y aburrido?

El concepto de The Boring Phone surgió de una investigación encargada por Heineken sobre el uso de teléfonos inteligentes entre la Generación Z y los Millennials en el Reino Unido y Estados Unidos. Según la marca, el 90 % de los participantes en el estudio admitió hacer doom scrolling (práctica que consiste en desplazarse entre contenidos dentro de una app, sin prestar demasiada atención) en situaciones sociales y consultar el teléfono un promedio de siete veces durante una salida nocturna.

Sin embargo, la investigación también reveló que el 37% de la Generación Z y los Millennials afirman que miran sus teléfonos con demasiada frecuencia en situaciones sociales, y el 32% dijo que preferiría poder “desconectar” de sus teléfonos en las noches de fiesta.

De todas maneras, el celular es un prototipo. Solo se fabricaron 5000 unidades que todavía no se pusieron a la venta. Pero para quienes experimentar la sensación, HMD lanzará a mitad de año una app que convierte a los smartphones en aburrido y casi que los inutiliza, suspendiendo casi todas sus funciones.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Tecnología

A lo Hollywood: la inteligencia artificial está cada vez más cerca de poder hackear sola

Un estudio muestra que hay modelos de lenguaje, sobre todo GPT-4, que tomando información pública pueden generar ataques casi sin intervención humana.

Published

on

By

En el imaginario popular de Hollywood hay un escenario que se repite una y otra vez: inteligencias artificiales de avanzada que, con una serie de simples comandos, pueden hackear complejos sistemas de seguridad ingresando a computadoras de gobiernos o compañías para robar información sensible. Si bien eso es algo que por ahora fue dejado para el séptimo arte, poco a poco se está acercando a la realidad.

Lo que pasó fue que un grupo de científicos de la Universidad de Urbana-Champaign en Illinois publicó un paper donde revelaron que GPT-4 puede escribir código malicioso para explotar vulnerabilidades ya conocidas usando solo información públicamente disponible a la que cualquiera puede acceder.

De la fantasía a la vida real

Los científicos Richard Fang, Rohan Bindu, Akul Gupta y Daniel Kang, testearon 10 de los modelos de lenguaje más importantes que hay dando vueltas para ver si podían explotar 15 vulnerabilidades que habían sido descubiertas hace relativamente poco y de las cuales ya había información circulando en internet.

Según publicaron los investigadores en el paper, los datos consumidos por los algoritmos de inteligencia artificial se tratan de vulnerabilidades de alta gravedad que forman parte del “mundo real”. Los expertos descubrieron que si se le daba la descripción del problema a GPT-4, el modelo de OpenAI podía explotar la vulnerabilidad en un 87% de los casos.

Del cine a la realidad ¿qué puede llegar a hacer una Inteligencia artificial? (Imagen generada por IA/Designer Microsoft))
Del cine a la realidad ¿qué puede llegar a hacer una Inteligencia artificial? (Imagen generada por IA/Designer Microsoft))

Cómo resolver el problema

Y si bien los investigadores explican que estos modelos no pueden hacer algo que un humano experto no podría hacer, sí puede hacerlo mucho más rápido y, también, gastando mucho menos.

El problema es que los desarrolladores de los modelos de lenguaje no tienen una buena forma de luchar contra este tipo de problemáticas. Si bloquean por completo el entrenamiento relacionado a esta temática, la IA no podrá ayudar a que expertos en seguridad informática utilicen estos modelos para luchar contra la cantidad de amenazas que hay actualmente. Si sí los entrenan, pueden ser utilizados por hackers con malas intenciones.

¿Cómo resolverlo? Daniel Kang, parte del equipo que publicó el paper, sugirió un “enfoque de dos niveles”. Un modelo público limitado que no pueda realizar lo reveló su investigación y otro paralelo con un acceso un poco menos censurado pero restringido solo para aquellos desarrolladores autorizados a utilizarlo.

Alerta en políticos y desarrolladores

Al haber sido una de las primeras investigaciones que revelaba este problema, llamó muchísimo la atención. Tanto que llegó al mundo de la política.

“Ya hablé con personas del Congreso sobre estos temas y parece que están pensando al respecto. Espero que nuestro trabajo ayude a informar algunos de estos procesos de toma de decisiones”, dijo Kang, uno de los científicos que llevó adelante el estudio, en un comunicado que publicó la universidad.

Incluso desde OpenAI pararon las antenas. La compañía se puso en contacto con el grupo de científico para que no revelaran los prompts que utilizaron para llegar a sus resultados así actores con intenciones no tan buenas no pudieran usarlos.

No queremos que nuestras herramientas se utilicen con fines maliciosos y siempre estamos trabajando para hacer que nuestros sistemas sean más sólidos contra este tipo de abuso. Agradecemos a los investigadores por compartir su trabajo con nosotros”, dijeron desde la empresa.

Continue Reading

TENDENCIAS

Copyright © 1998 FUNDACION GRUPOCLAN prensagrupoclan@gmail.com