Connect with us

Tecnología

¡Usaste ChatGPT! Las pistas que delatan que un texto fue escrito con el chatbot de OpenAI

La generación con IA bajo la lupa. ¿Cómo detectar cuando un documento fue creado en forma automatizada?

Published

on

Tal como analizamos en ChatGPT desafía a la docencia, el creciente empleo de sistemas de inteligencia artificial generativa trajo consigo beneficios a la hora de crear contenido y, en paralelo, una serie de aspectos que generan preocupación y deben ser atendidos. Uno de los inconvenientes que ha surgido es la dificultad para distinguir fehacientemente el contenido real —creado por humanos— del sintético. El caso de los textos es particularmente acuciante.

La polémica bulle especialmente en los ámbitos académicos, en los que se registran numerosísimos casos de estudiantes que entregan trabajos íntegramente escritos por modelos como ChatGPT de OpenAI o Gemini de Google. Ocurre que esas herramientas son realmente eficaces para la redacción: el usuario anota una serie de instrucciones, y los programas revisan sus bases de datos para, en pocos segundos, crear textos extensos.

Una de las grandes habilidades de ChatGPT es la redacción de texto.
Una de las grandes habilidades de ChatGPT es la redacción de texto.Por: AP

En el contenido audiovisual, por ejemplo en imágenes y videos, la elucidación podría ser más sencilla. Por caso, algunos desarrolladores han comenzado a incluir marcas de agua para mostrar sin rodeos cuándo se trata de una creación sintética. En los escritos, la identificación encierra mayores complejidades. En este marco, ¿hay modos eficientes de identificar si un texto fue escrito por ChatGPT y afines?

Un investigador revela el secreto para delatar a los textos generados con ChatGPT

A poco del lanzamiento general de su chatbot, OpenAI lanzó una herramienta que prometía identificar los escritos creados con esa herramienta. Más tarde, se supo que ni siquiera esa solución resultó eficiente, en la mayoría de los casos. Frente a tal escenario, el discernimiento humano sigue siendo la variable fundamental.

A esa dirección apuntó un investigador especializado en ciencia de datos, Fareed Khan, que en una entrada de blog en Medium comprobó cuáles son las palabras que más usa ChatGPT en los textos que genera. Así, funcionan como pistas para buchonear a los escritos generados con el chatbot de OpenAI.

El gráfico muestra el exponencial crecimiento en el uso de la palabra "delve". (Fuente: Fareed Khan/Medium)
El gráfico muestra el exponencial crecimiento en el uso de la palabra «delve». (Fuente: Fareed Khan/Medium)

Para esto, Khan insertó en una base de datos miles de textos publicados en blogs y reunió 19.000 millones de palabras. Uno de los ejemplos que usó es el término “delve” (“ahondar” en español), que en 2010 apenas se usó y se multiplicó exponencialmente desde la aparición de ChatGPT. En tanto, aquella es una de las palabras “favoritas” del modelo GPT y una pista que delata a los escritos con ese sistema. Otros términos como “unmavering” (“inquebrantable”), “pivotal” (“esencial”) “nanscent” (“naciente”) y “intricacies” (“complejidades”) también se repiten con gran frecuencia en la actualidad.

Los interesados pueden revisar el informe de Khan, en el que se listan 100 palabras tan habituales en los discursos de ChatGPT, que podrían servir como huellas para la detección de textos sintéticos.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Tecnología

A lo Hollywood: la inteligencia artificial está cada vez más cerca de poder hackear sola

Un estudio muestra que hay modelos de lenguaje, sobre todo GPT-4, que tomando información pública pueden generar ataques casi sin intervención humana.

Published

on

By

En el imaginario popular de Hollywood hay un escenario que se repite una y otra vez: inteligencias artificiales de avanzada que, con una serie de simples comandos, pueden hackear complejos sistemas de seguridad ingresando a computadoras de gobiernos o compañías para robar información sensible. Si bien eso es algo que por ahora fue dejado para el séptimo arte, poco a poco se está acercando a la realidad.

Lo que pasó fue que un grupo de científicos de la Universidad de Urbana-Champaign en Illinois publicó un paper donde revelaron que GPT-4 puede escribir código malicioso para explotar vulnerabilidades ya conocidas usando solo información públicamente disponible a la que cualquiera puede acceder.

De la fantasía a la vida real

Los científicos Richard Fang, Rohan Bindu, Akul Gupta y Daniel Kang, testearon 10 de los modelos de lenguaje más importantes que hay dando vueltas para ver si podían explotar 15 vulnerabilidades que habían sido descubiertas hace relativamente poco y de las cuales ya había información circulando en internet.

Según publicaron los investigadores en el paper, los datos consumidos por los algoritmos de inteligencia artificial se tratan de vulnerabilidades de alta gravedad que forman parte del “mundo real”. Los expertos descubrieron que si se le daba la descripción del problema a GPT-4, el modelo de OpenAI podía explotar la vulnerabilidad en un 87% de los casos.

Del cine a la realidad ¿qué puede llegar a hacer una Inteligencia artificial? (Imagen generada por IA/Designer Microsoft))
Del cine a la realidad ¿qué puede llegar a hacer una Inteligencia artificial? (Imagen generada por IA/Designer Microsoft))

Cómo resolver el problema

Y si bien los investigadores explican que estos modelos no pueden hacer algo que un humano experto no podría hacer, sí puede hacerlo mucho más rápido y, también, gastando mucho menos.

El problema es que los desarrolladores de los modelos de lenguaje no tienen una buena forma de luchar contra este tipo de problemáticas. Si bloquean por completo el entrenamiento relacionado a esta temática, la IA no podrá ayudar a que expertos en seguridad informática utilicen estos modelos para luchar contra la cantidad de amenazas que hay actualmente. Si sí los entrenan, pueden ser utilizados por hackers con malas intenciones.

¿Cómo resolverlo? Daniel Kang, parte del equipo que publicó el paper, sugirió un “enfoque de dos niveles”. Un modelo público limitado que no pueda realizar lo reveló su investigación y otro paralelo con un acceso un poco menos censurado pero restringido solo para aquellos desarrolladores autorizados a utilizarlo.

Alerta en políticos y desarrolladores

Al haber sido una de las primeras investigaciones que revelaba este problema, llamó muchísimo la atención. Tanto que llegó al mundo de la política.

“Ya hablé con personas del Congreso sobre estos temas y parece que están pensando al respecto. Espero que nuestro trabajo ayude a informar algunos de estos procesos de toma de decisiones”, dijo Kang, uno de los científicos que llevó adelante el estudio, en un comunicado que publicó la universidad.

Incluso desde OpenAI pararon las antenas. La compañía se puso en contacto con el grupo de científico para que no revelaran los prompts que utilizaron para llegar a sus resultados así actores con intenciones no tan buenas no pudieran usarlos.

No queremos que nuestras herramientas se utilicen con fines maliciosos y siempre estamos trabajando para hacer que nuestros sistemas sean más sólidos contra este tipo de abuso. Agradecemos a los investigadores por compartir su trabajo con nosotros”, dijeron desde la empresa.

Continue Reading

TENDENCIAS

Copyright © 1998 FUNDACION GRUPOCLAN prensagrupoclan@gmail.com