Skip to main content
  1. Casa
  2. Computación

¿Qué son las “alucinaciones” y por qué son un peligro en la IA?

Desde su lanzamiento en 2020, ChatGPT se convirtió en sinónimo de inteligencia artificial. Y es que este chatbot, un Large language model o modelo de lenguaje amplio ha probado ser fantástico para proporcionar respuestas convincentes y magistralmente redactactas sobre prácticamente todo tipo de tema, casi como si fuera una especie de Google superdotado. Sin embargo, aún cuando la versión más reciente, GPT-4o, es capaz de generar y entender texto, imágenes y sonido, ChatGPT y otros chatbots LLM pueden caer en “alucinaciones”. Aquí te explicamos qué son las alucinaciones de ChatGPT y por qué son un peligro en la IA.

¿Qué es una alucinación en inteligencia artificial?

Cómo usar ChatGPT, el chatbot del que todo el mundo habla.
Shutterstock / Digital Trends Español

Una alucinación es simplemente un chatbot diciendo una mentira, un sinsentido o un simplemente un bulo. Son potencialmente peligrosas porque, a medida que las personas confían más y más en herramientas como ChatGPT la sociedad se vuelve más propensa a caer en desinformación.

Recommended Videos

Las alucinaciones de la inteligencia artificial se producen porque los modelos de lenguaje amplio están entrenados con información de internet. Y aunque en teoría los algoritmos con los que operan las redes neuronales jerarquizan las fuentes según un orden de credibilidad —por ejemplo, un artículo académico tiene más importancia que un texto en un blog—, en ocasiones una respuesta puede tener una mezcla de datos precisos y erróneos.

Por ejemplo, este artículo de la BBC consigna una alucinación realizada por ChatGPT a propósito de la coronación del rey Carlos III, que indica una fecha errónea sobre su coronación, aunque el resto del enunciado es veraz y coherente.

«La ceremonia de coronación tuvo lugar en la Abadía de Westminster, en Londres, el 19 de mayo de 2023. La abadía ha sido el escenario de las coronaciones de los monarcas británicos desde el siglo XI, y es considerada uno de los lugares más sagrados y emblemáticos del país».

Los modelos amplios de lenguaje también pueden producir alucinaciones inducidas, por ejemplo, cuando se le realiza una pregunta que parte de una premisa falsa. Por ejemplo, el blog flyingbisons cuenta que ChatGPT aseguró que Charles Joughin fue el único sobreviviente del Titanic luego de que se le preguntó quién fue el único sobreviviente al naufragio del trasatlántico.

¿Cómo evitar las alucinaciones de ChatGPT?

Si bien no hay una forma infalible de evitar que ChatGPT u otros modelos amplios de lenguaje arrojen mentiras en sus respuestas, siempre puedes verificar la información que arrojan. Esta práctica “resta” un poco de atractivo al chatbot, sin embargo, si lo utilizas para algún contexto profesional, lo mejor es siempre verificar los datos.

Un recurso bastante simple y que repasábamos hace poco cuando sugerimos consejos para crear mejores prompts para ChatGPT es simplemente preguntarle cuáles son sus fuentes. Si el LLM cometió una alucinación es probable que pida una disculpa y arroje una nueva respuesta, esta vez verificada.

Topics
Allan Vélez
Allan Vélez es un periodista mexicano especializado en tecnología. Inició su carrera en 2013 en La Revista Oficial de…
OpenAI está jubilando un modelo muy popular en ChatGPT
OpenAI

El tiempo también pasa para la IA, aunque pareciera que es algo tan nuevo y que se implementó hace pocos días, lo cierto es que OpenAI está muy cerca de jubilar a uno de sus modelos más populares: el GPT-4.

Todo fue mostrado en un registro de cambios que informó ChatGPT y que terminaría con el modelo que se implementó hace dos años atrás.

Leer más
¿Llegan las marcas de agua en las fotos del ChatGPT gratis?
Frame del filme Pompoko

Últimamente, todo el mundo ha estado hablando de la nueva función de generación de imágenes de ChatGPT, y parece que la emoción aún no ha terminado. Como siempre, la gente ha estado hurgando en las aplicaciones de la compañía y, esta vez, han encontrado menciones de una función de marca de agua para las imágenes generadas.

Descubierta por el de X, Tibor Blaho, la línea de código parece sugerir que la función solo pondría marcas de agua en las imágenes generadas por s gratuitos, lo que les da otro incentivo para actualizar a una suscripción paga.image_gen_watermark_for_free

Leer más
OpenAI planea hacer que Deep Research sea gratuito en ChatGPT
OpenAI

OpenAI tiene planes de poner pronto su función Deep Research a disposición de los s de ChatGPT de nivel gratuito.

La función ha estado disponible desde principios de febrero para los suscriptores de Plus, Pro, Enterprise y Edu; sin embargo, la compañía de IA planea expandir la disponibilidad más allá de sus s pagos. Deep Research va más allá de los resultados de las consultas estándar de los modelos de IA más tradicionales de la marca. El agente de IA tiene la capacidad de realizar tareas de investigación extendidas cuando se le ordena sin la ayuda de un humano. La función puede proporcionar un informe detallado sobre el tema de su elección que puede tardar entre cinco y 30 minutos en compilarse.

Leer más