Cover Image for Definición de "alucinaciones" y su riesgo en la inteligencia artificial.

Definición de "alucinaciones" y su riesgo en la inteligencia artificial.

A pesar de que los modelos de lenguaje han alcanzado un alto nivel de sofisticación, en ocasiones generan afirmaciones incorrectas, conocidas como alucinaciones.

Desde su lanzamiento en 2020, ChatGPT ha llegado a ser sinónimo de inteligencia artificial, destacándose como un modelo de lenguaje amplio (LLM) excepcional para ofrecer respuestas bien elaboradas y convincentes sobre una variedad de temas, funcionalidad que se asemeja a la de un motor de búsqueda avanzado. Sin embargo, a pesar de que la versión más reciente, GPT-4o, tiene la capacidad de generar y comprender texto, imágenes y sonido, estos chatbots también pueden experimentar lo que se conoce como "alucinaciones".

Una alucinación en este contexto se refiere a la emisión de datos falsos o confusos por parte del chatbot, lo cual puede ser potencialmente riesgoso. A medida que los usuarios depositan más confianza en herramientas como ChatGPT, la sociedad tiende a volverse más susceptible a la desinformación. Las alucinaciones ocurren porque los LLM son alimentados con información obtenida de internet. Aunque los algoritmos están diseñados para priorizar las fuentes según su credibilidad —por ejemplo, un estudio académico tiene más peso que un post de un blog—, en ocasiones, las respuestas pueden incluir una mezcla de información correcta y errónea. Un ejemplo de esto lo ilustró ChatGPT al proporcionar una fecha incorrecta sobre la coronación del rey Carlos III, a pesar de que el resto de la información era precisa y coherente.

Los modelos de lenguaje también pueden generar alucinaciones inducidas, especialmente cuando se les plantean preguntas basadas en premisas incorrectas. Por ejemplo, ChatGPT afirmó que Charles Joughin fue el único sobreviviente del Titanic tras ser interrogado sobre este tema en particular.

Aunque no existe una manera infalible de prevenir que ChatGPT y otros modelos similares produzcan respuestas erróneas, siempre es recomendable verificar la información que ofrecen. Esta práctica puede restarle atractivo al chatbot, pero es esencial en contextos profesionales. Una estrategia útil es preguntar directamente a ChatGPT acerca de sus fuentes; si incurre en una alucinación, es probable que reconozca su error y ofrezca una respuesta más precisa.

En conjunto, ChatGPT y la inteligencia artificial están transformando diversas áreas, incluyendo la manera en que interactuamos con la tecnología en nuestras vidas diarias y profesionales.