InicioTecnologíaAlucinaciones, la mayor falla de la inteligencia artificial: cómo evitar que ChatGPT,...

Alucinaciones, la mayor falla de la inteligencia artificial: cómo evitar que ChatGPT, Gemini y Meta AI respondan con errores

Los chatbots de inteligencia artificial (IA) generativa no son infalibles: cometen errores que muchas veces van más allá de proporcionar información falsa. Los especialistas concluyen que estos sistemas están programados de una manera que puede llevarlos a “alucinar”.

La IA Generativa llegó para quedarse en la vida diaria de las personas y las compañías, tanto que en el mundo fintech ya fue valorada en 1,12 billones de dólares en 2023. El rápido crecimiento de sus tasas sugiere que llegará a los 4,37 billones de dólares para 2027, según un reporte de Market.us.

Como toda herramienta en plena evolución y crecimiento, la IA también tendrá que enfrentarse a diferentes barreras y problemas.

Qué son las alucinaciones de la inteligencia artificial

Foto: AFPFoto: AFPLos especialistas en algoritmos catalogan a los resultados incorrectos o engañosos que generan los modelos de IA –ChatGPT, Llama o Gemini– como «alucinaciones». Estas fallas pueden deberse a diversos factores, como datos de entrenamiento insuficientes, suposiciones incorrectas o sesgos en los datos usados para entrenar el modelo.

Las alucinaciones son un problema grave para los sistemas de IA que se utilizan para tomar decisiones importantes, como diagnósticos médicos o el comercio financiero.

Los modelos se entrenan con datos y aprenden a hacer predicciones buscando patrones. Sin embargo, la exactitud de estas predicciones suele depender de la calidad y la integridad de la información que sirva de entrenamiento. Si están incompletos, tienen sesgo o son defectuosos, el modelo de IA puede aprender patrones incorrectos, lo que lleva a predicciones inexactas o alucinaciones.

Por ejemplo, un modelo de IA que se entrena con imágenes médicas puede aprender a identificar células cancerosas. Sin embargo, si en ese conjunto de datos no hay ninguna imagen de tejido sano, el modelo de IA podría predecir incorrectamente que el tejido sano es cáncer.

“Los modelos son entrenados con grandes (muy grandes) volúmenes de información, y de allí aprenden patrones y asociaciones con esa información que puede aun ser insuficiente, obsoleta o inconsistente, y dado que no tienen ‘comprensión’, realmente no saben lo que están diciendo”, explica Pablo Velan, CTO y socio de N5, empresa de software especializada en la industria financiera.

Según los análisis de la startup Vectara, la tasa de alucinación de los chatbots oscila entre un 3% y un 27%.

Los datos de entrenamiento erróneos son solo uno de los motivos por los que pueden producirse alucinaciones con la IA. Otro factor que puede contribuir es la falta de una fundamentación adecuada.

Es posible que un modelo de inteligencia artificial tenga dificultades para comprender con precisión el conocimiento del mundo real, las propiedades físicas o la información fáctica. Esta falta de fundamentación puede hacer que el modelo genere resultados que, si bien parecen plausibles, en realidad son incorrectos, irrelevantes o sin sentido.

En esta línea, el directivo detalla que ante preguntas ambiguas o sin contexto suficiente, la capacidad de interpolación y extrapolación de la AI para responder entra en juego y hará generalizaciones o suposiciones incorrectas.

Esta situación puede no ser una preocupación para quienes usan las herramientas como mera diversión. Sin embargo, puede generar grandes problemas para las empresas donde las decisiones precisas son cruciales.

Asimismo, Velan reflexiona sobre si existe una “cura” y señala que hay algoritmos que evitan este tipo de errores al no estar conectados a Internet, ya que son entrenados dentro de fuentes de información cerradas, por lo cual son capacitados solo con datos de una entidad en particular.

Por otro lado, especialistas de IBM identificaron que los modelos de IA podrían seguir ciertos pasos para reducir estas falsas percepciones y hacer que los sistemas funcionen de manera óptima.

Consejos para evitar alucinaciones en inteligencia artificial

Foto: AFPFoto: AFP

Definir el propósito del modelo de IA

Explicar cómo se utilizará el modelo de IA (así como las limitaciones en el uso del modelo) ayudará a reducir las alucinaciones. Para eso, un equipo u organización debe establecer las responsabilidades y limitaciones del sistema de IA elegido; esto ayudará al sistema a completar las tareas de manera más eficaz y minimizar los resultados irrelevantes y “alucinatorios”.

Utilizar plantillas de datos

Las plantillas de datos proporcionan a los equipos un formato predefinido, lo que aumenta la probabilidad de que un modelo de IA genere resultados que se ajusten a las pautas prescritas. Confiar en esta solución garantiza la coherencia de los resultados y reduce la probabilidad de que el modelo produzca resultados erróneos.

Limitar las respuestas

Los modelos de IA suelen alucinar porque carecen de restricciones que limiten los posibles resultados. Para evitar este problema y mejorar la coherencia y la precisión generales de los resultados, defina límites para los modelos de IA utilizando herramientas de filtrado o umbrales probabilísticos claros.

Probar y perfeccionar el sistema continuamente

Para evitar alucinaciones, es fundamental probar rigurosamente el modelo de IA antes de usarlo, así como evaluarlo de manera continua. Estos procesos mejoran el rendimiento general del sistema y permiten a los usuarios ajustar o volver a entrenar el modelo a medida que los datos envejecen y evolucionan.

Confiar en la supervisión humana

Asegurarse de que una persona valide y revise los resultados de la IA es una última medida de contención para evitar las alucinaciones. Su participación garantiza que, si la IA alucina, habrá alguien disponible para filtrarla y corregirla.

Un revisor humano también puede ofrecer su experiencia en la materia, lo que mejora su capacidad para evaluar la precisión y la relevancia del contenido de la IA para una determinada tarea.

SL

MAS NOTICIAS
NOTICIAS RELACIONADAS