En un mundo donde los modelos de inteligencia artificial (IA) como ChatGPT ofrecen respuestas convincentes a casi cualquier pregunta, surge una preocupación crítica: ¿qué sucede cuando estas respuestas son incorrectas pero se presentan con total seguridad? Este fenómeno, conocido como “alucinación” en la IA, puede tener consecuencias graves, especialmente en aplicaciones de alto riesgo como la medicina, la conducción autónoma o la investigación farmacéutica.
Para abordar este desafío, un equipo de investigadores del MIT fundó Themis AI, una empresa derivada que ha desarrollado Capsa, una plataforma diseñada para cuantificar la incertidumbre en los modelos de IA y corregir salidas poco confiables antes de que causen problemas mayores.
¿Qué es Capsa?
Capsa es una herramienta que se integra con cualquier modelo de aprendizaje automático para detectar y corregir salidas poco confiables en segundos. Funciona modificando los modelos de IA para permitirles detectar patrones en su procesamiento de datos que indican ambigüedad, incompletitud o sesgo.
La plataforma es agnóstica en cuanto a datos y modelos, compatible con modelos de visión, lenguaje, gráficos y generativos de cualquier tamaño o arquitectura. Capsa se integra fácilmente con frameworks populares como PyTorch y TensorFlow, lo que permite a los desarrolladores convertir un modelo existente en una variante consciente de la incertidumbre con una sola línea de código.
Aplicaciones en el mundo real
Desde su fundación en 2021, Themis AI ha colaborado con empresas en diversas industrias:
Telecomunicaciones: Apoyo en la planificación y automatización de redes.
Energía: Ayuda a compañías de petróleo y gas a interpretar imágenes sísmicas mediante IA.
Salud: Mejora de la investigación farmacéutica y los procesos de descubrimiento de fármacos.
Tecnología: Desarrollo de chatbots más confiables y dignos de confianza.
En el ámbito de la conducción autónoma, la integración de Capsa ha demostrado reducir las colisiones en un factor de 16 y disminuir el tiempo de cálculo en un factor de 12, según investigaciones presentadas en conferencias de robótica e inteligencia artificial.
¿Por qué es importante?
La capacidad de un modelo de IA para reconocer sus propias limitaciones y comunicar su nivel de confianza en sus salidas es esencial para su implementación segura y efectiva en aplicaciones críticas. Al permitir que los modelos “sepan lo que no saben”, Capsa contribuye a aumentar la transparencia, la confiabilidad y la seguridad de los sistemas de IA.
Como expresó la cofundadora de Themis AI y profesora del MIT, Daniela Rus:
“Estamos entusiasmados por ofrecer una solución que pueda mejorar los modelos y ofrecer garantías de que el modelo funcione correctamente.”
Conclusión
A medida que la inteligencia artificial se integra cada vez más en aspectos críticos de nuestras vidas, herramientas como Capsa de Themis AI son fundamentales para garantizar que estos sistemas operen de manera segura y confiable. Al enseñar a la IA a reconocer y comunicar su incertidumbre, estamos dando un paso importante hacia una inteligencia artificial más consciente y responsable.