Imagina que estás en un avión con dos pilotos, uno humano y otro computarizado. Ambos tienen sus “manos” en los controles, pero están siempre atentos a diferentes aspectos. Si ambos se concentran en lo mismo, el humano toma el control. Pero si el humano se distrae o se le escapa algo, la computadora toma el mando rápidamente.
Conoce a Air-Guardian, un sistema desarrollado por investigadores en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (CSAIL). En la era moderna, los pilotos se enfrentan a una avalancha de información proveniente de múltiples monitores, especialmente durante momentos críticos. Air-Guardian actúa como un copiloto proactivo; una colaboración entre humano y máquina, fundamentada en el entendimiento de la atención.
¿Pero cómo determina la atención exactamente? Para los humanos, utiliza seguimiento ocular y para el sistema neural, se basa en algo llamado “mapas de prominencia”, que señalan hacia dónde se dirige la atención. Estos mapas sirven como guías visuales que resaltan regiones clave dentro de una imagen, ayudando a entender y descifrar el comportamiento de algoritmos complejos. Air-Guardian identifica signos tempranos de riesgos potenciales a través de estos marcadores de atención, en lugar de intervenir solo durante las infracciones de seguridad como lo hacen los sistemas de piloto automático tradicionales.
Las implicaciones más amplias de este sistema van más allá de la aviación. Mecanismos de control cooperativo similares podrían usarse algún día en autos, drones y un espectro más amplio de robótica.
“Una característica emocionante de nuestro método es su diferenciabilidad”, dice Lianhao Yin, postdoctorado del MIT CSAIL y autor principal de un nuevo artículo sobre Air-Guardian. “Nuestra capa cooperativa y todo el proceso de extremo a extremo pueden ser entrenados. Elegimos específicamente el modelo de red neural de profundidad continua causal debido a sus características dinámicas en la mapeación de la atención. Otro aspecto único es la adaptabilidad. El sistema Air-Guardian no es rígido; puede ser ajustado según las demandas de la situación, asegurando una colaboración equilibrada entre humano y máquina.”
En pruebas de campo, tanto el piloto como el sistema tomaron decisiones basadas en las mismas imágenes crudas al navegar hacia el punto de referencia. El éxito de Air-Guardian se midió en función de las recompensas acumuladas durante el vuelo y el camino más corto hacia el punto de referencia. El guardián redujo el nivel de riesgo de los vuelos y aumentó la tasa de éxito en la navegación hacia los puntos objetivo.
“Este sistema representa el enfoque innovador de la aviación habilitada por IA centrada en el humano”, agrega Ramin Hasani, afiliado a la investigación del MIT CSAIL e inventor de las redes neuronales líquidas. “Nuestro uso de redes neuronales líquidas proporciona un enfoque dinámico y adaptable, asegurando que la IA no reemplace simplemente el juicio humano sino que lo complemente, lo que lleva a una mayor seguridad y colaboración en los cielos.”
La verdadera fortaleza de Air-Guardian radica en su tecnología fundamental. Utiliza una capa cooperativa basada en optimización utilizando atención visual tanto de humanos como de máquinas, y redes neuronales en tiempo continuo de forma cerrada (CfC) conocidas por su habilidad para descifrar relaciones causa-efecto, analizando imágenes entrantes para obtener información vital. Complementando esto está el algoritmo VisualBackProp, que identifica los puntos focales del sistema dentro de una imagen, asegurando una comprensión clara de sus mapas de atención.
Para una futura adopción masiva, es necesario refinar la interfaz humano-máquina. Los comentarios sugieren que un indicador, como una barra, podría ser más intuitivo para señalar cuándo el sistema guardián toma el control.
Air-Guardian anuncia una nueva era de cielos más seguros, ofreciendo una red de seguridad confiable para esos momentos en que la atención humana flaquea.
“El sistema Air-Guardian destaca la sinergia entre la experiencia humana y el aprendizaje automático, avanzando en el objetivo de utilizar el aprendizaje automático para aumentar las habilidades de los pilotos en escenarios desafiantes y reducir los errores operacionales”, dice Daniela Rus, la profesora Andrew (1956) y Erna Viterbi de Ingeniería Eléctrica y Ciencias de la Computación en el MIT, directora de CSAIL, y autora principal del artículo.
“Uno de los resultados más interesantes del uso de una métrica de atención visual en este trabajo es la posibilidad de permitir intervenciones más tempranas y una mayor interpretabilidad por parte de los pilotos humanos”, dice Stephanie Gil, profesora asistente de ciencias de la computación en la Universidad de Harvard, quien no participó en el trabajo. “Esto muestra un gran ejemplo de cómo la IA puede ser utilizada para trabajar con un humano, reduciendo la barrera para lograr la confianza al utilizar mecanismos de comunicación naturales entre el sistema humano y de IA.”
Esta investigación fue parcialmente financiada por el Laboratorio de Investigación de la Fuerza Aérea de los EE.UU. (USAF), el Acelerador de Inteligencia Artificial de la USAF, la empresa Boeing y la Oficina de Investigación Naval. Los hallazgos no reflejan necesariamente las opiniones del gobierno de los EE.UU. o de la USAF.