Bienvenidos a AboutData.blog de Gold Light Data, donde exploramos lo último en Big Data, IA, ML, Analítica de Negocios e Inteligencia de Negocios. Únete a nosotros para mantenerte informado y empoderado en el dinámico mundo de la tecnología de datos.

Una nueva herramienta de código abierto para desentrañar los misterios del cerebro

A finales de 2023, la Administración de Alimentos y Medicamentos de los Estados Unidos (FDA) aprobó un fármaco con el potencial de ralentizar la progresión de la enfermedad de Alzheimer. Este avance representa un hito en la lucha contra los trastornos neurológicos debilitantes que afectan a una octava parte de la población mundial. Sin embargo, aunque el nuevo fármaco es un paso positivo, aún queda un largo camino por recorrer para comprender completamente el Alzheimer y otras enfermedades similares.

“Reconstruir las complejidades del cerebro humano a nivel celular es uno de los mayores desafíos de la neurociencia”, afirma Lars Gjesteby, miembro del equipo técnico y desarrollador de algoritmos en el Laboratorio Lincoln del MIT, en el Grupo de Sistemas de Rendimiento y Salud Humana. “Los atlas cerebrales de alta resolución y en red pueden mejorar nuestra comprensión de estos trastornos al revelar las diferencias entre cerebros sanos y enfermos. Sin embargo, el progreso se ha visto limitado por la falta de herramientas para visualizar y procesar los enormes conjuntos de datos de imágenes cerebrales.”

Un atlas cerebral en red es, esencialmente, un mapa detallado del cerebro que puede vincular la estructura con la función neuronal. Para construir estos atlas, es necesario procesar y anotar las imágenes cerebrales, lo que implica rastrear, medir y etiquetar cada axón, las finas fibras que conectan las neuronas. Los métodos actuales, como los softwares de escritorio o las herramientas manuales, no están diseñados para manejar datos a la escala del cerebro humano, lo que lleva a que los investigadores inviertan una cantidad considerable de tiempo en procesar datos en bruto.

Gjesteby lidera el desarrollo de NeuroTrALE (Neuron Tracing and Active Learning Environment), un software que combina aprendizaje automático, supercomputación y una interfaz fácil de usar para enfrentar el desafío del mapeo cerebral. NeuroTrALE automatiza gran parte del procesamiento de datos y presenta los resultados en una interfaz interactiva que permite a los investigadores editar y manipular la información para identificar patrones específicos.

Desenredando los enigmas del cerebro

Una de las características más innovadoras de NeuroTrALE es su técnica de aprendizaje automático, conocida como aprendizaje activo. Los algoritmos están entrenados para etiquetar automáticamente los datos basados en imágenes cerebrales existentes, pero cuando se enfrentan a datos desconocidos, pueden surgir errores. El aprendizaje activo permite a los usuarios corregir manualmente estos errores, enseñando al algoritmo a mejorar en futuras ocasiones. Esta combinación de automatización y corrección manual asegura un procesamiento de datos preciso con una menor carga de trabajo para el usuario.

“Imagina tomar una radiografía de una bola de lana, verías todas estas líneas entrecruzadas y superpuestas”, explica Michael Snyder, del Grupo de Sistemas de Apoyo a la Toma de Decisiones del laboratorio. “Cuando dos líneas se cruzan, ¿una hebra de lana hace un giro de 90 grados o una va por encima de la otra? Con el aprendizaje activo de NeuroTrALE, los usuarios pueden trazar estas hebras una o dos veces y entrenar al algoritmo para que las siga correctamente en el futuro. Sin NeuroTrALE, los investigadores tendrían que trazar cada axón del cerebro humano manualmente.”

Al liberar al usuario de la carga de etiquetado, NeuroTrALE permite a los investigadores procesar grandes volúmenes de datos más rápidamente. Además, sus algoritmos aprovechan la computación paralela para distribuir las tareas entre varias GPU, acelerando aún más el procesamiento. El equipo ha demostrado una reducción del 90% en el tiempo necesario para procesar 32 gigabytes de datos en comparación con los métodos de IA convencionales.

Además, el equipo ha demostrado que un aumento sustancial en el volumen de datos no implica un incremento proporcional en el tiempo de procesamiento. En un estudio reciente, un aumento del 10,000% en el tamaño del conjunto de datos resultó en solo un incremento del 9% y del 22% en el tiempo de procesamiento total, utilizando dos tipos diferentes de unidades centrales de procesamiento.

“Con aproximadamente 86 mil millones de neuronas formando 100 billones de conexiones en el cerebro humano, etiquetar manualmente todos los axones llevaría una vida entera”, comenta Benjamin Roop, uno de los desarrolladores de algoritmos del proyecto. “NeuroTrALE tiene el potencial de automatizar la creación de conectomas no solo para un individuo, sino para muchos. Esto abre la puerta al estudio de enfermedades cerebrales a nivel poblacional.”

Un camino de código abierto hacia el descubrimiento

El proyecto NeuroTrALE nació como una colaboración entre el Laboratorio Lincoln y el equipo del profesor Kwanghun Chung del MIT. Su objetivo era proporcionar una herramienta que permitiera a los investigadores analizar y extraer información útil de los vastos volúmenes de datos de imágenes cerebrales generados en el laboratorio. El equipo del Laboratorio Lincoln, con su experiencia en computación de alto rendimiento, procesamiento de imágenes e inteligencia artificial, estaba perfectamente posicionado para asumir este reto.

En 2020, NeuroTrALE fue subido a SuperCloud, una supercomputadora operada por el Laboratorio Lincoln para apoyar la investigación del MIT. Para 2022, el equipo del Laboratorio Chung ya estaba produciendo resultados significativos. En un estudio publicado en Science, utilizaron NeuroTrALE para cuantificar la densidad celular en la corteza prefrontal en relación con la enfermedad de Alzheimer, descubriendo que los cerebros afectados por la enfermedad mostraban una menor densidad celular en ciertas regiones.

El desarrollo de NeuroTrALE ha continuado con financiamiento del Laboratorio Lincoln y de los Institutos Nacionales de Salud (NIH), expandiendo sus capacidades. Actualmente, se están integrando herramientas de interfaz de usuario con Google Neuroglancer, una aplicación web de visualización de datos de neurociencia de código abierto. Esta integración permite a los usuarios visualizar y editar datos anotados de manera dinámica y colaborativa.

“NeuroTrALE ofrece una solución integral, independiente de la plataforma, que puede implementarse rápidamente en entornos de computación autónomos, virtuales, en la nube y de alto rendimiento mediante contenedores”, afirma Adam Michaleas, ingeniero del Grupo de Tecnología de Inteligencia Artificial del laboratorio. “Además, mejora significativamente la experiencia del usuario final al ofrecer capacidades de colaboración en tiempo real dentro de la comunidad neurocientífica.”

En línea con la misión del NIH, el equipo de NeuroTrALE se ha comprometido a que esta herramienta sea de código abierto y accesible para todos. Según Gjesteby, este tipo de herramienta es fundamental para alcanzar el objetivo final de mapear el cerebro humano completo, impulsando la investigación y el desarrollo de nuevos fármacos. “Es un esfuerzo comunitario en el que los datos y los algoritmos están diseñados para ser compartidos y utilizados por todos.”

El código fuente de NeuroTrALE, que incluye rastreo de axones, gestión de datos e interfaz de usuario interactiva, está disponible públicamente bajo licencias de código abierto.

Tags :

Author: Iván Torres
Author: Iván Torres

Iván Torres actualmente cuenta con una Maestría en Ciencias en Analítica de Negocios e Inteligencia Artificial Aplicada, otorgada por la Universidad de Charleston (West Virginia, USA), también es profesor de Ingeniería y Maestría en la Universidad TecMilenio, y ha contribuido en diferentes proyectos tecnológicos como analista, consultor y líder para empresas de ámbito internacional acumulando más de 15 años de experiencia en los campos de desarrollo de Software, Big Data, analítica de negocio e I.A. Editor de About Data Blog.

Deja un comentario

Related Post