https://www.facebook.com/AutismoVivo0/
top of page
Foto del escritorautismoenvivo

El aprendizaje automático agiliza el análisis de datos de neuroimagen


Vía rápida: Una nueva técnica establece un mapa de las líneas de procesamiento de imágenes que probablemente produzcan resultados precisos (en rojo) frente a las que son menos prometedoras (en azul).



POR SARA DEWEERDT

Fuente: Spectrum | 15/08/2022

Fotografía: Autism Spectrum



Un nuevo método guiado por ordenador puede indicar a los investigadores las técnicas más prometedoras para procesar sus datos de neuroimagen


Un nuevo método guiado por ordenador puede indicar a los investigadores las técnicas más prometedoras para procesar sus datos de neuroimagen. Este método podría ayudar a resolver el problema de la escasa reproducibilidad de los estudios de imágenes cerebrales sobre el autismo, según un nuevo artículo.


Los llamados "pipelines" para analizar los datos de imágenes cerebrales pueden diferir en la forma de eliminar el ruido, dividir el cerebro en secciones y definir la conectividad, entre otras variables. "Muchas de esas decisiones de diseño del análisis pueden cambiar los resultados de todo tipo. Así que acabamos con esta literatura realmente fragmentada", afirma el investigador principal, Robert Leech, profesor de análisis de neuroimagen en el King's College de Londres (Reino Unido).


Pero cuando los investigadores recopilan nuevas imágenes cerebrales para su análisis, no siempre está claro cuál es el procedimiento más adecuado. Algunos investigadores siguen el mismo procedimiento sin importar lo que hagan. Otros optan por muchas líneas diferentes, pero ese enfoque requiere mucha potencia de cálculo, puede causar problemas estadísticos al analizar los mismos datos varias veces y puede dar resultados que se "sobreajusten" a una pequeña cantidad de datos y no se generalicen.


Leech y sus colegas desarrollaron un proceso computacional en dos pasos para salir de este atolladero.


En el primer paso, para cualquier conjunto de imágenes cerebrales, un algoritmo bien establecido crea un mapa de todas las diferentes líneas de análisis que podrían utilizarse. Las líneas que tienden a producir resultados similares se agrupan en el mapa, independientemente de las técnicas que empleen.


A continuación, el aprendizaje automático pone a prueba el rendimiento de unas pocas líneas de análisis de diferentes regiones del mapa en un subconjunto de datos para seleccionar las más eficaces. A partir de este muestreo, el algoritmo estima el rendimiento de otras tuberías cercanas e identifica los grupos más precisos.


"Toma un conjunto de datos y busca entre muchos análisis posibles en una pequeña sección del mismo, y luego puede tomar la consecuencia de ese análisis para informar un análisis de la porción más grande" de los datos, dice el miembro del equipo de estudio Jonathan Smallwood, profesor de psicología en la Universidad de Queen en Kingston, Ontario, Canadá. "Este enfoque es muy inteligente porque significa que nunca hay que comprometerse".


El trabajo se publicó en junio en Nature Communications, y los investigadores han puesto el código del mismo a disposición del público en Internet.


Dependiendo del objetivo de un estudio, los investigadores pueden utilizar el método de forma exploratoria, para trazar un mapa exhaustivo de las posibilidades de las tuberías, o de forma explotativa, para identificar la tubería de mayor rendimiento con el menor número de muestras posible. Los investigadores afirman que el método básico podría utilizarse para responder a una gran variedad de preguntas sobre imágenes funcionales y estructurales.


El método es una solución "elegante" al problema de elegir una línea de procesamiento, dice Annika Linke, profesora asistente de investigación en los Laboratorios de Imágenes del Desarrollo Cerebral de la Universidad Estatal de San Diego (California), que no participó en el estudio. "Es un enfoque basado en principios y transparente para identificar cómo se relacionan las diferentes opciones de análisis y cómo afectan a los resultados que, dado el código compartido abiertamente, podría aplicarse fácilmente a futuros estudios".


Para demostrar sus capacidades, Leech y su equipo analizaron dos conjuntos de datos de conectividad funcional existentes.


En un análisis de 520 escaneos de 298 personas de 14 a 26 años, los investigadores utilizaron su método para cribar 544 líneas diferentes e identificar las que mejor predecían la edad de una persona. En otro análisis, introdujeron los datos de 406 personas autistas y 476 neurotípicas del Autism Brain Imaging Data Exchange en 384 líneas de análisis diferentes para identificar las que mejor distinguían entre los dos grupos.


El objetivo del ejercicio era mostrar cómo funciona el método y cómo puede utilizarse, no identificar la mejor línea de análisis en cada caso. (No existe tal cosa, dicen los investigadores).


Aun así, el análisis reveló algunos patrones interesantes. En el caso del conjunto de datos sobre el autismo, por ejemplo, la forma en que una canalización dividía el cerebro en regiones más pequeñas no afectaba significativamente a los resultados, pero sí lo hacían las definiciones de conectividad.


Todavía hay muchas razones -como las diferencias de edad entre las cohortes, la heterogeneidad del autismo, etc.- por las que los estudios de imágenes cerebrales del autismo pueden arrojar resultados dispares que no se pueden abordar con este método, advierte Linke. Sin embargo, dice, el método es lo suficientemente prometedor como para que planee aplicarlo a uno de los conjuntos de datos de su laboratorio.


Cite este artículo: https://doi.org/10.53053/VYIR9955





37 visualizaciones0 comentarios

Entradas Recientes

Ver todo

Sufrir

Commentaires

Noté 0 étoile sur 5.
Pas encore de note

Ajouter une note
bottom of page