Una herramienta de aprendizaje profundo sigue a los animales que interactúan en tiempo real


Posa: Una herramienta de aprendizaje profundo llamada SLEAP rastrea automáticamente la posición de varios animales en clips de vídeo./ Cortesía de Talmo Pereira/Instituto de Estudios Biológicos Talk



POR NIKO MCCARTY

Fuente: Spectrum | 27/04/2022

Fotografía: Autism Spectrum



Una nueva herramienta de código abierto permite a los investigadores seguir los movimientos de varios animales en tiempo real


Una nueva herramienta de código abierto permite a los investigadores seguir los movimientos de varios animales en tiempo real. La integración de la herramienta con la optogenética, una técnica que utiliza la luz para controlar grupos de neuronas, también permite activar regiones del cerebro en respuesta a señales específicas -interacción social o agresión, por ejemplo- y sondear qué circuitos neuronales desempeñan un papel causal.


La herramienta, denominada Social LEAP Estimates Animal Poses (SLEAP), realiza un seguimiento de las partes del cuerpo de los animales en lugar del cuerpo en su conjunto. Esta capacidad es importante porque "podemos detectar tipos mucho más sutiles de comportamientos clave, como el tipo de cosas que se ven en los modelos [de autismo]", dice el investigador del estudio Talmo Pereira, miembro del Instituto Salk de Estudios Biológicos en La Jolla, California.


Los científicos han utilizado el SLEAP, descrito en Nature Methods en abril y disponible gratuitamente en Internet, para estudiar ratones, jerbos, abejas, moscas de la fruta y muchas otras formas de vida. "La gente ha utilizado SLEAP para rastrear células individuales", dice Pereira. "También se ha utilizado para rastrear ballenas. En este sentido, abarca toda la gama". Pereira publicó una versión anterior de la herramienta en septiembre de 2020, como preimpresión.


Para utilizar la herramienta, los investigadores primero anotan manualmente un subconjunto de fotogramas de vídeo, etiquetando la cabeza, la cola, las extremidades o cualquier otra parte del cuerpo de cada animal. El algoritmo aprende de esas anotaciones y anota automáticamente el resto del clip.


SLEAP es más rápido que otras herramientas de aprendizaje automático que controlan grupos de animales, como Multi-Animal DeepLabCut (publicado en el mismo número de Nature Methods), con un retraso de sólo 3,2 milisegundos. Es aproximadamente el mismo tiempo que tarda un potencial de acción en recorrer una neurona.


Según Pereira, este breve retardo abre una gran variedad de aplicaciones de investigación. "El hecho de que ahora podamos realizar una modulación en bucle cerrado, activada por el comportamiento, en tiempo real y con múltiples animales, es algo único".


Cuando se realiza el seguimiento de un solo animal, SLEAP es preciso en un 90% de los datos y puede procesar 2.194 fotogramas de vídeo por segundo. Estas métricas descienden, como era de esperar, cuando se trata de varios animales. En los vídeos de moscas y ratones que interactúan, SLEAP puede procesar más de 750 y 350 fotogramas por segundo, respectivamente. Cuando SLEAP "aprende" a partir de sólo 200 fotogramas de vídeo etiquetados manualmente, su rendimiento es aproximadamente un 90 por ciento superior al de un modelo entrenado con miles de fotogramas de vídeo.


Como prueba de concepto, Pereira y sus colegas han conseguido que determinadas neuronas de las moscas hembras no apareadas expresen un canal iónico llamado CsChrimson que desencadena un potencial de acción cuando es golpeado por un pulso de luz. Añadieron CsChrimson sólo a las neuronas que controlan un mecanismo de defensa, llamado extrusión del ovipositor, que ayuda a las hembras apareadas a rechazar a posibles pretendientes. En la naturaleza, las moscas no apareadas no suelen utilizar este mecanismo de defensa.


El SLEAP rastreó automáticamente cuando una mosca macho se acercaba a la hembra con CsChrimson. La herramienta emitió un pulso de luz en respuesta, los potenciales de acción se dispararon y las moscas no apareadas bloquearon reflexivamente al macho entrante para que no copulara, todo ello en tiempo real.


En los ratones que modelan el autismo y se acicalan excesivamente -un indicador de los comportamientos repetitivos de las personas que padecen esta enfermedad- los investigadores podrían utilizar la nueva herramienta para seguir a los animales y "apagar esas neuronas cuando [los ratones] empiezan a rascarse", dice Sam Golden, profesor adjunto de neurociencia de la Universidad de Washington en Seattle, que no participó en el estudio. Si los animales "se detienen inmediatamente, eso sugiere una relación causal muy fuerte entre la población de neuronas que nos interesa y el resultado del comportamiento".


Los investigadores sin experiencia en programación pueden utilizar SLEAP, que se ha construido íntegramente con el lenguaje de programación Python. Pereira afirma que ya se está "utilizando en al menos 70 laboratorios de 58 universidades" y que se ha descargado unas 40.000 veces, lo que sugiere que existe una comunidad considerable que ayuda a resolver problemas y a solucionar errores.


Utilizar la configuración existente de la herramienta, sin ningún ajuste, funciona para aproximadamente "el 95 por ciento de las aplicaciones", dice Pereira. El paquete de software contiene herramientas integradas para procesar vídeos, entrenar el modelo y evaluar la precisión de las anotaciones en vídeo. Y los equipos pueden exportar los datos de SLEAP y utilizarlos para entrenar algoritmos de clasificación del comportamiento, como SimBA, para predecir cuándo un animal está enterrando una canica, por ejemplo, o atacando a otro ratón.


La semana pasada, Pereira recibió un correo electrónico en el que un profesor decía que su estudiante había sido capaz de configurar SLEAP y utilizarlo para rastrear datos en menos de una hora. Y "en otros 30 minutos, entrenaron a su estudiante de pregrado para que fuera capaz de hacerlo por sí mismo de forma autónoma, lo que me pareció bastante satisfactorio", dice Pereira. "Eso es realmente lo que estamos construyendo".


Cite este artículo: https://doi.org/10.53053/IWUZ4231


https://www.spectrumnews.org/news/toolbox/deep-learning-tool-tracks-interacting-animals-in-real-time/?utm_source=Spectrum+Newsletters&utm_campaign=c8d787a8b2-EMAIL_CAMPAIGN_2022_04_26_07_01&utm_medium=email&utm_term=0_529db1161f-c8d787a8b2-169086874




38 visualizaciones0 comentarios

Entradas Recientes

Ver todo