A análise comportamental pode fornecer muitas informações sobre o estado de saúde ou as motivações de um ser vivo. Uma nova tecnologia desenvolvida na EPFL torna possível que um único modelo de aprendizagem profunda detecte o movimento de animais em muitas espécies e ambientes. Este -modelo fundamental-, denominado SuperAnimal, pode ser usado para conservação animal, biomedicina e pesquisas em neurociências.
Embora exista o ditado, -direto da boca do cavalo-, é impossível fazer com que um cavalo lhe diga se está com dor ou se está feliz. No entanto, o seu corpo expressará a resposta nos seus movimentos. Para um olho treinado, a dor se manifestará como uma mudança na marcha ou, no caso da alegria, as expressões faciais do animal poderão mudar. Mas e se pudermos automatizar isso com IA? E quanto aos modelos de IA para vacas, cães, gatos ou até ratos? Automatizar o comportamento animal não apenas elimina o preconceito do observador, mas também ajuda os humanos a chegar à resposta certa com mais eficiência.
Hoje marca o início de um novo capítulo na análise de postura para fenotipagem comportamental. O laboratório de Mackenzie Mathis na EPFL publica um artigo da Nature Communications descrevendo uma nova ferramenta de código aberto particularmente eficaz que não requer anotações humanas para fazer com que o modelo rastreie animais. Chamado -SuperAnimal-, ele pode reconhecer automaticamente, sem supervisão humana, a localização de -pontos-chave- (normalmente articulações) em uma ampla gama de animais – mais de 45 espécies animais – e até mesmo em espécies míticas!
“O pipeline atual permite que os usuários personalizem modelos de aprendizagem profunda, mas isso depende do esforço humano para identificar pontos-chave em cada animal para criar um conjunto de treinamento”, explica Mackenzie Mathis. -Isso leva a esforços de rotulagem duplicados entre os pesquisadores e pode levar a diferentes rótulos semânticos para os mesmos pontos-chave, tornando a fusão de dados para treinar grandes modelos básicos muito desafiadora. Nosso novo método fornece uma nova abordagem para padronizar esse processo e treinar conjuntos de dados em grande escala. Também torna a rotulagem 10 a 100 vezes mais eficaz do que as ferramentas atuais.-
O método -SuperAnimal é uma evolução de uma técnica de estimativa de pose que o laboratório Mackenzie Mathis já havia distribuído sob o nome “DeepLabCut”. Você pode ler mais sobre esta ferramenta revolucionária e sua origem neste novo recurso tecnológico da Nature.
-Aqui, desenvolvemos um algoritmo capaz de compilar um grande conjunto de anotações em bancos de dados e treinar o modelo para aprender uma linguagem harmonizada – chamamos isso de pré-treinamento de modelo básico,- explica Shaokai Ye, pesquisador candidato a doutorado e primeiro autor do estudo. -Em seguida, os usuários podem simplesmente implantar nosso modelo básico ou ajustá-lo em seus próprios dados, permitindo maior personalização, se necessário.-
Esses avanços tornarão a análise de movimento muito mais acessível. -Os veterinários poderiam estar particularmente interessados, assim como os da pesquisa biomédica – especialmente quando se trata de observar o comportamento de ratos de laboratório. Mas pode ir mais longe,- diz Mackenzie Mathis, mencionando a neurociência e… atletas (caninos ou não)! Outras espécies – aves, peixes e insetos – também estão no âmbito da próxima evolução do modelo. -Também aproveitaremos esses modelos em interfaces de linguagem natural para construir ferramentas ainda mais acessíveis e de próxima geração. Por exemplo, Shaokai e eu, junto com nossos coautores da EPFL, desenvolvemos recentemente o AmadeusGPT, publicado recentemente na NeurIPS, que permite consultar dados de vídeo com texto escrito ou falado. Expandir isso para análises comportamentais complexas será muito emocionante.- SuperAnimal agora está disponível para pesquisadores em todo o mundo por meio de sua distribuição de código aberto ( github.com/DeepLabCut ).
Referências
Modelos de estimativa de pose pré-treinados SuperAnimal para análise comportamental, por Ye et. al., Nature Communications, 12 de junho de 2024, DOI: 10.1038/s41467’024 -48792-2