Sumário
Os sistemas de IA na área da saúde geralmente dependem de conjuntos de dados rotulados por humanos. Um novo método supera essa limitação com aprendizado auto-supervisionado para imagens de raios-X.
Os sistemas de IA para diagnóstico médico de radiografias de tórax ajudam os radiologistas a detectar doenças pulmonares ou câncer. Para treinar esses modelos de IA, os pesquisadores recorrem a algoritmos de aprendizado supervisionado. Este método de treinamento provou-se em outras áreas de análise de imagem e é considerado confiável.
Mas o aprendizado supervisionado requer dados rotulados por humanos. Na medicina, esse é um grande problema: a interpretação de imagens médicas é demorada e requer radiologistas especializados. Os dados são, portanto, um gargalo para melhorar e estender o diagnóstico de IA a outras doenças. Alguns pesquisadores, portanto, já estão experimentando modelos de IA que são pré-treinados com dados não rotulados e depois ajustados com os raros dados rotulados por especialistas.
Modelos treinados autossupervisionados estão a caminho do SOTA
Fora do diagnóstico médico, enquanto isso, modelos treinados auto-supervisionados tornaram-se predominantes para tarefas de imagem. Os primeiros exemplos, como o SEER ou o DINO da Meta e o Vision Transformer do Google, mostraram o potencial de combinar métodos de treinamento auto-supervisionado com enormes conjuntos de dados não rotulados.
Avanços como o CLIP da OpenAI destacaram os modelos centrais treinados multimodais com imagens e descrições de texto associadas que poderiam desempenhar na análise e geração de imagens. Em abril, o Google demonstrou um modelo multimodal usando o método LiT que alcançaram a qualidade de modelos treinados supervisionados no benchmark ImageNet.
Pesquisadores da Harvard Medical School e da Stanford University fizeram um grande avanço: eles estão lançando o CheXzero, um modelo de IA treinado e autossupervisionado que aprende autonomamente a identificar doenças a partir de imagens e dados de texto.
CheXzero aprende com radiografias e registros clínicos
Os pesquisadores treinaram o CheXzero com mais de 377.000 radiografias de tórax e mais de 227.000 notas clínicas associadas. A equipe então testou o modelo com dois conjuntos de dados separados de duas instituições diferentes, uma fora dos EUA, para garantir robustez com terminologia diferente.
Nos testes, o ChexZero identificou com sucesso patologias que não foram mencionadas explicitamente nas anotações feitas por especialistas humanos. O modelo superou outras ferramentas de IA auto-supervisionadas e aproximou-se da precisão dos radiologistas humanos.
“Estamos vivendo os primeiros dias da próxima geração de modelos de IA médica que são capazes de realizar tarefas flexíveis aprendendo diretamente com o texto”, disse o investigador principal do estudo Pranav Rajpurkar, professor assistente de informática biomédica no Instituto Blavatnik da HMS. “Até agora, a maioria dos modelos de IA dependia da anotação manual de grandes quantidades de dados – da ordem de 100.000 imagens – para obter um alto desempenho. Nosso método não precisa dessas anotações específicas da doença”.
CheXzero remove gargalo de dados para sistemas médicos de IA
O CheXzero aprende como os conceitos no texto não estruturado correspondem aos padrões visuais nas imagens, disse Rajpurkar. O método é, portanto, adequado para outras modalidades de imagem, como tomografia computadorizada, ressonância magnética e ecocardiografia.
“O CheXzero mostra que a precisão da interpretação de imagens médicas complexas não precisa mais permanecer à mercê de grandes conjuntos de dados rotulados”, disse o co-autor do estudo Ekin Tiu, estudante de graduação em Stanford e pesquisador visitante no HMS. “Usamos radiografias de tórax como um exemplo de condução, mas, na realidade, a capacidade do CheXzero é generalizável para uma vasta gama de configurações médicas onde dados não estruturados são a norma e incorpora precisamente a promessa de contornar o gargalo de rotulagem em larga escala que tem atormentado o campo de aprendizado de máquina médica”
O código e o modelo serão disponibilizados publicamente em GitHub e será acompanhado de uma publicação científica na Nature.