CheXzero: Pesquisadores superam grande obstáculo no design clínico de IA

Os sistemas de IA na área da saúde geralmente dependem de conjuntos de dados rotulados por humanos. Um novo método supera essa limitação com aprendizado auto-supervisionado para imagens de raios-X.

Os sistemas de IA para diagnóstico médico de radiografias de tórax ajudam os radiologistas a detectar doenças pulmonares ou câncer. Para treinar esses modelos de IA, os pesquisadores recorrem a algoritmos de aprendizado supervisionado. Este método de treinamento provou-se em outras áreas de análise de imagem e é considerado confiável.

Mas o aprendizado supervisionado requer dados rotulados por humanos. Na medicina, esse é um grande problema: a interpretação de imagens médicas é demorada e requer radiologistas especializados. Os dados são, portanto, um gargalo para melhorar e estender o diagnóstico de IA a outras doenças. Alguns pesquisadores, portanto, já estão experimentando modelos de IA que são pré-treinados com dados não rotulados e depois ajustados com os raros dados rotulados por especialistas.

Modelos treinados autossupervisionados estão a caminho do SOTA

Fora do diagnóstico médico, enquanto isso, modelos treinados auto-supervisionados tornaram-se predominantes para tarefas de imagem. Os primeiros exemplos, como o SEER ou o DINO da Meta e o Vision Transformer do Google, mostraram o potencial de combinar métodos de treinamento auto-supervisionado com enormes conjuntos de dados não rotulados.

Avanços como o CLIP da OpenAI destacaram os modelos centrais treinados multimodais com imagens e descrições de texto associadas que poderiam desempenhar na análise e geração de imagens. Em abril, o Google demonstrou um modelo multimodal usando o método LiT que alcançaram a qualidade de modelos treinados supervisionados no benchmark ImageNet.

Pesquisadores da Harvard Medical School e da Stanford University fizeram um grande avanço: eles estão lançando o CheXzero, um modelo de IA treinado e autossupervisionado que aprende autonomamente a identificar doenças a partir de imagens e dados de texto.

CheXzero aprende com radiografias e registros clínicos

Os pesquisadores treinaram o CheXzero com mais de 377.000 radiografias de tórax e mais de 227.000 notas clínicas associadas. A equipe então testou o modelo com dois conjuntos de dados separados de duas instituições diferentes, uma fora dos EUA, para garantir robustez com terminologia diferente.

Nos testes, o ChexZero identificou com sucesso patologias que não foram mencionadas explicitamente nas anotações feitas por especialistas humanos. O modelo superou outras ferramentas de IA auto-supervisionadas e aproximou-se da precisão dos radiologistas humanos.

“Estamos vivendo os primeiros dias da próxima geração de modelos de IA médica que são capazes de realizar tarefas flexíveis aprendendo diretamente com o texto”, disse o investigador principal do estudo Pranav Rajpurkar, professor assistente de informática biomédica no Instituto Blavatnik da HMS. “Até agora, a maioria dos modelos de IA dependia da anotação manual de grandes quantidades de dados – da ordem de 100.000 imagens – para obter um alto desempenho. Nosso método não precisa dessas anotações específicas da doença”.

CheXzero remove gargalo de dados para sistemas médicos de IA

O CheXzero aprende como os conceitos no texto não estruturado correspondem aos padrões visuais nas imagens, disse Rajpurkar. O método é, portanto, adequado para outras modalidades de imagem, como tomografia computadorizada, ressonância magnética e ecocardiografia.

“O CheXzero mostra que a precisão da interpretação de imagens médicas complexas não precisa mais permanecer à mercê de grandes conjuntos de dados rotulados”, disse o co-autor do estudo Ekin Tiu, estudante de graduação em Stanford e pesquisador visitante no HMS. “Usamos radiografias de tórax como um exemplo de condução, mas, na realidade, a capacidade do CheXzero é generalizável para uma vasta gama de configurações médicas onde dados não estruturados são a norma e incorpora precisamente a promessa de contornar o gargalo de rotulagem em larga escala que tem atormentado o campo de aprendizado de máquina médica”

O código e o modelo serão disponibilizados publicamente em GitHub e será acompanhado de uma publicação científica na Nature.