Dr. Nasser

IA melhora a detecção de tumores cerebrais

ai-brain-cancer-scan-neurosicence-drjosenasser-aquera.jpg

Índice

 Os modelos de IA treinados em dados de ressonância magnética agora podem distinguir tumores cerebrais de tecidos saudáveis com alta precisão, aproximando-se do desempenho humano. Usando redes neurais convolucionais e aprendizado de transferência de tarefas como detecção de camuflagem, os pesquisadores melhoraram a capacidade dos modelos de reconhecer tumores.

Este estudo enfatiza a explicabilidade, permitindo que a IA destaque as áreas que identifica como cancerígenas, promovendo a confiança entre radiologistas e pacientes. Embora um pouco menos preciso do que a detecção humana, esse método demonstra a promessa da IA como uma ferramenta transparente na radiologia clínica.

Fatos importantes:

  • A IA alcançou 85,99% de precisão na detecção de câncer cerebral a partir de exames de ressonância magnética.
  • O aprendizado de transferência da detecção de camuflagem melhorou o desempenho dos modelos.
  • A abordagem enfatiza a explicabilidade, mostrando como a IA identifica tumores potenciais.

Fonte: Oxford University Press EUA

Estudo

Um novo artigo na Biology Methods and Protocols, publicado pela Oxford University Press, mostra que os cientistas podem treinar modelos de inteligência artificial para distinguir tumores cerebrais de tecidos saudáveis. Os modelos de IA já podem encontrar tumores cerebrais em imagens de ressonância magnética quase tão bem quanto um radiologista humano.

Os pesquisadores fizeram progressos sustentados em inteligência artificial (IA) para uso na medicina. A IA é particularmente promissora em radiologia, onde esperar que os técnicos processem imagens médicas pode atrasar o tratamento do paciente.

Uma característica fundamental da rede é a multiplicidade de maneiras pelas quais suas decisões podem ser explicadas, permitindo maior confiança nos modelos de profissionais médicos e pacientes.

As redes neurais convolucionais são ferramentas poderosas que permitem aos pesquisadores treinar modelos de IA em grandes conjuntos de dados de imagens para reconhecer e classificar imagens. Desta forma, as redes podem “aprender” a distinguir entre imagens. As redes também têm a capacidade de “transferir aprendizado”.

Os cientistas podem reutilizar um modelo treinado em uma tarefa para um novo projeto relacionado.

Embora a detecção de animais camuflados e a classificação de tumores cerebrais envolvam tipos muito diferentes de imagens, os pesquisadores envolvidos neste estudo acreditavam que havia um paralelo entre um animal escondido por meio de camuflagem natural e um grupo de células cancerígenas se misturando com o tecido saudável circundante.

O processo aprendido de generalização – o agrupamento de coisas diferentes sob a mesma identidade de objeto – é essencial para entender como a rede pode detectar objetos camuflados. Esse treinamento pode ser particularmente útil para detectar tumores.

Neste estudo retrospectivo de dados de ressonância magnética de domínio público, os pesquisadores investigaram como os modelos de redes neurais podem ser treinados em dados de imagens de câncer cerebral, ao mesmo tempo em que introduzem uma etapa exclusiva de aprendizado de transferência de detecção de animais de camuflagem para melhorar as habilidades de detecção de tumores das redes.

Usando ressonâncias magnéticas de repositórios públicos on-line de cérebros de controle cancerosos e saudáveis (de fontes como Kaggle, o Cancer Imaging Archive do NIH National Cancer Institute e o VA Boston Healthcare System), os pesquisadores treinaram as redes para distinguir ressonâncias magnéticas saudáveis e cancerígenas, a área afetada pelo câncer e o protótipo de aparência do câncer (que tipo de câncer parece).

Os pesquisadores descobriram que as redes eram quase perfeitas na detecção de imagens cerebrais normais, com apenas 1-2 falsos negativos, e na distinção entre cérebros cancerosos e saudáveis. A primeira rede teve uma precisão média de 85,99% na detecção de câncer cerebral, a outra teve uma taxa de precisão de 83,85%.

Uma característica fundamental da rede é a multiplicidade de maneiras pelas quais suas decisões podem ser explicadas, permitindo maior confiança nos modelos de profissionais médicos e pacientes.

Modelos profundos geralmente carecem de transparência e, à medida que o campo cresce, a capacidade de explicar como as redes executam suas decisões torna-se importante. Após essa pesquisa, a rede pode gerar imagens que mostram áreas específicas em sua classificação de tumor positivo ou negativo.

Isso permitiria que os radiologistas validassem suas próprias decisões com as da rede e adicionassem confiança, quase como um segundo radiologista robótico que pode mostrar a área reveladora de uma ressonância magnética que indica um tumor.

No futuro, os pesquisadores acreditam que será importante se concentrar na criação de modelos de rede profunda cujas decisões possam ser descritas de maneira intuitiva, para que a inteligência artificial possa ocupar um papel de suporte transparente em ambientes clínicos.

Embora as redes tenham lutado mais para distinguir entre  os tipos de câncer cerebral em todos os casos, ainda estava claro que elas tinham uma representação interna distinta na rede.

A precisão e a clareza melhoraram à medida que os pesquisadores treinaram as redes na detecção de camuflagem. O aprendizado por transferência levou a um aumento na precisão das redes.

Embora o modelo proposto com melhor desempenho tenha sido cerca de 6% menos preciso do que a detecção humana padrão, a pesquisa demonstra com sucesso a melhoria quantitativa trazida por esse paradigma de treinamento.

Os pesquisadores aqui acreditam que esse paradigma, combinado com a aplicação abrangente de métodos de explicabilidade, promove a transparência necessária em futuras pesquisas clínicas de IA.

“Os avanços na IA permitem uma detecção e reconhecimento mais precisos de padrões”, disse o principal autor do artigo, Arash Yazdanbakhsh.

“Isso, consequentemente, permite um melhor auxílio ao diagnóstico e triagem baseados em imagens, mas também exige mais explicações sobre como a IA realiza a tarefa. Buscar a explicabilidade da IA melhora a comunicação entre humanos e IA em geral.

“Isso é particularmente importante entre profissionais médicos e IA projetada para fins médicos. Modelos claros e explicáveis estão melhor posicionados para auxiliar no diagnóstico, rastrear a progressão da doença e monitorar o tratamento.”

Referência

Author: Daniel Luzer
Source: Oxford University Press USA
Contact: Daniel Luzer – Oxford University Press USA
Image: The image is credited to Neuroscience News

Original Research: Open access.
Deep Learning and Transfer Learning for Brain Tumor Detection and Classification” by Arash Yazdanbakhsh et al. Biology Methods and Protocols

Consulta com Dr Nasser pelo WhatsApp 21-985535329

Imprimir
WhatsApp
Facebook
Twitter
LinkedIn
Email