Inteligência artificial, big data e machine learning: auxílio ao processo decisório na saúde

Pamella Lima (colaboraram Teresa Santos e Dra. Ilana Polistchuck)

Notificação

25 de outubro de 2021

Não só o uso da telemedicina, mas também a pandemia de covid-19, aceleraram os processos de inteligência artificial na saúde. Esta foi a conclusão da discussão sobre o tema no 2º Congresso Virtual da Sociedade Brasileira de Patologia Clínica/Medicina Laboratorial (SBPC/ML). Para os congressistas, esse “choque no ambiente hospitalar apresentou resultados positivos, favorecendo maior eficiência e acertos nos procedimentos”.

Para introduzir os significados de inteligência artificial, big data e machine learning, o estatístico e mestre em economia Hommenig Scrivani, chefe de Dados e Analytics do grupo Dasa, resumiu: “Os tipos de dados podem ser variados como cadastro, nome, CPF, idade e até uma imagem de ressonância. No machine learning, as análises fazem uso dos algoritmos para o seu próprio desenvolvimento e a inteligência artificial é a capacidade de replicar os dados cognitivos do ser humano, ou seja, é inteligente porque replica o que o ser humano faz e é artificial porque faz isso de forma automática.”

Segundo o especialista, a grande transformação na saúde é o ponto de contato e interação que os dados podem proporcionar. “Desta forma, temos vários touchpoints. A jornada do usuário fica com pontos de contatos que proporcionam benefícios que o próprio paciente desconhece. Um dos objetivos desse processo de trabalho é fazer com que a tomada de decisão seja mais eficaz para o médico e para o paciente”, justificou.

O Dr. Edson Amaro, neurorradiologista responsável pela área de Big Data Analytics do Hospital Israelita Albert Einstein (HIAE), criada em 2016, também defendeu o poder da big data no ambiente hospitalar. Ele concordou ao dizer que o processo proporciona benefícios não apenas ao paciente, mas ao sistema de saúde em sua totalidade. [1]

Para o Dr. Edson, “o setor da saúde é o que mais demora a lidar com isso. Por outro lado, é compreensível, pois escolher o melhor filme para assistir é muito diferente de escolher a melhor terapia para determinado câncer, e tal ‘atraso’ na adoção de tecnologias é justificável pelo respeito e compromisso com a saúde”. Contudo, advertiu: “estamos em conexão global e várias das informações que geramos aqui devem ser comparadas com dados de outros locais e instituições”.

O neurorradiologista aproveitou para elucidar o conceito de armazenamento de dados utilizado no HIAE, um complexo arcabouço de informações amparado em três esferas: biologia (omix), ambiente (context) e comportamento (self). “Consideramos as vias metabólicas e todo um microbioma, além das relações e o contexto socioambiental do paciente, e até mesmo o que fazem e deixam de ação no planeta. Essas decisões são conhecidas no marketing hoje, são as migalhas, os rastros digitais. Em saúde, isso pode ser fundamental para desenhar as características e avaliar o que podemos recomendar ao paciente e o que daria mais certo”, explicou.

De acordo com o Dr. Edson, além da parte descritiva de dados pretéritos, algumas ferramentas também permitem uma ideia preditiva do que vai acontecer no futuro, mas ressaltou que predição não é sinônimo de precisão de 100%. “Não é fácil treinar um médico e um gestor de saúde em ambiente que é muito complexo. O uso requer organização e capacidade do médico, que precisa estar preparado para essas ferramentas”, disse.

O especialista contou sobre um projeto do HIAE cujo objetivo é otimizar o número de equipamentos cirúrgicos. Segundo ele, em três anos de avaliação, eles identificaram que foram realizadas 840 mil cirurgias no período, com a utilização de seis milhões de reais em equipamentos. “Quando conseguimos essa conta matemática, reduzimos em até 32% o volume de materiais e custo de equipamentos, mostrando como os dados ajudaram o gestor a tomar a melhor solução para determinada cirurgia”, afirmou.

Outro exemplo citado pelo Dr. Edson foi a criação de ferramentas que avaliam a qualidade do atendimento através do algoritmo de predição de reinternação em até 30 dias. “Essa análise preditiva foi muito usada na época do Obamacare, nos Estados Unidos. Se o paciente voltasse pela mesma causa ao hospital em um mês, o segundo pagamento não era feito, e era obrigação do hospital atendê-lo”, disse.

O médico e patologista Dr. Paulo Henrique Orlandi Mourão, falou sobre o trabalho de imunofenotipagem de neoplasias hematológicas malignas que desenvolve no Hospital das Clínicas da Universidade Federal de Minas Gerais (HC-UFMG). Ele explicou que as redes neurais convolucionais (ConvNet) são redes de cunho artificial empregadas para processamento e análise de imagens digitais. Ele lembrou que o desenvolvimento dessas redes teve início na década de 1980, baseado em estudos sobre o córtex cerebral de mamíferos; “contudo, somente a partir de 2012, elas se tornaram mais populares”, [2,3] disse.

De acordo com o especialista, “na área médica, as redes neurais convolucionais também têm despertado grande interesse na propedêutica complementar, na imaginologia e patologia. De forma geral, os trabalhos mostram que essas redes têm um desempenho equivalente a experts da área, especificamente em hematologia”, destacou. Ainda, segundo o Dr. Paulo, existe um grande interesse de aplicação dessas redes em machine learning e citologia.

Sobre seu projeto no HC-UFMG, o Dr. Paulo afirmou que o objetivo foi construir um sistema de redes convolucionais profundas para identificação de células em sangue periférico, a fim de produzir um software que pudesse captar imagens capazes de localizar células nucleadas. Para classificá-las, ele usou as recomendações do ICSH, publicadas em 2015. [4]

“Para fazer essa identificação de células nucleadas, criei um sistema de redes neurais composto por duas etapas: primeiro, fiz a localização das células na imagem e, na segunda etapa, fiz a classificação das células detectadas. Para cada etapa, usei uma arquitetura de rede diferente. Na primeira, o detector YOLO [5] e, na classificação, a arquitetura DenseNet”, relatou.

Em uma autocrítica, o patologista fez a ressalva: “o desempenho para detecção e classificação foi excelente, porém há limitações: as fotos do banco foram obtidas com a mesma câmera, mesmo microscópico, os esfregaços foram empregados no mesmo serviço, houve pouca variação da técnica de coloração e a principal limitação – um único observador. Esses fatores podem superestimar a qualidade do modelo criado. De qualquer forma, sugere que as redes neurais são eficientes”.

A sessão sobre inteligência artificial nos exames laboratoriais foi encerrada pelo consultor de tecnologia digital, mestre em engenharia civil, João Vicente Alvarenga, diretor de tecnologia da informação (TI) e Digital do Grupo Hermes Pardini, que apresentou uma visão de negócios sobre a questão. Ele mostrou casos utilizados na empresa e afirmou que hoje 89% dos exames são 100% automatizados. “Tínhamos uma necessidade de automação e inteligência para fazer 16 milhões de exames por mês. Sem tecnologia, inteligência artificial e machine learning não seria possível chegar a esses números”, disse. João Vicente também destacou uma parceria como o Google para detecção de covid-19 com radiografias e ressonâncias magnéticas: “isso foi importante na falta de reagentes para o desenvolvimento de testes no início da pandemia”, lembrou.

De acordo com o executivo, o Grupo Hermes Pardini já desenvolveu 35 modelos preditivos de diversos assuntos. “Desde melhorias de processos e redução de custos até serviços digitais B2B e B2C”, relatou. Um dos exemplos citados por ele foi a criação do Projeto Strong, presente em alguns hospitais do país, capaz de detectar quadros de acidente vascular cerebral (AVC) hemorrágico, “o que faz diferença no protocolo médico a ser adotado, ganha tempo na tomada de decisão e, consequentemente, possibilita salvar mais vidas”, finalizou.

Siga o Medscape em português no Facebook, no Twitter e no YouTube

Comente

3090D553-9492-4563-8681-AD288FA52ACE
Comentários são moderados. Veja os nossos Termos de Uso

processing....