Saúde
Inteligência Artificial pode ajudar médicos nos diagnósticos
E não é só no raciocínio lógico: A Inteligência Artificial supera a maioria dos humanos em tarefas de pensamento criativo.
Diagnóstico médico por IA
Depois de mostrar uma capacidade limitada para recomendar tratamentos de câncer, os programas de inteligência artificial começaram a melhorar e agora já superam os médicos no diagnóstico de pacientes no pronto-socorro.
Fazendo valer a velha máxima de “Se não puder ir contra eles, junte-se a eles”, cientistas concluíram agora que já é humanamente inteligente que os médicos usem a inteligência artificial para lhes auxiliar na tomada de decisões clínicas. Isto porque os programas de computador são muito melhores do que os humanos no raciocínio lógico, quando se trata de ponderar as coisas.
“Os humanos têm muita dificuldade com o raciocínio probabilístico, a prática de tomar decisões baseadas no cálculo de probabilidades,” disse o Dr. Adam Rodman, coordenador do estudo. “O raciocínio probabilístico é um dos vários componentes da elaboração de um diagnóstico, que é um processo incrivelmente complexo que utiliza uma variedade de estratégias cognitivas diferentes. Optamos por avaliar o raciocínio probabilístico isoladamente porque é uma área bem conhecida onde os humanos poderiam obter apoio.”
Baseando seu estudo em uma pesquisa nacional publicada anteriormente, envolvendo mais de 550 profissionais decidindo cinco casos médicos que envolviam raciocínio probabilístico, Rodman e seus colegas consultaram o ChatGPT-4 com a mesma série de casos, e repetiram a consulta 100 vezes, com pequenas variações, para que o sistema de inteligência artificial gerasse uma série de respostas.
E não é só no raciocínio lógico: A Inteligência Artificial supera a maioria dos humanos em tarefas de pensamento criativo.
Como o ChatGPT se sai nas respostas sobre o câncer?
IA vence em ponderações lógicas
Os casos envolviam estimar a probabilidade de um determinado diagnóstico com base na apresentação dos pacientes e na análise de exames: Radiografia do tórax para pneumonia, mamografia para câncer de mama, teste de estresse para doença arterial coronariana e cultura de urina para infecção do trato urinário.
Quando os resultados dos exames eram positivos, o chatbot só foi ligeiramente melhor. O ChatGPT-4 foi mais preciso em fazer diagnósticos do que os médicos humanos em dois casos, igualmente preciso em dois casos e menos preciso em um caso. Mas, quando os exames deram negativo, o chatbot brilhou, demonstrando mais precisão no diagnóstico do que os médicos humanos em todos os cinco casos.
“Os seres humanos às vezes sentem que o risco é maior do que após um resultado de teste negativo, o que pode levar a tratamento excessivo, mais exames e medicamentos demais,” disse Rodman.
Visando o aspecto prático, no entanto, o pesquisador acrescenta que não se trata de colocar um contra o outro: O interessante aqui é a colaboração.
“Os Grandes Modelos de Linguagem não podem acessar o mundo exterior – eles não calculam probabilidades da mesma forma que os epidemiologistas, ou mesmo os jogadores de pôquer. O que eles estão fazendo tem muito mais em comum com a forma como os humanos tomam decisões probabilísticas pontuais. Mas é isso que é empolgante. Mesmo que imperfeitos, sua facilidade de uso e capacidade de integração em fluxos de trabalho clínicos podem, teoricamente, fazer com que os humanos tomem decisões melhores,” concluiu ele.