Desenvolvido por especialistas da Universidade de Oxford, o DrugGPT se baseia em inteligência artificial para auxiliar médicos a prescrever medicação
A inteligência artificial, que ganhou ainda mais relevância e reconhecimento após a divulgação do ChatGPT, plataforma de processamento de linguagem natural que possibilita, a um chatbot, produzir conversas e responder perguntas de forma semelhante às realizadas por humanos, também oferece boas oportunidades para melhorar a segurança dos pacientes em diferentes ambientes de saúde.
Uma das grandes preocupações globais quando se avalia a segurança está nas falhas recorrentes de medicamentos. Na América Latina, por exemplo, a taxa média de erros de medicação é de 32% (1), sendo que o erro mais comum está relacionado à alternância significativa de horário da administração (30 minutos antes ou 30 minutos após o prescrito), seguido por erros de dose e depois por omissão.
Pensando em alternativas para reduzir esse risco de falha, especialistas da Universidade de Oxford desenvolveram uma ferramenta que se assemelha ao famoso ChatGPT, porém para dar suporte aos médicos durante a prescrição medicamentosa.
O DrugGPT, como foi intitulado, é uma interface de inteligência artificial criada para reunir dados de saúde selecionados (e, portanto, filtrados quanto à sua veracidade) que foi tema de publicação recente no The Guardian (2). A matéria reforça que médicos são humanos e, portanto, estão sujeitos a falhas que podem ser minimizadas pelo uso da tecnologia.
Como funciona a inteligência artificial de Oxford?
Funciona da seguinte forma: o médico prescritor acessa a plataforma e consegue, rapidamente, uma segunda visão sobre os medicamentos que prescreveu, além de detalhes sobre como incentivar a adesão ao tratamento, evitando falhas por conta do próprio paciente. Outra possibilidade está em descrever o caso clínico e receber, como sugestão, uma lista de medicamentos já envolvendo possíveis interações medicamentosas e efeitos colaterais, além de insights sobre referências científicas que suportam aquela indicação.
A dúvida sobre os motivos para não utilizar o próprio ChatGPT para esse auxílio também foi respondida na publicação do The Guardian. Segundo os especialistas entrevistados pelo portal, há um alto risco dessas ferramentas mais generalistas entregarem informações falsas, não validadas ou superficiais demais para garantir a segurança da prescrição. Em paralelo, o DrugGPT foi projetado para atingir um nível de desempenho que se assemelha à competência de especialistas humanos.
Independentemente da qualidade comprovada da ferramenta, é importante enfatizar que de forma alguma elimina-se a necessidade de um controle humano e do julgamento clínico dos profissionais. A indicação do DrugGPT é validar uma recomendação feita por um profissional da saúde. Algo como uma rede de segurança, o que pode ser extremamente útil em sistemas de saúde sobrecarregados, com escassez de profissionais, amplas filas e onde os médicos têm pouco tempo para as consultas.
Referências
(1) Drug administration errors in Latin America: A systematic review
(2) DrugGPT: new AI tool could help doctors prescribe medicine in England
Avalie esse conteúdo
Média da classificação 4.8 / 5. Número de votos: 4