A saúde é uma das áreas de conhecimento que mais desenvolve e aplica tecnologia. O uso de estratégias como inteligência artificial e machine learning, por exemplo, tem sido a cada dia mais comum, inclusive nas áreas clínicas. Porém, é sempre necessário lembrar que paralelamente à inovação vem a evolução dos desafios.
Com base na extração e análise de dados é possível até mesmo incrementar a segurança do paciente, já que algoritmos muito bem planejados surgem como excelentes preditores de risco.
Mas como esses algoritmos funcionam? Esses modelos são capazes de criar correlações entre variáveis do paciente e seus dados clínicos. Um algoritmo que pode prever um iminente episódio de hipotensão, identificando sinais e sintomas fisiológicos que geralmente antecedem esse evento.
Porém, para que essa predição seja confiável, é preciso dedicar esforços na construção dos algoritmos, mas também em sistemas de monitoramento e atualização constante desses modelos.
Um trabalho recentemente publicado por pesquisadores da Universidade da Califórnia junto ao Massachusetts Institute of Technology (MIT) analisou todo o empenho para a construção e manutenção de bons algoritmos para atendimento às áreas clínicas.
Entre os tópicos listados, importante destacar um deles: algoritmos são excelentes para populações homogêneas, mas podem ser um risco em populações heterogêneas. Isso significa que a eficácia desses modelos preditores pode ser muito alta no contexto em que ele foi criado, porém, quando extrapola essa margem, chegando a um ambiente clínico altamente dinâmico, podem surgir problemas.
Paralelamente ainda existem variáveis que podem impactar na segurança da informação gerada pelos algoritmos. Entre as variáveis estão, por exemplo, divergências entre parâmetros fisiológicos de determinadas marcas de equipamentos ou sistemas de saúde, além de mudanças nos protocolos e diretrizes.
Portanto, para garantir que os modelos estejam adequados, evitando quedas de desempenho, é preciso monitorá-los. Com um bom sistema de monitoramento, sempre que surgir uma variável ou, por exemplo, ocorrer algum evento que impacte a leitura, um alarme será soado para que a equipe entre com a verificação e posterior correção.
Essa atualização, que deve estar sempre em dia, é considerada também uma estratégia de melhoria de qualidade. Estar atento a mudanças para garantir que aquele algoritmo represente a realidade atual daquele sistema é primordial. Para tal, a Food and Drug Administration (FDA), agência reguladora dos Estados Unidos, propõe a criação de um protocolo para validação dos algoritmos e suas atualizações.
Esse protocolo, direcionado à indústria de dispositivos médicos, lista os métodos que devem ser utilizados para o controle de riscos em decorrência das modificações que precisam ser feitas periodicamente. É ele quem descreve o mecanismo pelo qual essa atualização chegará ao seu objetivo, garantindo a eficácia e a segurança. Ele considera:
- Métricas de desempenho
- Complexidade das atualizações
- Frequência das atualizações
- Qualidade dos dados para a atualização
Hoje em dia, segundo o estudo, são poucos os softwares disponíveis para monitoramento e manutenção de algoritmos, portanto, esse é um mercado relevante e que precisa ser mais explorado. Tanto que o texto questiona até mesmo um certo conflito de interesses, já que a indústria responsável por criar o algoritmo acaba sendo a mesma que irá avaliá-lo nos meses seguintes.
Para sanar um pouco dessa questão, o estudo descreve a importância deste trabalho ser comandado por uma equipe transversal composta por desenvolvedores, médicos, profissionais de saúde e de TI, bioestatísticos e por membros das agências reguladoras. Em hospitais sugere a criação de um departamento específico para desenvolver, implantar e monitorar esses algoritmos com inteligência artificial.
Referências:
Avalie esse conteúdo
Média da classificação 0 / 5. Número de votos: 0