Por Marcos Tadeu Machado
A Organização Mundial da Saúde (OMS) tem chamado a atenção para a importância de garantir o uso seguro e ético da inteligência artificial (IA), na área da saúde. A rápida expansão de modelos de linguagem gerados por IA (LLMs), como ChatGPT, Co-Pilot, Bard e outras, tem despertado entusiasmo em relação ao seu potencial para apoiar as necessidades de saúde das pessoas.
É fundamental que os riscos sejam cuidadosamente examinados ao utilizar LLMs para melhorar o acesso à informação de saúde, auxiliar na tomada de decisões ou aprimorar o diagnóstico em locais com recursos limitados, com o objetivo de proteger a saúde e reduzir a desigualdade.
A OMS reconhece a importância de tecnologias, incluindo LLMs, para apoiar profissionais de saúde, pacientes, pesquisadores e cientistas. No entanto, há preocupações de que a cautela adequada, geralmente exercida ao lidar com novas tecnologias, não esteja sendo aplicada consistentemente aos LLMs. Isso inclui a adesão a valores-chave como transparência, inclusão, envolvimento público, supervisão especializada e avaliação rigorosa.
A adoção precipitada de sistemas de IA não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes e minar a confiança na IA. Portanto, é necessário um rigoroso controle e supervisão para garantir o uso seguro, eficaz e ético dessas tecnologias. Alguns dos principais pontos a serem observados incluem:
– Os dados utilizados para treinar a IA podem ser tendenciosos, gerando informações enganosas ou imprecisas que representam riscos para a saúde, equidade e inclusão;
– Os LLMs geram respostas que parecem confiáveis e plausíveis para os usuários, mas que podem estar totalmente incorretas ou conter erros graves, especialmente em questões relacionadas à saúde;
– Os LLMs podem ser treinados com dados para os quais o consentimento adequado não tenha sido obtido e não oferecem proteção suficiente para dados confidenciais, como informações de saúde, fornecidas pelos usuários durante a geração de respostas;
– Os LLMs podem ser utilizados indevidamente para gerar e disseminar desinformação altamente convincente, seja por meio de texto, áudio ou vídeo, tornando difícil para o público distinguir informações confiáveis de saúde.
É essencial que sejam estabelecidos rigorosos protocolos e regulamentações para garantir que essas ferramentas sejam utilizadas de maneira segura, ética e eficaz, protegendo o bem-estar humano, a segurança e a autonomia, além de preservar a saúde pública.
Marcos Tadeu Machado é membro do Conselho de Administração do Instituto Ética Saúde e um dos seus fundadores.
* A opinião manifestada é de responsabilidade do autor e não é, necessariamente, a opinião do IES