Por Marcos Tadeu Machado
A Inteligência Artificial (IA) não é novidade e tem um papel cada vez mais importante no futuro da saúde, podendo ter um impacto significativo na melhoria do atendimento ao paciente, eficiência operacional e redução de custos.
Mas, à medida que os temores sobre o potencial disruptivo da IA aumentaram, a ética na IA ganhou destaque, nos últimos anos. Preocupações com privacidade, transparência e capacidade dos algoritmos de distorcer o discurso social e político de maneiras inesperadas resultaram em uma enxurrada de pronunciamentos de governos e organizações e instituições internacionais sobre como conduzir o desenvolvimento ético de tecnologias disruptivas na saúde. No Brasil, o Instituto Ética Saúde é uma delas.
A IA pode ser usada em diagnósticos médicos e tratamentos, onde sistemas usam dados de pacientes para ajudar a identificar sintomas e doenças que podem ser difíceis de detectar pelos médicos; ajudar a desenvolver drogas potenciais mais rapidamente e com maior precisão; realizar monitoramento de sinais vitais em tempo real; assistência robótica em cirurgias; triagem de pacientes em tempo real e atendimento ao cliente por meio de chatbots (software capaz de manter uma conversa com um usuário humano em linguagem natural). E essas tecnologias devem continuar a evoluir e encontrar novas aplicações, proporcionando melhores resultados para pacientes e profissionais de saúde.
A ética no uso da inteligência artificial na saúde é fundamental para garantir que a tecnologia seja utilizada de forma justa, transparente e respeitosa com as pessoas envolvidas. Neste sentido, é preciso criar parâmetros e responsabilidades. Enumeramos várias questões a serem consideradas:
1) Privacidade e proteção de dados: É importante garantir que os dados dos pacientes sejam processados e armazenados de forma segura e de acordo com as regulamentações aplicáveis para proteger a privacidade dos pacientes;
2) Viés algorítmico: Os algoritmos de IA são treinados com base em dados. Se esses dados forem tendenciosos, o algoritmo também será tendencioso. É crucial garantir que os dados utilizados sejam representativos da diversidade da população e que os algoritmos sejam monitorados quanto a possíveis vieses;
3) Responsabilidade e tomada de decisão: Os sistemas de IA devem ser transparentes e responsáveis em suas decisões, especialmente quando se trata de diagnósticos e tratamentos de saúde. É importante que os profissionais de saúde que usam esses sistemas entendam como eles funcionam e devem ser responsáveis por suas decisões finais;
4) Consentimento dos pacientes: Os pacientes devem ser informados de como seus dados serão usados e terem a opção de optar por não participar de serviços que usam inteligência artificial.
Em resumo, a ética deve ser considerada em todas as fases do desenvolvimento e implantação da IA na saúde, garantindo que a tecnologia seja usada de forma responsável, transparente e não discriminatória. Desta maneira, todos sairão ganhando!
Marcos Tadeu Machado é membro do Conselho de Administração do Instituto Ética Saúde e um dos seus fundadores.
* A opinião manifestada é de responsabilidade do autor e não é, necessariamente, a opinião do IES
É isso aí, Sr. Marcos! Se nós prepararmos para o futuro, para as novas tecnologias, saberemos aproveitá-las melhor, usando apenas para o bem dos pacientes! Parabéns pelo texto!