IA na saúde: aliada poderosa sob escrutínio de segurança e regras mais rígidas
Adoção de IA na saúde acelera com ganhos em diagnóstico e gestão, enquanto riscos de viés, erros e governança motivam regras mais rígidas e validações contínuas no Brasil e no mundo.
A inteligência artificial avança rapidamente nos serviços de saúde, com resultados promissores em diagnóstico e gestão, mas também sob alerta de especialistas sobre riscos de erro, viés e governança. O debate — a tecnologia é aliada ou ameaça aos pacientes? — ganha força à medida que hospitais e reguladores aceleram a adoção e a criação de regras.
No cenário internacional, diretrizes publicadas em 18 de janeiro de 2024 estabeleceram princípios de ética e governança para modelos generativos aplicados à saúde. Nos Estados Unidos, a autoridade regulatória vem estruturando planos de mudança pré-determinada para dispositivos médicos com IA/ML, exigindo verificação e validação contínuas das atualizações dos algoritmos. No Brasil, desde 8 de novembro de 2024, a agência reguladora utiliza uma ferramenta de IA para agilizar a análise de impurezas em medicamentos, buscando reduzir filas sem abrir mão de qualidade e rastreabilidade. Na União Europeia, as obrigações para sistemas de IA de uso geral começaram a ser faseadas em 2025, e as regras para usos classificados como de “alto risco” — que incluem aplicações clínicas — têm cronograma inicial a partir de 2026, com proposta de extensão para 2027 em discussão.
Resultados clínicos recentes ilustram o potencial e os limites: em rastreamento de câncer de mama, um ensaio randomizado em grande escala mostrou que o apoio de IA pode manter a segurança e reduzir em cerca de 44% a carga de leitura de mamografias, com aumento na detecção de tumores iniciais. Em atendimento ao AVC, sistemas que analisam tomografias em tempo real já estão integrados a redes hospitalares, ajudando a identificar rapidamente obstruções de grandes vasos e encurtar o tempo até o tratamento. Por outro lado, estudos independentes sobre algoritmos amplamente usados para prever sepse apontaram desempenho irregular e risco de “fadiga de alertas”, reforçando a necessidade de validação externa, transparência e monitoramento pós-implantação.
Para pacientes e profissionais, os impactos vão do ganho de acesso e eficiência — com triagem mais ágil, apoio à decisão clínica e redução de tarefas administrativas — ao desafio de evitar vieses contra populações sub-representadas, resguardar privacidade e prevenir dependência excessiva das recomendações automatizadas. Hospitais e startups que adotarem IA precisarão demonstrar benefício clínico mensurável, explicabilidade adequada ao uso e processos de gestão de risco alinhados às normas vigentes.
Os próximos passos incluem a consolidação de padrões de avaliação de desempenho e segurança, auditorias de impacto, interoperabilidade com prontuários e maior harmonização regulatória entre países. Enquanto isso, a recomendação dominante é cautela ativa: implementar projetos-piloto com métricas claras, ampliar a diversidade dos dados de treino e garantir supervisão humana significativa em todo o ciclo de vida dos sistemas de IA.
Compartilhar
Qual é a sua reação?
Curtir
1
Não Gostei
0
Amei
1
Engraçado
0
Com Raiva
0
Triste
0
Uau
0
