O Conselho Federal de Medicina (CFM) publicou uma resolução que regula o uso de inteligência artificial na prática clínica brasileira. Entre os pontos, está a atribuição da responsabilidade final aos médicos e a definição de IA como ferramenta de apoio, não substituição da autoridade médica por decisões automatizadas.
A norma estabelece que o médico pode recusar sistemas que não possuam validação científica ou certificação regulatória adequada e pode não seguir recomendações algorítmicas se não forem compatíveis com o caso. O texto também reforça que o profissional continua responsável pelas decisões diagnósticas, terapêuticas e prognósticas, mesmo quando a IA oferece apoio.
É obrigatório registrar em prontuário o uso de IA como suporte à decisão clínica e informar o paciente, de forma clara, quando sistemas de IA forem relevantes para o cuidado, respeitando eventual recusa do paciente.
A norma classifica os sistemas em quatro níveis de risco: baixo, médio, alto e inaceitável. Soluções de baixo risco incluem aplicações administrativas, como agendamento; as de alto risco influenciam decisões clínicas críticas e exigem validação rigorosa, auditorias periódicas e monitoramento contínuo.
Na governança, hospitais e clínicas que desenvolvam ou contratem IA devem instituir controles internos e, se for o caso, criar uma Comissão de IA e Telemedicina sob a diretoria técnica. A norma prevê auditorias especializadas, monitoramento permanente e avaliação de impacto algorítmico ao longo do ciclo de vida da tecnologia, desde o desenvolvimento até eventual descontinuação.
A proteção de dados ocupa capítulo específico; o CFM orienta que o tratamento de informações de saúde observe a LGPD e adote privacy by design e privacy by default. O uso de dados para treinamento de modelos deve respeitar bases legais adequadas e padrões mínimos de segurança, sendo vedada a utilização de sistemas que não garantam proteção compatível com a sensibilidade dos dados médicos.
A norma trata de vieses discriminatórios, exigindo monitoramento contínuo para identificar e corrigir resultados que possam gerar tratamento desigual entre pacientes; se o viés não puder ser mitigado, o sistema deverá ser descontinuado. Órgãos de controle e conselhos regionais poderão acessar relatórios de auditoria e informações técnicas necessárias à fiscalização.
Na exposição de motivos, o CFM afirma que a regulamentação busca equilibrar inovação e segurança, com base em princípios como beneficência, autonomia e justiça, e que a IA deve ampliar eficiência e qualidade da assistência sem comprometer a relação médico-paciente nem diluir a responsabilização profissional.