(En)Cena – A Saúde Mental em Movimento

O uso do “Google médico” e de inteligências artificiais como forma de autodiagnóstico: riscos, limites e normativa

O avanço das tecnologias digitais ampliou o acesso da população a informações sobre saúde, favorecendo práticas de busca por diagnósticos e orientações clínicas sem mediação profissional. Entretanto, essa tendência — identificada popularmente como “Google Médico” — apresenta riscos substanciais do ponto de vista ético, técnico e normativo. Tanto o Conselho Federal de Medicina (CFM) quanto o Conselho Federal de Psicologia (CFP) têm se posicionado de maneira clara sobre os limites do uso da internet e de Inteligências Artificiais (IAs) na produção de diagnósticos ou condutas clínicas.

  1. Diagnóstico é ato privativo de profissional habilitado

O diagnóstico médico constitui ato complexo, privativo e regulado. O Parecer CRM/MS nº 26/2024 é explícito ao afirmar que “o diagnóstico nosológico é ato privativo do médico, não podendo ser delegado a softwares ou sistemas de inteligência artificial em razão da ausência de elementos clínicos essenciais” (CRM/MS, 2024, p. 3).

O documento ainda alerta que “não há evidência científica robusta que comprove a segurança e a efetividade clínica do uso de softwares de IA para pré-diagnóstico” (CRM/MS, 2024, p. 4), reforçando a ilegalidade e o risco ético de substituir a avaliação médica por mecanismos automatizados.

O Código de Ética Médica complementa esse entendimento ao estabelecer, em seu Capítulo I, Princípio VIII, que é vedado ao médico “deixar de utilizar todos os meios disponíveis de diagnóstico e tratamento cientificamente reconhecidos ao seu alcance em favor do paciente” (CFM, 2019). A prática do auto diagnóstico via buscadores ou IA contraria esse princípio ao gerar interpretações desconectadas da avaliação clínica.

  1. Internet e IAs não substituem exame clínico, vínculo terapêutico ou avaliação presencial

O CFM, em posicionamento oficial, aponta que “a internet não pode substituir a consulta médica”, destacando que a informação disponível online “não tem caráter clínico, não se baseia na integralidade da avaliação e não considera histórico, sinais físicos ou exames complementares” (CFM, 2016).

A Resolução CFM nº 2.314/2022, que regulamenta a telemedicina, reforça que mesmo os atendimentos mediados por tecnologia devem “assegurar os mesmos padrões éticos, técnicos e de qualidade assistencial que os presenciais” (CFM, 2022, art. 3º). Assim, diagnósticos automáticos — sem contato clínico — violam diretamente a normativa vigente.

  1. No campo da Psicologia, a IA não substitui a avaliação subjetiva, a escuta clínica ou o manejo profissional

O Conselho Federal de Psicologia tem posição igualmente firme. Em nota técnica, o CFP afirma que “tecnologias de inteligência artificial não possuem condições de substituir a atuação da/o psicóloga/o, sobretudo no que se refere ao manejo do sofrimento psíquico e à avaliação de risco” (CFP, 2023, p. 2).

O documento ainda destaca que algoritmos não são capazes de realizar “interpretação contextualizada da experiência subjetiva, compreensão histórico-social do sofrimento e estabelecimento de aliança terapêutica” (CFP, 2023, p. 3), todos componentes essenciais para avaliação psicológica.

Outro ponto central aparece na Resolução CFP nº 11/2018 (atualizada pela Resolução CFP nº 4/2022), que regula atendimentos psicológicos mediados por tecnologia. A norma determina que o uso de recursos digitais não pode comprometer “a qualidade técnica, ética e o sigilo profissional” (CFP, 2022, art. 4º). Ferramentas de IA, quando utilizadas sem controle profissional, não atendem a esses critérios.

  1. Riscos clínicos e éticos do autodiagnóstico digital

O uso indiscriminado de mecanismos digitais como substitutos da avaliação profissional está associado a quadros de ansiedade, confusão diagnóstica e atraso na busca por cuidado qualificado (Starcevic & Berle, 2013). Esse fenômeno, conhecido como cyberchondria, torna-se mais grave quando a interpretação de sintomas é automatizada por sistemas que não possuem responsabilidade ética, supervisão regulatória ou capacidade de análise clínica.

Do ponto de vista legal, o uso de IAs para diagnóstico sem respaldo profissional também coloca em risco princípios da Lei Geral de Proteção de Dados (LGPD), especialmente no que tange ao tratamento de dados sensíveis e à ausência de finalidade legítima para decisões automatizadas em saúde.

Portanto, a convergência entre tecnologia e saúde é inevitável e, quando regulada e supervisionada, pode ampliar o acesso e qualificar processos assistenciais. Entretanto, a substituição do profissional por sistemas automáticos viola normativas éticas centrais, compromete a segurança do cuidado e produz desinformação. Tanto o CFM quanto o CFP convergem na defesa de que a tecnologia deve servir como apoio, jamais como diagnóstico ou conduta autônoma.

A busca por informação online pode ser um recurso complementar, mas não configura cuidado. Como afirmam os conselhos profissionais, o diagnóstico — seja médico ou psicológico — requer complexidade, contexto, escuta, técnica e responsabilidade, elementos que apenas o encontro profissional pode garantir.

Referências

Conselho Federal de Medicina (CFM). CFM. Código de Ética Médica. Resolução CFM nº 2.217/2018. CFM. Parecer CRM/MS nº 26/2024. CFM. “Internet não pode substituir o médico”, 2016. CFM. Resolução nº 2.314/2022 (Regulamenta a Telemedicina).

Conselho Federal de Psicologia (CFP). CFP. Nota Técnica sobre Inteligência Artificial e Saúde Mental, 2023.

CFP. Resolução CFP nº 11/2018, atualizada pela Resolução CFP nº 4/2022 (Atendimento Psicológico Mediado por Tecnologia).

Starcevic, V.; Berle, D. (2013). Cyberchondria: Towards a better understanding of excessive health anxiety online.

Sair da versão mobile