Receber o resultado do exame de sangue por e-mail pode ser um momento estressante. Muitos se deparam com termos médicos desconhecidos, como “leucócitos”, “hematócrito” e “PCR elevado”, e é comum sentir ansiedade. Antes, a tentação era pesquisar no “Dr. Google”, o que muitas vezes gerava pânico. Agora, uma nova opção surge: usar ferramentas de Inteligência Artificial (IA) como o ChatGPT ou o Gemini para perguntar diretamente sobre os resultados.
Entretanto, é preciso ter cuidado. A IA pode ser uma ferramenta útil, mas também pode apresentar riscos, dependendo de como é utilizada. O principal objetivo é entender como usá-la de forma segura.
O lado positivo da IA: um “Tradutor de Mediquês”
Os problemas começam quando tentamos usar a IA como se fosse um médico. Sabendo disso, podemos aproveitar a tecnologia de forma benéfica. A IA se destaca como uma ponte que ajuda na compreensão de termos médicos que são difíceis para a maioria das pessoas.
Aqui estão algumas maneiras seguras de usar a IA:
-
Compreensão de termos técnicos: Você pode perguntar, por exemplo, “O que significa triglicérides e por que eles aumentam?” A IA fornecerá uma explicação clara e acessível.
-
Resumo de bulas: Ao solicitar informações sobre os efeitos colaterais mais comuns de um medicamento ou o melhor horário para tomá-lo, a IA pode te ajudar – mas é sempre importante comparar com as orientações do médico.
-
Preparação para consultas: Ao se dirigir ao cardiologista, você pode perguntar: “Quais são as perguntas importantes sobre pressão alta que devo fazer?” Isso torna a consulta mais produtiva.
O lado negativo da IA: Diagnósticos imprecisos
O problema surge quando tentamos ter diagnósticos médicos com o auxílio da IA. Um fenômeno preocupante chamado “alucinação” pode ocorrer, onde a IA apresenta informações que parecem verdadeiras, mas são completamente falsas. Dados alarmantes revelam que a taxa dessas “alucinações” varia de 33% a 79%, dependendo do modelo da IA. Além disso, em testes de diagnósticos pediátricos, o ChatGPT acertou apenas 17% dos casos.
Um caso real exemplifica o perigo: um homem de 60 anos foi hospitalizado após a IA sugerir substituir o sal de cozinha por “brometo de sódio”, uma substância tóxica que causou problemas neurológicos graves. Isso ocorreu porque a IA não diferenciou entre similaridade química e segurança para consumo.
A questão central é que a IA não leva em conta informações crucial como histórico familiar, sintomas associados ou características pessoais, como idade e tipo de pele. Um exame isolado não conta toda a história, e a IA pode oferecer diagnósticos errôneos que poderiam atrasar cuidados médicos necessários.
Diretrizes da OMS para o uso de IA na saúde
A Organização Mundial da Saúde (OMS) publicou diretrizes éticas sobre o uso de IA na saúde, destacando um princípio fundamental: Use a tecnologia para se informar, nunca para se diagnosticar. Isso garante que a autonomia do paciente e a supervisão médica sejam sempre priorizadas.
A OMS também reconhece cinco aplicações seguras de IA na área da saúde:
- Diagnóstico e atendimento clínico como suporte ao médico.
- Investigação orientada de sintomas, ajudando na formulação de perguntas ao médico.
- Gestão administrativa, como agendamentos e registros.
- Educação médica, utilizando simulações de treinamento.
- Pesquisa e desenvolvimento de medicamentos, acelerando descobertas.
Essas aplicações dependem da supervisão de profissionais qualificados, que garantem que as decisões finais sejam feitas por humanos.
Como usar a IA na saúde de maneira segura
O que fazer:
- Utilize a IA para aprender sobre doenças e exames.
- Mostre as respostas ao seu médico para discussão.
- Prefira usar ferramentas que indiquem fontes, como o Perplexity.
- Filtre as informações com base em fontes confiáveis, como instituições renomadas.
- Pergunte ao médico sobre informações encontradas na IA.
- Evite compartilhar dados sensíveis.
- Desconfie de respostas com alta certeza, pois a saúde é sempre contextual.
O que evitar:
- Não use IA para se auto-diagnosticar.
- Não confie na IA para decisões médicas sem consultar um profissional.
- Não divulgue informações pessoais ou exames para ferramentas públicas.
- Não ignore sintomas só porque a IA não apontou problemas.
- Não adie a consulta médica, esperando por respostas da IA.
- Não siga recomendações de medicamentos da IA sem aprovação médica.
- Não leve a sério diagnósticos inventados pela IA.
Seguir essas orientações ajuda a utilizar a IA de maneira mais consciente e segura na área da saúde, garantindo que as decisões permaneçam com profissionais qualificados.
