Receber o resultado do exame de sangue por e-mail pode ser um momento estressante. Muitos se deparam com termos médicos desconhecidos, como “leucócitos”, “hematócrito” e “PCR elevado”, e é comum sentir ansiedade. Antes, a tentação era pesquisar no “Dr. Google”, o que muitas vezes gerava pânico. Agora, uma nova opção surge: usar ferramentas de Inteligência Artificial (IA) como o ChatGPT ou o Gemini para perguntar diretamente sobre os resultados.

    Entretanto, é preciso ter cuidado. A IA pode ser uma ferramenta útil, mas também pode apresentar riscos, dependendo de como é utilizada. O principal objetivo é entender como usá-la de forma segura.

    O lado positivo da IA: um “Tradutor de Mediquês”

    Os problemas começam quando tentamos usar a IA como se fosse um médico. Sabendo disso, podemos aproveitar a tecnologia de forma benéfica. A IA se destaca como uma ponte que ajuda na compreensão de termos médicos que são difíceis para a maioria das pessoas.

    Aqui estão algumas maneiras seguras de usar a IA:

    1. Compreensão de termos técnicos: Você pode perguntar, por exemplo, “O que significa triglicérides e por que eles aumentam?” A IA fornecerá uma explicação clara e acessível.

    2. Resumo de bulas: Ao solicitar informações sobre os efeitos colaterais mais comuns de um medicamento ou o melhor horário para tomá-lo, a IA pode te ajudar – mas é sempre importante comparar com as orientações do médico.

    3. Preparação para consultas: Ao se dirigir ao cardiologista, você pode perguntar: “Quais são as perguntas importantes sobre pressão alta que devo fazer?” Isso torna a consulta mais produtiva.

    O lado negativo da IA: Diagnósticos imprecisos

    O problema surge quando tentamos ter diagnósticos médicos com o auxílio da IA. Um fenômeno preocupante chamado “alucinação” pode ocorrer, onde a IA apresenta informações que parecem verdadeiras, mas são completamente falsas. Dados alarmantes revelam que a taxa dessas “alucinações” varia de 33% a 79%, dependendo do modelo da IA. Além disso, em testes de diagnósticos pediátricos, o ChatGPT acertou apenas 17% dos casos.

    Um caso real exemplifica o perigo: um homem de 60 anos foi hospitalizado após a IA sugerir substituir o sal de cozinha por “brometo de sódio”, uma substância tóxica que causou problemas neurológicos graves. Isso ocorreu porque a IA não diferenciou entre similaridade química e segurança para consumo.

    A questão central é que a IA não leva em conta informações crucial como histórico familiar, sintomas associados ou características pessoais, como idade e tipo de pele. Um exame isolado não conta toda a história, e a IA pode oferecer diagnósticos errôneos que poderiam atrasar cuidados médicos necessários.

    Diretrizes da OMS para o uso de IA na saúde

    A Organização Mundial da Saúde (OMS) publicou diretrizes éticas sobre o uso de IA na saúde, destacando um princípio fundamental: Use a tecnologia para se informar, nunca para se diagnosticar. Isso garante que a autonomia do paciente e a supervisão médica sejam sempre priorizadas.

    A OMS também reconhece cinco aplicações seguras de IA na área da saúde:

    1. Diagnóstico e atendimento clínico como suporte ao médico.
    2. Investigação orientada de sintomas, ajudando na formulação de perguntas ao médico.
    3. Gestão administrativa, como agendamentos e registros.
    4. Educação médica, utilizando simulações de treinamento.
    5. Pesquisa e desenvolvimento de medicamentos, acelerando descobertas.

    Essas aplicações dependem da supervisão de profissionais qualificados, que garantem que as decisões finais sejam feitas por humanos.

    Como usar a IA na saúde de maneira segura

    O que fazer:

    1. Utilize a IA para aprender sobre doenças e exames.
    2. Mostre as respostas ao seu médico para discussão.
    3. Prefira usar ferramentas que indiquem fontes, como o Perplexity.
    4. Filtre as informações com base em fontes confiáveis, como instituições renomadas.
    5. Pergunte ao médico sobre informações encontradas na IA.
    6. Evite compartilhar dados sensíveis.
    7. Desconfie de respostas com alta certeza, pois a saúde é sempre contextual.

    O que evitar:

    1. Não use IA para se auto-diagnosticar.
    2. Não confie na IA para decisões médicas sem consultar um profissional.
    3. Não divulgue informações pessoais ou exames para ferramentas públicas.
    4. Não ignore sintomas só porque a IA não apontou problemas.
    5. Não adie a consulta médica, esperando por respostas da IA.
    6. Não siga recomendações de medicamentos da IA sem aprovação médica.
    7. Não leve a sério diagnósticos inventados pela IA.

    Seguir essas orientações ajuda a utilizar a IA de maneira mais consciente e segura na área da saúde, garantindo que as decisões permaneçam com profissionais qualificados.

    Share.