OpenAI anunciou o lançamento do ChatGPT Saúde, uma nova seção dedicada a reunir refertos, prontuários eletrônicos, aplicativos de bem‑estar e dados de dispositivos vestíveis numa única conversa. A proposta é prática: transformar PDFs, portais e folhas avulsas num resumo compreensível, capaz de explicar exames, organizar informações antes de consultas e acompanhar parâmetros diários como sono, atividade física e alimentação. Mas, como em qualquer terreno onde a tecnologia encontra o corpo, florescem dúvidas sobre privacidade, uso de dados sensíveis, confiabilidade das respostas e impacto nas profissões de saúde.
Segundo a OpenAI, a ferramenta foi desenvolvida com a colaboração de mais de 260 médicos em 60 países e testada com o benchmark HealthBench. Nos Estados Unidos, o serviço já aparece em lista de espera para web e iOS; contudo, não está disponível na União Europeia, Reino Unido e Suíça — uma exclusão que espelha diferenças normativas sobre proteção de dados e a medicalização de serviços digitais: países com regras mais rígidas por ora ficam fora.
Na prática, o ChatGPT Saúde promete consolidar em um único fio de conversa laudos laboratoriais, imagens, relatórios e leituras de smartwatch, sugerir perguntas para o médico e resumir resultados antes de uma consulta. É uma espécie de caderno de bordo digital, pensado para quem navega entre portais, PDFs e aplicativos variados. Porém, entre a promessa e o uso cotidiano, há riscos concretos.
O primeiro risco é a chamada autoridade aparente: um chatbot que escreve com tom confiante tende a transmitir credibilidade mesmo quando erra. Uma resposta plausível, mas incorreta, pode induzir comportamentos inseguros. Foi observado, por exemplo, que o serviço não reconheceria ou minimizaria a existência de relações entre as inoculações com vacinas de mRNA contra a Covid e certos efeitos adversos relatados em estudos e relatos clínicos, incluindo miocardite, pericardite, distúrbios neurológicos, reações imunes severas e complicações oculares. Em respostas públicas, o modelo chegou a afirmar que “a maioria dos efeitos colaterais é normal e reflete a ativação do sistema imune”, uma formulação que pode não captar nuances clínicas e sinais de alerta.
Outro ponto sensível é a circulação e o tratamento de dados de saúde: a centralização de exames, prontuários e dados de wearables cria um repositório de informações altamente pessoais. Quem acessará esses arquivos? Como serão armazenados e por quanto tempo? Como evitar usos secundários não consentidos? As respostas dependem de políticas claras, auditorias independentes e conformidade com legislações locais — fatores que explicam, em parte, a indisponibilidade em mercados com regras mais rígidas.
Há também o impacto sobre profissionais de saúde e sobre o trabalho: ferramentas que automatizam triagens e resumos podem agilizar rotinas, mas também redefinem papéis, exigindo novas competências e salvaguardas éticas. Em última instância, o cuidado clínico continua a exigir julgamento humano, contexto e responsabilidade legal — elementos que um assistente digital não substitui.
O lançamento reacendeu debates científicos e midiáticos. Um artigo atribuído ao dr. Ciro Isidoro e publicado na plataforma MDPI voltou a alimentar controvérsias sobre possíveis correlações entre vacinas de mRNA e desenvolvimento tumoral em indivíduos vulneráveis — alegações que demandam avaliação crítica, replicação por pares e cautela na interpretação. Enquanto isso, o diálogo entre pacientes, médicos e reguladores se torna mais urgente.
Como guia atento às estações do corpo e da cidade, recomendo um caminho prudente: trate o ChatGPT Saúde como um caderno de bordo que pode enriquecer a conversa clínica, mas não como autoridade final. Proteja seus dados, confirme informações com profissionais, exija transparência das plataformas e use a tecnologia para cultivar um cuidado mais humano — como quem colhe hábitos com a paciência de quem espera a primavera.































