A IA em saúde vai salvar vidas? Talvez.
Mas hoje ela já causa danos reais, e quase ninguém fala sobre isso.
O problema não é só errar um diagnóstico.
É responder com tanta certeza que o paciente confia mais na IA do que no médico ou simplesmente deixa de buscar ajuda profissional.
Foi exatamente por isso que escrevi o primeiro artigo do Lado B da IA, meu novo Substack.
Fui fundo no HealthBench, o benchmark da OpenAI que não testa conhecimento médico, testa comportamento em conversas reais de saúde:
✔️ 3h da manhã, paciente em pânico
✔️ Poucos sintomas, muita angústia
✔️ perguntas delicadas que nenhum médico responderia por chat
Os resultados são preocupantes.
Como criadora de agentes conversacionais no projeto Traduz Saúde (criadora do Dose Certa), eu vejo isso acontecer na prática todos os dias.
E aprendi algumas coisas:
⚠️ Parar de construir IA que “acerta a resposta”.
⚠️ Começar a construir IA que sabe quando calar, quando perguntar mais, quando avisar risco e quando dizer “procure um médico agora”.
No texto mostro os furos do HealthBench, o que o curso de Designer Conversacional da Blip mudou no meu modo de pensar e por que o Brasil precisa com urgência de um benchmark nosso, em português, feito para o jeito brasileiro de falar de saúde.
Leia aqui (10 minutos que valem a pena):
https://lnkd.in/d3FUCfsg
Agora me conta nos comentários:
Você já conhecia o HealthBench?
Já viu alguma IA dar resposta perigosa em saúde?
Ou acha que isso tudo é exagero?
Quero saber o que você pensa de verdade.
HealthBench: o que realmente importa quando a IA conversa sobre saúde
Enter your E-mail address. We'll send you an e-mail with instructions to reset your password.

