▸ Article
Phoebe Tesoriere é da capital galesa, Cardiff, e tem 23 anos. Ela conta ter sido diagnosticada com ansiedade, depressão, epilepsia e foi alertada que seria tratada como paciente de saúde mental, se continuasse retornando ao pronto atendimento.
Tesoriere sofreu uma convulsão e passou três dias em coma. E, ao sair do hospital, ela colocou seus sintomas no chatbot de inteligência artificial.
Ela conta que a ferramenta sugeriu diversas condições, incluindo paraplegia espástica hereditária. Tesoriere apresentou a condição para seu clínico geral e testes genéticos confirmaram o diagnóstico.
O Conselho de Saúde da Universidade de Cardiff e Vale declarou que "lamenta saber da experiência de Phoebe no nosso atendimento."
A clínica geral Rebeccah Tomlinson orienta as pessoas que pesquisarem sobre problemas de saúde com ferramentas como chatbots de IA a discutir os resultados com profissionais de medicina.
Um recente estudo da Universidade de Oxford, no Reino Unido, concluiu que as pessoas que usam IA para conselhos de saúde recebem resultados bons e ruins, o que dificulta a identificação de quais são os aconselhamentos confiáveis.
Tesoriere entende a dificuldade enfrentada pelo hospital no seu diagnóstico, mas conta que precisou recorrer à IA porque sua experiência foi "muito solitária".
"Tive que lutar para ser ouvida", relembra ela.
"Manquei por toda a infância. Nasci sem um soquete no quadril e passei por cirurgias quando era bebê. Por isso, achei que tivesse a ver com aquilo."
Ela também tinha problemas de equilíbrio quando era criança e foi testada para dispraxia, que afeta a coordenação física. Mas ela não tem esta condição.
Quando tinha 19 anos, Tesoriere desmaiou e teve uma convulsão no trabalho. Mas ela conta que os médicos disseram que era ansiedade, o que foi acrescentado aos seus registros médicos.
"Eu não tinha histórico de ansiedade, era uma pessoa muito feliz e vibrante", segundo ela.
Tesoriere conta que, em 2022, foi diagnosticada com epilepsia e teve medicamentos receitados.
Mas, em dezembro de 2024, ela voltou a se sentir mal. E não conseguia continuar com sua medicação para epilepsia, o que causou mais convulsões.
Tesoriere tinha dificuldade para andar e foi diagnosticada erroneamente com paralisia de Todd, uma condição neurológica vivenciada por indivíduos com epilepsia. Nela, as convulsões são seguidas por um breve período de paralisia temporária.
Em janeiro de 2025, ela caiu de uma escada, o que a levou a três meses no hospital, com exames inconclusivos.
Até que, em julho de 2025, uma grave convulsão deixou Phoebe Tesoriere em coma por três dias. E ela conta que, quando se recuperou, um médico disse que ela não tinha epilepsia, mas sim ansiedade.
Foi então que Tesoriere colocou seus sintomas no ChatGPT. O chatbot respondeu com uma lista de possíveis condições, incluindo paraplegia espástica hereditária.
"Analisei a questão várias vezes com a minha parceira, perguntando 'vou ao médico?', 'não vou?', 'o que devo fazer?', 'com certeza, não pode ser isso'", relembra ela.
Felizmente, o clínico geral concordou que poderia ser uma "razão plausível". E os testes genéticos confirmaram a sugestão da IA.
O NHS (serviço de saúde pública do Reino Unido) afirma que não se sabe quantas pessoas sofrem de paraplegia espástica hereditária porque esta condição, muitas vezes, não é diagnosticada.
Os sintomas podem ser controlados com fisioterapia.
Tesoriere não consegue mais trabalhar como professora de alunos com necessidades educacionais especiais devido aos seus sintomas e usa uma cadeira de rodas.
Agora, ela busca um novo caminho na sua carreira, cursando um mestrado em psicologia. Ela afirma que ainda quer "fazer algo que ajude as pessoas".
'É difícil para os médicos conhecer tudo'
Um porta-voz do Conselho de Saúde de Cardiff e Vale declarou que "comentar o caso de uma paciente individual seria inadequado e, por isso, não podemos emitir mais comentários".
"Convidamos Phoebe a entrar em contato com nossa equipe de relacionamento, caso deseje discutir qualquer aspecto do atendimento que ela recebeu do Conselho de Saúde da Universidade de Cardiff e Vale."
A clínica geral Rebeccah Tomlinson atende a região de Cardiff e do condado de Vale of Glamorgan, no País de Gales. Ela destaca que "é difícil para os clínicos gerais conhecer tudo. E, com as pressões sobre o NHS, precisamos saber ainda mais."
"Os pacientes que trazem informações ajudam a entender o que eles estão pensando e orientar a discussão com mais clareza", prossegue ela.
Para Tomlinson, as ferramentas de IA "são um bom ponto de partida, que deve ser seguido por uma consulta a um profissional médico para discutir as preocupações com mais detalhes".
"É útil que os pacientes venham munidos de informações, mas o médico precisa estar aberto e receptivo para o paciente. O atendimento médico precisa ser uma conversa de duas vias."
Como os chatbots de IA são usados na saúde?
A IA vem se tornando cada vez mais parte do nosso dia a dia, mas o seu uso para fins de assistência médica divide opiniões.
No início do ano, um estudo da Universidade de Oxford concluiu que os chatbots de IA fornecem aconselhamento médico impreciso e inconsistente, que poderia representar riscos aos usuários.
A pesquisa concluiu que pessoas que usam IA para assistência médica receberam algumas respostas boas e outras ruins, o que dificulta a identificação de quais aconselhamentos elas devem seguir.
Em janeiro, foi lançado nos Estados Unidos o ChatGPT Health, uma nova função do chatbot para analisar os registros médicos das pessoas e oferecer "melhores respostas", segundo a empresa desenvolvedora, a OpenAI.
A companhia declarou que a função não se destina a "diagnóstico ou tratamento", mas 230 milhões de pessoas enviam semanalmente ao chatbot perguntas sobre sua saúde e bem-estar.
Ativistas levantam preocupações sobre o acesso do ChatGPT Health a dados de saúde confidenciais. Mas a OpenAI afirma que a função foi projetada para "auxiliar, não para substituir a assistência médica".
Não se sabe ao certo se a função será introduzida em outros países, ou quando.
Enquanto o debate sobre seu uso segue acalorado, milhões de pessoas, incluindo Phoebe Tesoriere, usam cada vez mais as ferramentas de IA para tarefas como personalizar seus feeds nas redes sociais, encontrar amigos e familiares em fotos no smartphone e pedir conselhos sobre questões do dia a dia.
Hover overTap highlighted text for details
▸ Source Quality 4/5
Source classification (primary/secondary/tertiary), named vs anonymous, expert credentials, variety
Summary
Good mix of primary and secondary sources, including the patient, a general practitioner, and a health board statement.
Findings 4
" Phoebe Tesoriere é da capital galesa, Cardiff, e tem 23 anos. Ela conta "
Direct reporting on the main subject of the article.
Primary source" A clínica geral Rebeccah Tomlinson orienta as pessoas que pesquisar"
Named expert source (general practitioner) providing commentary.
Named source" Um recente estudo da Universidade de Oxford, no Reino Unido, concluiu que as pessoa"
Cites a university study as a secondary source.
Secondary source" Um porta-voz do Conselho de Saúde de Cardiff e Vale declarou que "comentar"
Named institutional source (health board spokesperson).
Named source▸ Perspective Balance 4/5
Acknowledgment of multiple viewpoints, counterarguments, and balanced presentation
Summary
Article presents the patient's experience, medical professional perspective, and broader debate on AI in healthcare.
Findings 3
" A IA vem se tornando cada vez mais parte do nosso dia a dia, mas o seu uso para fins de assistência médica divide opiniões. No início"
Explicitly states the topic is divisive.
Balance indicator" Ativistas levantam preocupações sobre o acesso do ChatGPT Health a dados de saúde confidenciais. Mas a Open"
Presents a critical perspective (activists' concerns).
Balance indicator" Para Tomlinson, as ferramentas de IA "são um bom ponto de partida, que deve ser seguido por uma consulta a um profissional médico para discutir "
Presents a balanced, cautious perspective from a medical professional.
Balance indicator▸ Contextual Depth 4/5
Background information, statistics, comprehensiveness of coverage
Summary
Provides detailed patient history, medical context, and broader discussion of AI in healthcare.
Findings 3
""Manquei por toda a infância. Nasci sem um soquete no quadril e passei por cirurgias quando era bebê. "
Provides patient's medical history for context.
Background" 230 milhões de pessoas enviam semanalmente ao chatbot perguntas sobre sua saúde e bem-estar. Ativistas"
Provides statistical data on AI health queries.
Statistic" O NHS (serviço de saúde pública do Reino Unido) afirma que não se sabe quantas pessoas sofrem de paraplegia espástica hereditária porque esta c"
Provides context about the rarity of the condition.
Context indicator▸ Language Neutrality 5/5
Absence of loaded, sensationalist, or politically biased language
Summary
Language is consistently factual and neutral throughout, reporting events and statements without sensationalism.
Findings 3
"O ChatGPT ajudou uma jovem no País de Gales a descobrir sua rara condição de saúde, após anos de"
Headline is factual and descriptive.
Neutral language" Um recente estudo da Universidade de Oxford, no Reino Unido, concluiu que as pessoa"
Neutral reporting of study findings.
Neutral language" O Conselho de Saúde da Universidade de Cardiff e Vale declarou que "lamenta saber da experiência de Phoebe no nosso atendimento." A clínica"
Neutral reporting of an official statement.
Neutral language▸ Transparency 5/5
Author attribution, dates, methodology disclosure, quote attribution
Summary
Full author attribution, date, clear quote attribution, and source identification.
Findings 2
" Tesoriere entende a dificuldade enfrentada pelo hospital no seu diagnóstico, mas conta que precisou reco"
Quotes are clearly attributed to the patient.
Quote attribution" A clínica geral Rebeccah Tomlinson orienta as pessoas que pesquisar"
Quotes are clearly attributed to the expert.
Quote attribution▸ Logical Coherence 5/5
Internal consistency of claims, absence of contradictions and unsupported causation
Summary
Article presents a coherent narrative with consistent timeline and no detected logical contradictions.
Core Claims
"ChatGPT helped a woman in Wales discover her rare health condition after years of misdiagnoses."
Direct reporting and quotes from Phoebe Tesoriere, the patient. Primary
"AI tools for health advice provide mixed results, making it hard to identify reliable advice."
Cites a study from the University of Oxford. Named secondary
"Medical professionals advise using AI as a starting point followed by consultation with a doctor."
Quote from general practitioner Rebeccah Tomlinson. Named secondary
Logic Model Inspector
ConsistentExtracted Propositions (9)
-
P1
"Phoebe Tesoriere, 23, from Cardiff, Wales, was misdiagnosed with anxiety, depression, and epilepsy."
Factual -
P2
"She had a seizure and was in a coma for three days in July 2025."
Factual -
P3
"After inputting symptoms into ChatGPT, it suggested hereditary spastic paraplegia, which genetic tests confirmed."
Factual -
P4
"The NHS states it's unknown how many people have hereditary spastic paraplegia as it's often undiagnosed."
Factual -
P5
"230 million people weekly send health and wellness questions to the chatbot."
Factual -
P6
"ChatGPT Health was launched in the US in January (implied 2026)."
Factual -
P7
"Misdiagnoses led Phoebe Tesoriere to causes use ChatGPT for symptom analysis."
Causal -
P8
"Using AI for health advice causes both good and bad outcomes, making reliable advice hard to identify."
Causal -
P9
"Pressure on the NHS requires clinicians to causes know even more, making patient-brought information helpful."
Causal
Claim Relationships Graph
View Formal Logic Representation
=== Propositions === P1 [factual]: Phoebe Tesoriere, 23, from Cardiff, Wales, was misdiagnosed with anxiety, depression, and epilepsy. P2 [factual]: She had a seizure and was in a coma for three days in July 2025. P3 [factual]: After inputting symptoms into ChatGPT, it suggested hereditary spastic paraplegia, which genetic tests confirmed. P4 [factual]: The NHS states it's unknown how many people have hereditary spastic paraplegia as it's often undiagnosed. P5 [factual]: 230 million people weekly send health and wellness questions to the chatbot. P6 [factual]: ChatGPT Health was launched in the US in January (implied 2026). P7 [causal]: Misdiagnoses led Phoebe Tesoriere to causes use ChatGPT for symptom analysis. P8 [causal]: Using AI for health advice causes both good and bad outcomes, making reliable advice hard to identify. P9 [causal]: Pressure on the NHS requires clinicians to causes know even more, making patient-brought information helpful. === Causal Graph === misdiagnoses led phoebe tesoriere to -> use chatgpt for symptom analysis using ai for health advice -> both good and bad outcomes making reliable advice hard to identify pressure on the nhs requires clinicians to -> know even more making patientbrought information helpful
All claims are logically consistent. No contradictions, temporal issues, or circular reasoning detected.
Quer avaliar outro artigo? Cole uma nova URL →