▸ Article
Flavia Azevedo
Flavia Azevedo
Publicado em 7 de abril de 2026 às 22:23
Imagine sentir uma coceira persistente nos olhos e, ao buscar ajuda com um assistente de Inteligência Artificial, receber o diagnóstico de uma condição "intrigante e rara" chamada "bixonimania". O nome soa oficial, os sintomas parecem bater, mas há um detalhe: essa doença simplesmente não existe. O que começou como um teste para medir a credibilidade dos algoritmos acabou revelando um buraco profundo na forma como a tecnologia e a própria ciência processam informações hoje em dia. Pois a "bixonimania" é uma obra de ficção que conseguiu atravessar as fronteiras do código binário para se infiltrar em artigos acadêmicos revisados por pares.
Inteligência artificial
O nascimento de uma farsa
A mente por trás da "epidemia" fictícia é Almira Osmanovic Thunström, pesquisadora da Universidade de Gotemburgo, na Suécia. Em março de 2024, ela decidiu testar se os grandes modelos de linguagem, como o ChatGPT e o Gemini, seriam capazes de engolir uma mentira deslavada se ela estivesse vestida com roupas acadêmicas. Para isso, criou o pesquisador fantasma Lazljiv Izgubljenovic - cujo rosto foi gerado por IA - e publicou estudos falsos descrevendo a "bixonimania" como uma irritação nas pálpebras causada pela luz azul de telas.
O tom da farsa beirava o surrealismo para quem se desse ao trabalho de ler os créditos. Thunström inseriu pistas óbvias de que tudo era uma brincadeira: o autor supostamente trabalhava na inexistente Universidade Asteria Horizon, na cidade fictícia de Nova City. Mais engraçado ainda, os agradecimentos do artigo citavam a "Academia da Frota Estelar" por emprestar laboratórios a bordo da USS Enterprise e creditavam o financiamento à "Fundação Professor Sideshow Bob", em homenagem ao vilão de Os Simpsons, por sua "astúcia avançada". Mesmo com essas bandeiras vermelhas flamejantes, o experimento funcionou bem demais.
Os robôs começam a receitar
Apenas algumas semanas após a publicação dos textos falsos em plataformas de pré-impressão, a "bixonimania" já era tratada como realidade pelos principais chatbots do mercado. Em 13 de abril de 2024, o Copilot da Microsoft descrevia a condição como algo real, enquanto o Gemini do Google recomendava seriamente que os usuários procurassem um oftalmologista para tratar a doença inventada. Até mesmo o motor de busca Perplexity chegou a inventar estatísticas, afirmando que uma em cada 90 mil pessoas era afetada pela condição.
Especialistas ouvidos pela reportagem da Nature explicam que o problema está na forma como a IA interpreta textos com aparência profissional. Quando uma mentira é formatada como um artigo clínico ou uma nota de alta hospitalar, as taxas de "alucinação" dos modelos aumentam drasticamente. Os algoritmos parecem dar mais crédito à forma do que ao conteúdo, ignorando avisos explícitos dentro do texto que diziam, literalmente, "todo este artigo é inventado". Empresas como OpenAI e Google se defendem dizendo que seus modelos mais novos são mais precisos, mas testes realizados em março de 2026 mostraram que as ferramentas ainda oscilam entre o ceticismo e a validação da farsa.
O perigo por trás da piada
O que era para ser uma lição de casa para estudantes de tecnologia tomou um rumo preocupante quando a "bixonimania" infectou humanos. Pesquisadores reais, em um instituto na Índia, citaram a doença fictícia em um artigo legítimo sobre dermatologia publicado na revista Cureus. O erro sugere que cientistas estão usando ferramentas de IA para gerar referências bibliográficas sem sequer ler os artigos que estão citando. Diante do alerta, a revista precisou se retratar publicamente e retirar o artigo do ar no último dia 30 de março.
Alex Ruani, pesquisadora de desinformação na University College London, alertou que o caso é uma "masterclass" sobre como a desinformação opera. Se os sistemas de filtragem da ciência e da tecnologia falham em barrar uma piada que cita a USS Enterprise e o Sideshow Bob, a confiança na informação digital corre um risco severo. O experimento de Thunström deixa um aviso claro: da próxima vez que uma IA lhe der um diagnóstico médico com nome pomposo, vale conferir se o seu médico não é, na verdade, um personagem de desenho animado escondido em um emaranhado de códigos.
Por @flaviaazevedoalmeida
Hover overTap highlighted text for details
▸ Source Quality 4/5
Source classification (primary/secondary/tertiary), named vs anonymous, expert credentials, variety
Summary
Good use of named primary and expert sources, but lacks direct quotes from AI companies.
Findings 4
"Almira Osmanovic Thunström, pesquisadora da Universidade de Gotemburgo, na Suécia."
Named primary source who conducted the experiment.
Primary source"Alex Ruani, pesquisadora de desinformação na University College London"
Named expert provides analysis on misinformation.
Expert source"Especialistas ouvidos pela reportagem da Nature"
Attributed to experts via Nature, but not individually named.
Secondary source"Empresas como OpenAI e Google se defendem dizendo que seus modelos mais novos são mais precisos"
References company statements without direct quotes.
Tertiary source▸ Perspective Balance 4/5
Acknowledgment of multiple viewpoints, counterarguments, and balanced presentation
Summary
Presents the experiment, AI responses, expert warnings, and company defenses clearly.
Findings 2
"Empresas como OpenAI e Google se defendem dizendo que seus modelos mais novos são mais precisos"
Acknowledges the perspective/defense from the AI companies.
Balance indicator"Os algoritmos parecem dar mais crédito à forma do que ao conteúdo"
Presents the critical expert perspective on the AI's flaw.
Balance indicator▸ Contextual Depth 4/5
Background information, statistics, comprehensiveness of coverage
Summary
Provides detailed background on the experiment, timeline, and broader implications.
Findings 3
"Em março de 2024, ela decidiu testar se os grandes modelos de linguagem, c"
Provides historical context for the start of the experiment.
Background"uma em cada 90 mil pessoas era afetada pela condição"
Includes a specific, invented statistic from the AI.
Statistic"O experimento de Thunström deixa um aviso claro: da próxima vez que uma IA lhe der um diagnóstico médico co"
Provides explanatory context and a concluding warning.
Context indicator▸ Language Neutrality 4/5
Absence of loaded, sensationalist, or politically biased language
Summary
Mostly factual language with a few minor descriptive phrases.
Findings 3
"Pesquisadores reais, em um instituto na Índia, citaram a doença fictícia"
Neutral, factual reporting of an event.
Neutral language"um buraco profundo na forma como a tecnologia e a própria ciência processam informações"
Uses slightly dramatic metaphor ('deep hole').
Sensationalist"bandeiras vermelhas flamejantes"
Uses vivid, slightly sensational description ('flaming red flags').
Sensationalist▸ Transparency 5/5
Author attribution, dates, methodology disclosure, quote attribution
Summary
Full author attribution, clear date/time, and specific quote attribution.
Findings 3
"Flavia Azevedo"
Author name is clearly stated at the beginning.
Author attribution"Publicado em 7 de abril de 2026 às 22:23"
Precise publication date and time provided.
Date present"Alex Ruani, pesquisadora de desinformação na University College London, alertou que o caso é uma "masterclass""
Expert quote is clearly attributed to a named individual.
Quote attribution▸ Logical Coherence 5/5
Internal consistency of claims, absence of contradictions and unsupported causation
Summary
No logical inconsistencies detected; narrative flows from experiment to results to implications.
Core Claims
"A fabricated disease called 'bixonimania' was accepted as real by major AI chatbots and even cited in a peer-reviewed scientific journal."
The article is based on an experiment by researcher Almira Osmanovic Thunström, with supporting evidence from AI responses and a journal retraction. Primary
Logic Model Inspector
ConsistentExtracted Propositions (5)
-
P1
"Almira Osmanovic Thunström created a fake researcher and published fake studies about 'bixonimania' in March 2024."
Factual -
P2
"By April 13, 2024, Microsoft Copilot and Google Gemini were describing 'bixonimania' as a real condition."
Factual -
P3
"The fake disease was cited in a legitimate dermatology article in the journal Cureus, which was later retracted on March 30."
Factual -
P4
"When a lie is formatted like a clinical article, AI 'hallucination' rates increase drastically causes AI gives more credit to form than content."
Causal -
P5
"Scientists using AI to generate references without reading them causes leads to citing fake research in legitimate papers."
Causal
Claim Relationships Graph
View Formal Logic Representation
=== Propositions === P1 [factual]: Almira Osmanovic Thunström created a fake researcher and published fake studies about 'bixonimania' in March 2024. P2 [factual]: By April 13, 2024, Microsoft Copilot and Google Gemini were describing 'bixonimania' as a real condition. P3 [factual]: The fake disease was cited in a legitimate dermatology article in the journal Cureus, which was later retracted on March 30. P4 [causal]: When a lie is formatted like a clinical article, AI 'hallucination' rates increase drastically causes AI gives more credit to form than content. P5 [causal]: Scientists using AI to generate references without reading them causes leads to citing fake research in legitimate papers. === Causal Graph === when a lie is formatted like a clinical article ai hallucination rates increase drastically -> ai gives more credit to form than content scientists using ai to generate references without reading them -> leads to citing fake research in legitimate papers
All claims are logically consistent. No contradictions, temporal issues, or circular reasoning detected.
Quer avaliar outro artigo? Cole uma nova URL →