Entrevista: Como a IA abre caminho para o tecnofascismo | Intercept Brasil
Seu argumento é de que a tecnologia está longe de ser politicamente neutra. No atual contexto econômico – em que há concentração de poder sem precedentes na mão de poucas empresas – e político – com uma ascensão do populismo de extrema direita e do autoritarismo –, existe um ambiente muito favorável para que essa versão adaptada da ideologia se desenvolva.
Por meio de uma revisão de teorias clássicas, Coeckelbergh aponta como a tecnologia atual caminha para replicar características do fascismo na nossa sociedade. A obsessão por mitos nacionais – comum em regimes como o de Benito Mussolini, na Itália, na primeira metade do século 20 –, por exemplo, é substituída por mitos sobre o futuro da inteligência artificial, como a hipótese de que a IA poderá ultrapassar a inteligência humana. Outra característica é a valorização da eficiência acima dos valores humanos. A automação de decisões por algoritmos, removendo a responsabilidade moral e o julgamento humano, leva ao que Coeckelbergh descreve como uma nova "banalidade do mal".
Todos esses efeitos são exacerbados, de acordo com o pesquisador, pelo controle exercido pelas big techs sobre as mídias sociais. Isso permite a amplificação de narrativas dominantes e a supressão de vozes dissidentes.
A diferença, segundo ele, é que, enquanto líderes autoritários como Adolf Hitler lançavam mão abertamente de violência, repressão a vozes dissidentes e dependiam de movimentos de massa para ter legitimidade, o tecnofascismo oferece ferramentas de controle mais silenciosas, menos visíveis e mais precisas: os algoritmos. Diferentemente do fascismo clássico, o tecnofascismo não precisou forçar as pessoas ou criar medo. As ferramentas tecnológicas atuais, como os algoritmos, conseguem saber do que você precisa antes mesmo que imagine. Com isso, as pessoas foram dominadas pelo prazer e pela conveniência oferecidos pela IA e suas corporações, tornando-se seres dóceis e obedientes.
Nascido em Lovaina, na Bélgica, Coeckelbergh é autor de livros como "Ética na inteligência artificial" (traduzido pela editora Ubu), e "Why AI undermines democracy and what to do about it" ("Por que a IA corrói a democracia e o que fazer sobre isso", em tradução livre para o português; a obra ainda não foi lançada no Brasil).
Coeckelbergh disse ao Intercept Brasil que enfrentou certa hesitação de editores em publicar o artigo sobre o tecnofascismo. "Ainda há bastante resistência a esse termo em particular, talvez porque achem muito forte, mas, desde então, acho que a realidade se impôs", diz. Ele se refere, claro, ao governo de Donald Trump nos Estados Unidos, onde tem ficado cada dia mais evidente a relação simbiótica das big techs com o projeto autoritário trumpista.
Mas o alerta de Coeckelbergh sobre o espelho entre a IA, novas tecnologias e o fascismo histórico aplica-se mesmo para contextos democráticos, como é o caso do Brasil hoje. Segundo ele, devemos prestar atenção não apenas aos líderes autoritários e regimes atuais, mas também às condições que apoiam a ascensão do tecnofascismo, inclusive por meio da IA e de outras tecnologias e de como elas se inserem dentro dos nossos governos.
Leia a seguir os principais trechos da entrevista:
No seu artigo, você argumenta que o modo como a IA está tomando conta de processos de decisão pode levar a algo semelhante à banalidade do mal, como proposto por Hannah Arendt. Gostaria que você explicasse isso melhor.
Mark Coeckelbergh – A ideia da banalidade do mal é que você tem uma burocracia com regras, e elas são cegamente seguidas porque as pessoas dizem que são ordens. A raiz disso está no que aconteceu na Segunda Guerra Mundial, particularmente com os nazistas. Eles fizeram atrocidades e davam a desculpa de que estavam apenas seguindo ordens.
No caso da IA, há algo pelo menos semelhante no sentido de que, assim que há uma recomendação da IA, é muito fácil segui-la. Exige um esforço ser crítico. Exige um esforço usar o julgamento humano. Seres humanos são essencialmente preguiçosos, é por isso que desenvolvemos tecnologia. E tendemos a usar tecnologia de uma maneira que não usamos nosso julgamento. Mas, segundo Arendt, deveríamos usar o julgamento.
'Assim que há uma recomendação da IA, é muito fácil segui-la. Exige um esforço ser crítico'.
Só que essas tecnologias dificultam isso. Há uma tentação de só seguir o que a IA diz e, portanto, também as regras que estão na IA e o que ela aprende dos dados ali. Isso significa não só que vieses podem ser reproduzidos, mas que as pessoas podem se eximir de serem responsabilizadas pelo resultado.
O cenário "pesadelo" é que um dia você acorda e a polícia está na sua porta para te prender. Ou então um dia você deixa de receber dinheiro do governo quando estiver desempregado ou doente apenas porque um algoritmo decidiu isso – e você não tem ideia do porquê.
No artigo, eu defendo que responsabilidade seja também sobre explicabilidade e responsabilidade de responder com razões. Há um perigo de que alguém apenas diga "o algoritmo decidiu, ou a IA decidiu". Isso significa que a responsabilidade foi contornada e que as pessoas são tratadas como não-humanos, objetos de decisões algorítmicas.
Nesse exato momento estamos vendo os Estados Unidos usarem IA nos ataques contra o Irã. Tem tudo a ver com esse tema. A pergunta é: quem deveria ser responsável? A pessoa que deu o prompt, já que não há gatilho sendo apertado? Talvez haja muita ênfase no papel das plataformas, mas alguém as contratou.
Sim, eu também olharia para a responsabilidade do usuário e, neste caso, o usuário pode significar as pessoas da administração que usam a tecnologia de maneira acrítica e as outras pessoas são as vítimas. A responsabilidade é parcialmente de quem desenvolve e parcialmente de quem emprega a tecnologia para algum fim particular que não deveria ser automatizado.
Eu, por exemplo, não acho que os atendimentos de saúde mental deveriam ser completamente automatizados ou decisões sobre a vida das pessoas, se elas vão presas ou não, se elas recebem auxílio do governo ou não. Acredito que deve sempre haver uma pessoa encarregada, alguém que assuma responsabilidade. Do contrário, teremos essa espécie de burocracia completamente impessoal, na qual você não tem ideia do que acontece. Algo parecido com o que [Franz] Kafka escreve sobre em "O processo".
Imagino que, quando você finalizou este artigo, a relação entre big techs e governo dos Estados Unidos não estava tão avançada. Houve muitas mudanças depois disso. Por exemplo, Elon Musk não está mais no governo. Como você vê essas mudanças?
Sim, eu escrevi esse artigo há mais de um ano e foi muito difícil conseguir que ele fosse publicado porque os editores estavam hesitantes. Ainda há bastante resistência a esse termo particular [tecnofascismo], talvez porque achem muito forte, mas desde então, acho que a realidade se impôs. Eu gostaria de ter publicado antes.
Sim, é verdade que Musk não está mais no governo e que essa colaboração, em específico, não seja mais tão falada. Mas, desde que ele saiu, temos visto reiteradas vezes esses diferentes oligarcas tecnológicos em bons termos com Trump. Eles querem estar em bons termos. Há definitivamente alinhamentos mútuos ali, como [Bill] Gates. Acredito que eles não se levantaram contra o autoritarismo de Trump porque eles parecem estar felizes com isso enquanto os beneficia.
'Desde que ele [Elon Musk] saiu, temos visto reiteradas vezes esses diferentes oligarcas tecnológicos em bons termos com Trump'.
E esse também era, claro, o caso dos nazistas e das empresas que se beneficiaram daquilo. Acho que o caso da Palantir é bastante claro. É uma empresa de tecnologia que basicamente lucra com o que a administração Trump fizer, os serviços secretos fizerem, o Exército. Há um elo forte aí que me relembra o fascismo histórico.
E desde que os arquivos [de Jeffrey] Epstein saíram, tem ficado claro que, seja lá o que aconteça em termos de abuso de pessoas, há uma rede poderosa por trás disso, com pessoas poderosas unidas de um modo que não beneficia a maioria dos cidadãos. Mas há uma cultura de elite de se proteger. Esses tipos de redes são também instrumentais para realizar todo tipo de coisa com tecnologia que seja perigosa politicamente e em termos de direitos humanos. Então acho que estamos entendendo cada vez mais que o atual regime nos Estados Unidos já não é mais democrático.
Sim, é difícil talvez chamar as coisas pelo que elas são, mas acho que a história e a perspectiva nos darão a chance de olhar para trás e ver que essa realmente era a encarnação do estado tecnofascista, em que um não existe sem o outro. Tecnologia e IA são necessárias para o governo executar seus objetivos, mas os grandes contratos das big techs são com governos também.
E isso é uma coisa maluca, certo? Os EUA e o Vale do Silício têm essa ideologia neoliberal, muito anti-Estado, livre-mercado, libertários. Mas ao mesmo tempo, a tecnologia nos EUA é definitivamente financiada pelo governo através do Departamento de Defesa, por exemplo, agora chamado de Departamento da Guerra. Há definitivamente ligações financeiras entre governos e big techs. A consequência é que o elo mais fraco, os atores mais vulneráveis, que são os cidadãos comuns, são as vítimas.
Você escreve no seu artigo sobre os mitos do Vale do Silício. Claro que essas empresas usam suas próprias plataformas e CEOs para avançar nesses mitos e lançá-los no debate público, usam também relações públicas. Mas eu acho que ainda há outro ator importante nesse jogo que é a imprensa, que dá oxigênio para esses mitos e o hype. Como você enxerga o papel da imprensa?
A mídia valida sim essas narrativas, como você disse. E temos que olhar para dois tipos de mídia aqui. Primeiro, as redes sociais digitais, as plataformas, das quais a maioria são de propriedade das big techs. Então o principal meio de comunicação hoje, o lugar onde as pessoas recebem notícias, é propriedade de pessoas como Musk etc. E isso é muito preocupante, certo? Para a democracia, para o ambiente epistêmico e de conhecimento que estamos criando como base para democracia, e que vai se erodindo.
Hover overTap highlighted text for details
Source Quality
Source classification (primary/secondary/tertiary), named vs anonymous, expert credentials, variety
Summary
The article is built around a primary source interview with a named expert, but relies heavily on his analysis without independent verification or multiple primary sources.
Specific Findings from the Article (3)
"Coeckelbergh disse ao Intercept Brasil que enfrentou certa hesitação de editores"
Direct quote from an interview conducted by the publication.
Primary source"Mark Coeckelbergh, professor titular de Filosofia da Mídia e Tecnologia no Departamento de Filosofia da Universidade de Viena"
Expert is clearly named and his credentials are provided.
Named source"Mark Coeckelbergh – A ideia da banalidade do mal é que você tem uma burocracia com regras"
The core content is the expert's analysis and arguments.
Expert sourcePerspective Balance
Acknowledgment of multiple viewpoints, counterarguments, and balanced presentation
Summary
The article presents a single, critical perspective on AI and big tech, with minimal presentation of counterarguments or alternative viewpoints.
Specific Findings from the Article (2)
"o tecnofascismo oferece ferramentas de controle mais silenciosas, menos visíveis e mais precisas: os algoritmos."
Presents a definitive, negative characterization without contrasting views.
One sided"acho que estamos entendendo cada vez mais que o atual regime nos Estados Unidos já não é mais democrático."
Makes a strong, one-sided political claim without presenting opposing analysis.
One sidedContextual Depth
Background information, statistics, comprehensiveness of coverage
Summary
Provides good historical and theoretical context, linking current tech to fascist history and philosophical concepts.
Specific Findings from the Article (3)
"comum em regimes como o de Benito Mussolini, na Itália, na primeira metade do século 20"
Provides historical context for the fascism comparison.
Background"A ideia da banalidade do mal é que você tem uma burocracia com regras, e elas são cegamente seguidas"
Explains the philosophical concept of 'banality of evil' from Hannah Arendt.
Context indicator"Algo parecido com o que [Franz] Kafka escreve sobre em "O processo"."
Uses literary reference to deepen the argument about impersonal bureaucracy.
Context indicatorLanguage Neutrality
Absence of loaded, sensationalist, or politically biased language
Summary
Uses some politically loaded and strong terminology ('technofascism', 'authoritarian'), but the interview format provides a platform for the subject's chosen language.
Specific Findings from the Article (3)
"ascensão do tecnofascismo"
The coined term 'technofascism' is a strong, loaded label.
Sensationalist""pesadelo" é que um dia você acorda e a polícia está na sua porta para te prender. Ou"
Uses emotionally charged language ('nightmare scenario').
Sensationalist"Para ele, embora sejam vendidas como promissoras e inovadoras"
Neutral reporting of the subject's viewpoint.
Neutral languageTransparency
Author attribution, dates, methodology disclosure, quote attribution
Summary
Full author attribution, clear date, and all quotes are directly attributed to the interview subject.
Specific Findings from the Article (1)
"Mark Coeckelbergh – A ideia da banalidade do mal é que"
Quotes are clearly attributed to the interviewee with a dash format.
Quote attributionLogical Coherence
Internal consistency of claims, absence of contradictions and unsupported causation
Summary
The argument is logically structured, drawing parallels between historical fascism and modern tech. One minor inconsistency noted regarding the timeline of Musk's involvement.
Specific Findings from the Article (2)
"Elon Musk não está mais no governo."
Asserts Musk is 'no longer in the government,' which is factually incorrect for the publication date (2026) as Musk has never held a formal US government position. This seems to reference a speculative or allegorical 'government' role.
Temporal inconsistency" Por exemplo, Elon Musk não está mais no governo. Como você vê essas mudanças? Sim, eu escrevi esse artigo há"
The article claims Elon Musk is 'no longer in the government.' This is presented as a factual change from a previous state. However, as of the article's date (2026), Elon Musk has never held an official position in the US government. This creates a logical inconsistency unless it refers to an informal or allegorical influence that is not clearly defined.
Logic temporal inconsistencyLogic Issues Detected
-
Temporal inconsistency (medium)
The article claims Elon Musk is 'no longer in the government.' This is presented as a factual change from a previous state. However, as of the article's date (2026), Elon Musk has never held an official position in the US government. This creates a logical inconsistency unless it refers to an informal or allegorical influence that is not clearly defined.
""Por exemplo, Elon Musk não está mais no governo." (Interviewer's question) and the subsequent discussion treats this as a real change in circumstance."
Core Claims & Their Sources
-
"AI and big tech are paving the way for a new form of fascism ('technofascism')."
Source: Argument and analysis presented by interview subject Mark Coeckelbergh. Primary
-
"The current US regime is no longer democratic and embodies a technofascist state."
Source: Claim made by interview subject Mark Coeckelbergh. Primary
-
"AI automation leads to a 'banality of evil' by removing human judgment and moral responsibility."
Source: Argument presented by interview subject Mark Coeckelbergh, referencing Hannah Arendt. Primary
Logic Model Inspector
ConsistentExtracted Propositions (7)
-
P1
"Mark Coeckelbergh is a professor of Philosophy of Media and Technology at the University of Vienna."
Factual -
P2
"Coeckelbergh authored books 'Ética na inteligência artificial' and 'Why AI undermines democracy and what to do about it'."
Factual -
P3
"The article references historical figures (Mussolini, Hitler, Kafka, Arendt) and contemporary figures (Trump, Musk, Gates, Epstein)."
Factual -
P4
"Concentration of power in few companies + rise of right-wing populism causes creates environment favorable for technofascism."
Causal -
P5
"Automation of decisions by algorithms causes removes moral responsibility and human judgment -> leads to a new 'banality of evil'."
Causal -
P6
"Big tech control over social media causes amplifies dominant narratives and suppresses dissenting voices."
Causal -
P7
"Technological tools (algorithms) knowing what you need causes people become docile and obedient through pleasure and convenience."
Causal
Claim Relationships Graph
View Formal Logic Representation
=== Propositions === P1 [factual]: Mark Coeckelbergh is a professor of Philosophy of Media and Technology at the University of Vienna. P2 [factual]: Coeckelbergh authored books 'Ética na inteligência artificial' and 'Why AI undermines democracy and what to do about it'. P3 [factual]: The article references historical figures (Mussolini, Hitler, Kafka, Arendt) and contemporary figures (Trump, Musk, Gates, Epstein). P4 [causal]: Concentration of power in few companies + rise of right-wing populism causes creates environment favorable for technofascism. P5 [causal]: Automation of decisions by algorithms causes removes moral responsibility and human judgment -> leads to a new 'banality of evil'. P6 [causal]: Big tech control over social media causes amplifies dominant narratives and suppresses dissenting voices. P7 [causal]: Technological tools (algorithms) knowing what you need causes people become docile and obedient through pleasure and convenience. === Causal Graph === concentration of power in few companies rise of rightwing populism -> creates environment favorable for technofascism automation of decisions by algorithms -> removes moral responsibility and human judgment leads to a new banality of evil big tech control over social media -> amplifies dominant narratives and suppresses dissenting voices technological tools algorithms knowing what you need -> people become docile and obedient through pleasure and convenience
All claims are logically consistent. No contradictions, temporal issues, or circular reasoning detected.