Regulação da IA nas eleições 2026: Entre o risco e a confiança pública | Congresso em Foco
Receba notícias do Congresso em Foco:
Tecnologia
16/3/2026 18:00
A-A+
O Tribunal Superior Eleitoral (TSE) aprovou proposta de alteração da Resolução TSE 23.608/2019, que proíbe a publicação, republicação ou impulsionamento de conteúdos inéditos produzidos ou manipulados por IA nas 72 horas que antecedem a votação e nas 24 horas seguintes ao encerramento das eleições.
A regra inclui qualquer material que mescle voz, imagem ou manifestação de candidatos ou pessoas públicas (mesmo que esteja rotulado como gerado por IA) e prevê a remoção imediata do conteúdo em caso de descumprimento pelas plataformas digitais.
A intenção é reduzir o impacto de "surpresas indesejadas" e desinformação de última hora, removendo a possibilidade de divulgar materiais manipulados pouco antes do pleito, quando já restaria pouco tempo para correções ou checagens.
O elemento mais afetado não é apenas a veracidade de um conteúdo específico, mas a confiança que sustenta o ambiente democrático.Freepik
O problema é concreto. Hoje, sistemas de IA permitem criar vídeos, áudios e imagens capazes de simular com grande realismo falas ou comportamentos que nunca aconteceram. Na prática, é possível colocar palavras na boca de um candidato ou fabricar uma situação inexistente.
Mesmo quando rotulado "gerado por IA", o conteúdo pode cumprir sua função antes que a explicação chegue ao público: em ambientes digitais, a simples existência do material pode produzir riscos relevantes para a sociedade e de difícil reparação, uma vez que esse tipo de material costuma produzir efeitos imediatos no imaginário dos eleitores.
Nesse sentido, talvez a discussão não devesse se limitar à suspensão temporária desses conteúdos. O ponto central parece ser outro: o que acontece com a confiança pública quando já não se sabe se imagens, vídeos ou declarações são autênticos?
A questão não é meramente tecnológica, mas também ética e democrática. A democracia pressupõe responsabilidade discursiva: alguém responde pelo que diz. Quando a imagem e a voz de uma pessoa podem ser artificialmente manipuladas por terceiros, rompe-se o vínculo entre identidade, fala e responsabilidade. O resultado tende a ser a erosão da confiança pública.
Nesse contexto, o elemento mais afetado não é apenas a veracidade de um conteúdo específico, mas a confiança que sustenta o ambiente democrático – que depende de uma base mínima de confiança compartilhada. Confiança de que candidatos respondem pelas próprias falas, de que imagens e registros audiovisuais possuem algum vínculo com a realidade e de que o debate político ocorre dentro de parâmetros minimamente verificáveis.
Cria-se um ambiente em que o debate público deixa de girar em torno de propostas, valores ou argumentos e passa a girar em torno da própria existência dos fatos. A esfera pública torna-se um espaço de suspeita contínua, em que qualquer informação pode ser descartada como fabricação.
Como observa o sociólogo Manuel Castells, que desenvolveu o conceito de Sociedade da Informação, o poder contemporâneo se estrutura pela capacidade de moldar fluxos de informação. Se a disputa política já ocorre nesse campo simbólico, permitir que a própria identidade visual e vocal dos atores seja tecnicamente apropriada e remodelada amplia exponencialmente o potencial de manipulação da sociedade.
Em um cenário em que não basta checar informações, mas também verificar se a própria realidade visual foi artificialmente construída, talvez seja necessário ir além de pausas temporárias. A pergunta que permanece, portanto, não diz respeito apenas à tecnologia disponível, mas ao tipo de ambiente que se pretende preservar.
Caso contrário, corremos o risco de viver algo próximo a um conto de Edgar Allan Poe: um ambiente em que não se pode acreditar em nada do que se ouve — e em apenas metade do que se vê.
O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para redacao@congressoemfoco.com.br.
Temas
Comentários (0)
Faça login e deixe seu comentário
ARTIGOS MAIS LIDOS
[Erro-Front-CONG-API]: Erro ao chamar a api CMS_NOVO.
{ "datacode": "BANNER_VAST", "exhibitionresource": "ARTIGO_LEITURA", "showDelay": false, "viewed": [], "context": "{\"positioncode\":\"VAST_Leitura_Artigos\"}" }
Utilizamos cookies e outras tecnologias semelhantes para melhorar sua experiência. Ao continuar navegando, você aceita a nossa política de monitoramento. Mais informações, consulte os Termos de Uso.
Hover overTap highlighted text for details
Source Quality
Source classification (primary/secondary/tertiary), named vs anonymous, expert credentials, variety
Summary
Relies primarily on tertiary sources and one expert citation, with no primary sources or direct interviews.
Specific Findings from the Article (3)
"O Tribunal Superior Eleitoral (TSE) aprovou proposta de alteração da Resolução TSE 23.608/2019"
References a resolution but doesn't cite direct sources from TSE
Tertiary source"Como observa o sociólogo Manuel Castells, que desenvolveu o conceito de Sociedade da Informação"
Cites an academic expert but doesn't provide direct interview or quote
Expert source"Cria-se um ambiente em que o debate público deixa de girar em torno de propostas"
Analytical claim without specific source attribution
Tertiary sourcePerspective Balance
Acknowledgment of multiple viewpoints, counterarguments, and balanced presentation
Summary
Primarily presents one perspective on AI regulation without exploring counterarguments.
Specific Findings from the Article (3)
"A intenção é reduzir o impacto de "surpresas indesejadas" e desinformação de última hora"
Presents only the rationale for regulation without opposing views
One sided"O resultado tende a ser a erosão da confiança pública"
Assumes negative outcome without presenting alternative perspectives
One sided"Caso contrário, corremos o risco de viver algo próximo a um conto de Edgar Allan Poe"
Uses dramatic analogy without balancing with potential benefits of AI
One sidedContextual Depth
Background information, statistics, comprehensiveness of coverage
Summary
Provides good historical context, specific regulations, and theoretical framework.
Specific Findings from the Article (3)
"Resolução TSE 23.608/2019, que proíbe a publicação, republicação ou impulsionamento de conteúdos inéditos"
Provides specific regulatory context and timeline
Background"nas 72 horas que antecedem a votação e nas 24 horas seguintes ao encerramento das eleições"
Specific temporal context for regulation
Context indicator"Como observa o sociólogo Manuel Castells, que desenvolveu o conceito de Sociedade da Informação"
Provides theoretical framework for analysis
Context indicatorLanguage Neutrality
Absence of loaded, sensationalist, or politically biased language
Summary
Mostly neutral but includes some dramatic language and analogies.
Specific Findings from the Article (3)
"O Tribunal Superior Eleitoral (TSE) aprovou proposta de alteração"
Factual, neutral reporting
Neutral language"Caso contrário, corremos o risco de viver algo próximo a um conto de Edgar Allan Poe"
Uses dramatic literary analogy
Sensationalist"um ambiente em que não se pode acreditar em nada do que se ouve"
Emotional, dramatic language
SensationalistTransparency
Author attribution, dates, methodology disclosure, quote attribution
Summary
Good author attribution and disclaimer, but lacks methodology disclosure.
Specific Findings from the Article (2)
"16/3/2026 18:00"
Clear publication date and time
Date present"O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco"
Clear disclaimer about perspective
Quote attributionLogical Coherence
Internal consistency of claims, absence of contradictions and unsupported causation
Summary
No logical inconsistencies detected; arguments flow coherently.
Specific Findings from the Article (1)
"O resultado tende a ser a erosão da confiança pública"
Claim about erosion of trust is presented as likely outcome
Unsupported causeCore Claims & Their Sources
-
"AI-generated content in elections threatens democratic trust and requires regulation"
Source: Analysis by authors with reference to Manuel Castells' theory Named secondary
-
"TSE regulation prohibits AI-generated content 72 hours before and 24 hours after elections"
Source: Reference to TSE resolution without direct source citation Unattributed
Logic Model Inspector
ConsistentExtracted Propositions (6)
-
P1
"TSE approved changes to Resolution 23.608/2019"
Factual -
P2
"Regulation prohibits AI-generated content 72 hours before and 24 hours after elections"
Factual -
P3
"AI systems can create realistic fake videos, audio, and images"
Factual -
P4
"AI-generated content causes erosion of public trust"
Causal -
P5
"Allowing voice/image manipulation causes increased societal manipulation potential"
Causal -
P6
"Loss of authenticity verification causes public sphere becomes space of continuous suspicion"
Causal
Claim Relationships Graph
View Formal Logic Representation
=== Propositions === P1 [factual]: TSE approved changes to Resolution 23.608/2019 P2 [factual]: Regulation prohibits AI-generated content 72 hours before and 24 hours after elections P3 [factual]: AI systems can create realistic fake videos, audio, and images P4 [causal]: AI-generated content causes erosion of public trust P5 [causal]: Allowing voice/image manipulation causes increased societal manipulation potential P6 [causal]: Loss of authenticity verification causes public sphere becomes space of continuous suspicion === Causal Graph === aigenerated content -> erosion of public trust allowing voiceimage manipulation -> increased societal manipulation potential loss of authenticity verification -> public sphere becomes space of continuous suspicion
All claims are logically consistent. No contradictions, temporal issues, or circular reasoning detected.