‘Essa é a primeira eleição com uso agressivo de inteligência artificial’, aponta especialista
Para Rodrigo Neves, presidente da Anamid, o pleito deste ano será o primeiro com utilização mais intensa da IA. Ele faz um alerta: o próximo será ainda mais desafiador.
Waldick Júnior
15/03/2026 às 07:20.
Rodrigo Neves é professor especialista em Inteligência Artificial e Tecnologias Emergentes da USP (Foto: Acervo pessoal)
Para o professor especialista em Inteligência Artificial e Tecnologias Emergentes da USP, Rodrigo Neves, a eleição deste ano será a primeira a registrar um uso mais agressivo de IAs nas campanhas, tanto para o bem quanto para o mal. Na visão dele, o Tribunal Superior Eleitoral (TSE), que lançou novas regras para o tema, está fazendo o que pode para acompanhar as novas tecnologias, mas poderia ouvir mais.
Além de obrigar a sinalização do uso de IA, limitar a utilização de materiais produzidos pela tecnologia antes e depois do dia da eleição, as novas regras também aumentam a responsabilidade das plataformas digitais na fiscalização de irregularidades.
Na visão de Rodrigo, que também é presidente da Associação Nacional do Mercado e Indústria Digital (Anamid), não existe corresponsabilidade das plataformas em usos incorretos da tecnologia. No entanto, ele defende que as empresas precisam cooperar com a justiça na apuração de casos concretos.
Para A CRÍTICA, ele também fez um alerta: se as últimas eleições já foram desafiadoras por causa da IA, assim como esta também deve ser, é preciso se preparar ainda mais para o próximo pleito. "Daqui a dois anos, o nível de realismo e a facilidade de produção vão estar muito maiores." Confira a entrevista completa.
O TSE lançou novas regras para o uso de IA nas eleições, incluindo obrigação de sinalização do conteúdo, proibição de uso 72 horas antes do pleito e 24h depois, e maior responsabilização das plataformas na remoção de conteúdos vetados. O que você destaca das novas mudanças?
Acho que a questão principal que a gente pode destacar, que é muito mencionada em todo o documento, é a transparência e o envolvimento das plataformas no processo eleitoral. Quando eu falo de transparência, os candidatos e todo mundo que vai estar concorrendo às eleições têm que deixar bem claro se algum tipo de material foi produzido utilizando IA. Inclusive, tem algumas restrições sobre o uso desse material próximo do dia de eleição.
Tem outra questão que eu acho que é mais impactante também: a responsabilização e a responsabilidade que as plataformas têm, com prazos mais curtos, para retirar ou verificar algum item que pode ser uma deepfake ou algum material que não está correto dentro da campanha. Esse documento não tem tantas novidades do que a gente já conhecia, porém, ele cria algumas coisas um pouco mais rigorosas.
O ponto principal dessas regras é trazer o mínimo de possibilidade de entendimento para o eleitor. É você tentar não induzi-lo ao erro. Às vezes, a manipulação pela IA, por mais que ela não gere uma fake news, pode dar uma interpretação errada conforme for produzida. Por exemplo, um candidato não estava naquele momento, ele realmente não falou aquilo naquele local, ou uma imagem que foi produzida com algum tipo de viés; isso pode resultar num tipo de entendimento errado do eleitor e causar confusão. Próximo das eleições, isso é muito impactante porque pode mudar voto.
Como a IA já tem sido utilizada nas campanhas, tanto pelo lado positivo como negativo?
Da parte boa da coisa, ela possibilita uma resposta mais rápida para o eleitorado sobre uma determinada situação. Antes, por conta de questões relacionadas à produtividade e equipe, para você conseguir produzir uma peça ou um material, o tempo de resposta não era o ideal. Isso causava um impacto tanto no eleitor quanto para quem quer ser eleito.
A IA vem para ajudar na produtividade. Um dos grandes benefícios dela é isso. Pessoas que estão querendo se candidatar pela primeira vez e não têm muito acesso a recursos hoje conseguem produzir muito material utilizando a IA a seu favor. Quando você faz um trabalho de marketing e comunicação que também envolve tecnologia, você encarece a campanha porque tem que criar muitas landing pages, muitas peças de e-mail, muitos materiais impressos. Às vezes acontece um fato inédito e você tem que recriar tudo de novo. Além disso, tem que manter aplicativos ativos e websites; são muitos canais. A IA vem para potencializar e resolver isso.
Outra coisa muito interessante é que, com a IA, você consegue criar mecanismos para monitoramento de uma forma mais eficiente e rápida sobre o que é dito sobre você e qual o impacto da notícia. Inclusive, para quem gerencia as redes sociais dos candidatos, consegue responder o eleitor que interage de uma maneira mais rápida, com base em todo o conteúdo da candidatura da pessoa. Tudo isso é o lado bom.
A parte ruim é que a IA possibilita a quem está agindo de má-fé fazer manipulação de áudio, vídeo e imagens. Quando você pega um eleitor que não tem um nível de conhecimento avançado, ele é facilmente enganado.
Mas nós que trabalhamos com tecnologia, marketing e comunicação conseguimos perceber o que é uma IA e o que não é, mesmo se não estiver identificado. A IA acaba criando alguns padrões.
Como o eleitor pode reconhecer esses padrões e evitar ser enganado?
Em relação a vídeos, o áudio diz muito a respeito. Um vídeo que não tem áudio de fundo, está sem ruídos, ou com áudio um pouco robotizado, ou com risadas padrões, você consegue perceber. Da mesma forma, um vídeo que tem um áudio muito bem fluído, sem nenhuma interrupção. Você começa a perceber que não é uma coisa muito normal. E também, quando você vai ver um vídeo, normalmente os atores principais estão muito bem focados, mas você vê os outros personagens ao redor e é como se eles não estivessem ali, como se fossem NPCs [personagens não jogáveis], as vezes até se deformando.
As imagens hoje são um pouco mais difíceis de identificar porque estão mais legítimas. O fato de ser estático ajuda porque minimiza a questão de produção audiovisual. Apesar, disso, hoje tem ferramentas que você pode jogar a imagem e checar o nível de acurácia, ver se pode ter sido feita por uma inteligência artificial.
Você mencionou que as nova regras aumentam a responsabilidade das plataformas na fiscalização e na resposta rápida a retiradas de conteúdo. Como vê o crescimento dessa responsabilidade das plataformas?
Quando você fala da questão de ética, a ética não está na IA. A gente não pode responsabilizar 100% a ética numa IA ou numa plataforma, porque a ética é do ser humano. Por exemplo: você tem uma faca; a faca é feita para quê? Para cortar pão. Mas você pode usar a faca para outra coisa. A ferramenta de IA ou a plataforma é a mesma coisa. A ética está no ser humano.
Mas eu acredito que, a partir do momento que você tem um canal digital e uma plataforma onde oferece um serviço e tem rentabilidade, não que você seja corresponsável, eu acho que não existe uma corresponsabilidade porque as pessoas têm que ter liberdade de expressão, mas a partir do momento que houve alguma fraude ou um crime, a plataforma tem que cooperar para disponibilizar informações para que a justiça possa tomar as medidas cabíveis. Se ela não ajudar, como é que a gente vai conseguir identificar quem são os infratores?
Uma regra curiosa é a proibição de que IAs recomendem votos em candidatos. O Grok, inteligência artificial do Elon Musk, já viralizou porque disse que preferia Lula a Bolsonaro, por considerar o primeiro democrático. As plataformas conseguem, de fato, controlar isso?
Sim, totalmente. Hoje as plataformas já possuem uma coisa chamada guardrails (barreiras de proteção). As plataformas têm que se proteger de ataques que podem vir por mensagem de texto. Se hoje elas conseguem filtrar conteúdos sensíveis, como "eu quero me matar", e ela responde que não pode ajudar e orienta a procurar um médico, ela consegue facilmente também filtrar informações para não dar viés político para nenhum dos lados.
A gente falou sobre essas publicações feitas com IA no ambiente público, mas a gente tem também um submundo onde ela circula bastante: grupos de WhatsApp e perfis fakes. É possível chegar nesses espaços para fiscalizar?
Nesse caso se torna um pouco mais difícil por causa da criptografia fim a fim. O WhatsApp cada vez mais está restringindo mensagens em massa e conteúdo que é muito replicado. Eu acho que é um grande risco hoje em dia você usar uma ferramenta dessa para fazer coisas alheias ao correto. Uma coisa que é mais difícil de controlar são os grupos de WhatsApp. Só que, a partir do momento que existe um grupo que fomenta alguma coisa de forma errada e isso vaza, se tiver alguém do partido lá e isso for comprovado, o partido vai ser penalizado da mesma maneira. A regra é igual. A questão é que tem que haver uma denúncia e prints. É mais difícil de monitorar porque é uma coisa mais privativa.
Você falou do uso positivo da IA nas campanhas, mas o eleitor também tem a possibilidade de usar a IA para exercer sua cidadania?
Sim, é possível. Minha empresa, por exemplo, desenvolveu uma tecnologia que possibilita que você pegue toda a base de conhecimento de uma pessoa e crie a própria IA dela. Se o candidato subir todo o seu projeto de campanha e informações e disponibilizar isso, o eleitor pode interagir e perguntar da maneira que quiser, e a IA vai responder de uma forma que ele vai entender. Para o eleitor é ótimo porque ele consegue esclarecer suas dúvidas.
Outro caminho que grandes portais e o governo podem fazer é usar a IA para validar notícias que circulam por aí, fazer a checagem de fatos. As IAs bem treinadas conseguem dar um nível de acurácia melhor. Existe ainda um pouco de alucinação, principalmente nas IAs gratuitas, mas nessa eleição a IA vai estar bem popularizada. Eu acho que o grande desafio nem vai ser tanto essa eleição, vai ser a próxima.
Por que a próxima vai ser a mais desafiadora?
Porque a IA que nós usamos hoje é a "pior" IA que existe. Amanhã ela estará melhor, depois de amanhã melhor ainda. Ela avança em um aprendizado exponencial. Daqui a dois anos, o nível de realismo e a facilidade de produção de conteúdo vão ser muito maiores. Essa vai ser uma disputa de eleições interessante porque vai ser a primeira que a gente vai realmente ver o uso agressivo da IA.
E você considera que o Tribunal Superior Eleitoral, com essas novas regras, está conseguindo acompanhar essas mudanças?
Eu acho que eles estão tentando dentro das possibilidades. Mas, se for dar uma opinião sincera, eles deveriam envolver mais entidades de classe que têm expertise para potencializar essas análises. Às vezes me surpreende o fato de existirem entidades como a Anamid e outras que estão disponíveis para abrir debate e elas não serem convocadas. Às vezes vem uma diretriz no modelo top-down (de cima para baixo), mas não foram chamados os empresários e entidades para debater até onde é bom ou não. Existem muitas maneiras de controlar e auditar que poderiam ser feitas. Isso só vai acontecer quando o governo envolver cada vez mais entidades responsáveis na discussão. Mas eles estão tentando, de alguma maneira, melhorar esses controles.
Sobre o Portal A Crítica
No Portal A Crítica, você encontra as últimas notícias do Amazonas, colunistas exclusivos, esportes, entretenimento, interior, economia, política, cultura e mais.
Hover overTap highlighted text for details
Source Quality
Source classification (primary/secondary/tertiary), named vs anonymous, expert credentials, variety
Summary
One primary named expert source with clear credentials, but lacks multiple or diverse sources.
Specific Findings from the Article (3)
"Rodrigo Neves é professor especialista em Inteligência Artificial e Tecnologias Emergentes da USP"
The article is built around a direct interview with a named expert.
Primary source"igo, que também é presidente da Associação Nacional do Mercado e Indústria Digital (Anamid), não existe corresp"
The expert is named and his institutional affiliation is provided.
Named source"Para o professor especialista em Inteligência Artificial e Tecnologias Emergentes da USP, Rodrigo Neves"
The source is explicitly identified as a professor and specialist.
Expert sourcePerspective Balance
Acknowledgment of multiple viewpoints, counterarguments, and balanced presentation
Summary
Presents the expert's balanced view on AI's pros/cons, but lacks explicit counterpoints from other stakeholders.
Specific Findings from the Article (2)
"tanto para o bem quanto para o mal."
The expert acknowledges both positive and negative uses of AI.
Balance indicator"egativo? Da parte boa da coisa, ela possibilita uma res"
The interview structure explicitly separates positive and negative aspects.
Balance indicatorContextual Depth
Background information, statistics, comprehensiveness of coverage
Summary
Provides good context on TSE rules, specific examples, and future implications.
Specific Findings from the Article (3)
"O TSE lançou novas regras para o uso de IA nas eleições, incluindo obrigação de sinalização do conteúdo, proibição de uso 72 horas antes do pleito e 24h depois"
Provides specific background on new election rules.
Background"Porque a IA que nós usamos hoje é a "pior" IA que existe. Amanhã ela estará melhor, depois de amanhã melhor ainda. Ela avança em um aprendizado exponencial. Daqui a dois anos, o nível de realismo e..."
Provides explanatory context about AI's rapid evolution.
Context indicator"proibição de uso 72 horas antes do pleito e 24h depois"
Includes specific regulatory timeframes.
StatisticLanguage Neutrality
Absence of loaded, sensationalist, or politically biased language
Summary
Language is consistently neutral, factual, and professional throughout.
Specific Findings from the Article (3)
"Para o professor especialista em Inteligência Artificial e Tecnologias Emergentes da USP, Rodrigo Neves"
Neutral, descriptive language introducing the expert.
Neutral language"O TSE lançou novas regras para o uso de IA nas eleições"
Factual reporting of an event.
Neutral language"Acho que a questão principal que a gente pode destacar"
Neutral language presenting the expert's opinion.
Neutral languageTransparency
Author attribution, dates, methodology disclosure, quote attribution
Summary
Full author attribution, date, expert credentials, and clear quote attribution.
Specific Findings from the Article (2)
"Waldick Júnior"
Author is clearly named.
Author attribution"15/03/2026 às 07:20."
Publication date and time are provided.
Date presentLogical Coherence
Internal consistency of claims, absence of contradictions and unsupported causation
Summary
No logical inconsistencies detected; arguments flow coherently from questions to answers.
Core Claims & Their Sources
-
"This year's election will be the first with aggressive use of AI in campaigns."
Source: Direct statement from expert Rodrigo Neves Primary
-
"The Superior Electoral Court (TSE) is doing what it can to keep up with new technologies but could listen more to expert entities."
Source: Expert opinion from Rodrigo Neves Primary
-
"AI enables both positive uses (productivity, monitoring) and negative uses (media manipulation)."
Source: Expert analysis from Rodrigo Neves Primary
Logic Model Inspector
ConsistentExtracted Propositions (7)
-
P1
"Rodrigo Neves is a professor specializing in AI and Emerging Technologies at USP"
Factual -
P2
"Rodrigo Neves is president of the National Digital Market and Industry Association (Anamid)"
Factual -
P3
"TSE launched new rules for AI use in elections including mandatory labeling and usage restrictions"
Factual -
P4
"The Grok AI from Elon Musk went viral for preferring Lula over Bolsonaro"
Factual -
P5
"AI advancement causes more challenging future elections"
Causal -
P6
"New TSE rules causes increased platform responsibility for content removal"
Causal -
P7
"Use of AI in private WhatsApp groups causes more difficult to monitor and control"
Causal
Claim Relationships Graph
View Formal Logic Representation
=== Propositions === P1 [factual]: Rodrigo Neves is a professor specializing in AI and Emerging Technologies at USP P2 [factual]: Rodrigo Neves is president of the National Digital Market and Industry Association (Anamid) P3 [factual]: TSE launched new rules for AI use in elections including mandatory labeling and usage restrictions P4 [factual]: The Grok AI from Elon Musk went viral for preferring Lula over Bolsonaro P5 [causal]: AI advancement causes more challenging future elections P6 [causal]: New TSE rules causes increased platform responsibility for content removal P7 [causal]: Use of AI in private WhatsApp groups causes more difficult to monitor and control === Causal Graph === ai advancement -> more challenging future elections new tse rules -> increased platform responsibility for content removal use of ai in private whatsapp groups -> more difficult to monitor and control
All claims are logically consistent. No contradictions, temporal issues, or circular reasoning detected.