▸ Article
Senacon, MPF e ANPD exigem que X adote medidas rigorosas contra conteúdo sexual gerado com IA
Instituições apresentaram prazo de cinco dias à plataforma para cumprir determinação, sob pena de multa e ações judiciais
Senacon, MPF e ANPD exigem que o X (antigo Twitter) impeça a criação de conteúdo sexual com IA, incluindo imagens de crianças e adolescentes.
A medida foi motivada pela ferramenta Grok, que permite gerar imagens sexualizadas a partir de fotos/vídeos, causando indignação internacional.
O X tem 5 dias para cumprir a determinação, sob pena de multa e ações judiciais, após já ter removido conteúdo e suspendido contas em janeiro.
O Ministério Público Federal (MPF), a Agência Nacional de Proteção de Dados (ANPD) e a Secretaria Nacional do Consumidor (Senacon) informaram na quarta-feira (11) que ordenaram à rede social X, do bilionário Elon Musk, que adote medidas imediatas para impedir a criação de imagens de caráter sexual geradas pelo Grok, seu assistente de inteligência artificial (IA).
Vários países iniciaram processos legais contra a plataforma após a indignação internacional provocada pela ferramenta, que permite aos usuários pedir que pessoas reais apareçam nuas a partir de fotos ou vídeos.
O X deve implementar, "de forma imediata, medidas aptas a impedir a produção, a partir do Grok, de conteúdo sexualizado ou erotizado de crianças e adolescentes e de adultos que não expressaram consentimento", afirmaram o MPF, a ANPD e a Senacon.
As instituições apresentaram prazo de cinco dias à plataforma para cumprir a determinação, sob pena de multa e ações judiciais.
Segundo as autoridades brasileiras, após um alerta no fim de janeiro, o X afirmou "ter removido milhares de publicações e suspendido centenas de contas por violação às suas políticas, além de declarar a adoção de medidas de segurança".
Também afirmaram que a empresa não foi transparente em sua resposta.
O X havia anunciado em meados de janeiro uma limitação de sua ferramenta de IA nos países onde a criação deste tipo de imagem é ilegal, mas ainda não é possível saber onde a limitação está em vigor.
O Grok, da empresa xAI de Musk, permitiu que os usuários modificassem imagens reais de pessoas com instruções simples como "coloque um biquíni" ou "tire a roupa".
Segundo o Centro de Combate ao Ódio Digital (CCDH, na sigla em inglês), que investiga os efeitos nocivos da desinformação na internet, o chatbot gerou uma estimativa de três milhões de imagens sexualizadas de mulheres e menores em apenas alguns dias.
© Agence France-Presse
Siga nosso canal no WhatsApp
Siga-nos no
Siga-nos no
Deixe um comentário para nossos editores.
Hover overTap highlighted text for details
▸ Source Quality 3/5
Source classification (primary/secondary/tertiary), named vs anonymous, expert credentials, variety
Summary
Relies on official statements from Brazilian authorities and a secondary report from an NGO, but lacks direct primary sources like interviews.
Findings 3
"O Ministério Público Federal (MPF), a Agência Nacional de Proteção de Dados (ANPD) e a Secretaria Nacional do Consumidor (Senacon) informaram"
Article cites official, named Brazilian government authorities.
Named source"Segundo o Centro de Combate ao Ódio Digital (CCDH, na sigla em inglês)"
Cites a named NGO as a source for a statistic.
Secondary source"© Agence France-Presse"
Article is credited to a wire service, indicating potential sourcing from other media.
Tertiary source▸ Perspective Balance 2/5
Acknowledgment of multiple viewpoints, counterarguments, and balanced presentation
Summary
Primarily presents the perspective of regulatory authorities demanding action; includes minimal counterpoint from the company.
Findings 2
"exigem que X adote medidas rigorosas"
Headline frames the story as authorities demanding action, setting a one-sided tone.
One sided"u "ter removido milhares de publicações e suspendido centenas de contas por violação às suas"
Briefly notes the company's stated previous actions in response.
Balance indicator▸ Contextual Depth 3/5
Background information, statistics, comprehensiveness of coverage
Summary
Provides basic context about the tool, international reaction, and a timeline, but lacks deeper technical or legal background.
Findings 3
"ferramenta Grok, que permite gerar imagens sexualizadas a partir de fotos/vídeos"
Explains the function of the AI tool at the center of the controversy.
Background"três milhões de imagens sexualizadas de mulheres e menores em apenas alguns dias"
Provides a specific statistic from a source to quantify the scale of the issue.
Statistic"após um alerta no fim de janeiro"
Provides a basic timeline of events leading to the current demand.
Context indicator▸ Language Neutrality 4/5
Absence of loaded, sensationalist, or politically biased language
Summary
Language is largely factual and neutral, with one instance of potentially loaded language.
Findings 2
"apresentaram prazo de cinco dias à plataforma para cumprir a determinação"
Neutral reporting of a factual deadline.
Neutral language"causando indignação internacional"
Uses emotional language ('indignação') to describe the reaction.
Sensationalist▸ Transparency 4/5
Author attribution, dates, methodology disclosure, quote attribution
Summary
Clear author and date attribution, good quote attribution, but lacks methodology disclosure.
Findings 1
"afirmaram o MPF, a ANPD e a Senacon"
Direct statement is clearly attributed to the authorities.
Quote attribution▸ Logical Coherence 5/5
Internal consistency of claims, absence of contradictions and unsupported causation
Summary
No logical contradictions or inconsistencies detected in the article's narrative.
Logic Issues
Contradiction · high
Conflicting values for 'the': 5 vs 3
"Heuristic: Values conflict between P1 and P3"
Core Claims
"Brazilian authorities (MPF, ANPD, Senacon) have ordered X to adopt immediate measures to prevent the creation of sexualized AI-generated content via Grok."
Direct statement attributed to MPF, ANPD, and Senacon. Named source
"The Grok AI tool allows users to generate sexualized images from real photos/videos."
Presented as a factual description of the tool's capabilities within the article. Named secondary
Logic Model Inspector
Inconsistencies FoundExtracted Propositions (4)
-
P1
"The authorities gave X a 5-day deadline to comply."
Factual In contradiction -
P2
"X had previously removed content and suspended accounts in January."
Factual -
P3
"The CCDH estimated Grok generated ~3 million sexualized images in a few days."
Factual In contradiction -
P4
"The international outrage causes by Grok led to legal processes in several countries."
Causal
Claim Relationships Graph
Detected Contradictions (1)
View Formal Logic Representation
=== Propositions === P1 [factual]: The authorities gave X a 5-day deadline to comply. P2 [factual]: X had previously removed content and suspended accounts in January. P3 [factual]: The CCDH estimated Grok generated ~3 million sexualized images in a few days. P4 [causal]: The international outrage causes by Grok led to legal processes in several countries. === Constraints === P1 contradicts P3 Note: Conflicting values for 'the': 5 vs 3 === Causal Graph === the international outrage -> by grok led to legal processes in several countries === Detected Contradictions === UNSAT: P1 AND P3 Proof: Heuristic: Values conflict between P1 and P3
Want to score another article? Paste a new URL →