Senacon, MPF e ANPD exigem que X adote medidas rigorosas contra conteúdo sexual gerado com IA - Revista Fórum
Senacon, MPF e ANPD exigem que X adote medidas rigorosas contra conteúdo sexual gerado com IA
Instituições apresentaram prazo de cinco dias à plataforma para cumprir determinação, sob pena de multa e ações judiciais
Senacon, MPF e ANPD exigem que o X (antigo Twitter) impeça a criação de conteúdo sexual com IA, incluindo imagens de crianças e adolescentes.
A medida foi motivada pela ferramenta Grok, que permite gerar imagens sexualizadas a partir de fotos/vídeos, causando indignação internacional.
O X tem 5 dias para cumprir a determinação, sob pena de multa e ações judiciais, após já ter removido conteúdo e suspendido contas em janeiro.
O Ministério Público Federal (MPF), a Agência Nacional de Proteção de Dados (ANPD) e a Secretaria Nacional do Consumidor (Senacon) informaram na quarta-feira (11) que ordenaram à rede social X, do bilionário Elon Musk, que adote medidas imediatas para impedir a criação de imagens de caráter sexual geradas pelo Grok, seu assistente de inteligência artificial (IA).
Vários países iniciaram processos legais contra a plataforma após a indignação internacional provocada pela ferramenta, que permite aos usuários pedir que pessoas reais apareçam nuas a partir de fotos ou vídeos.
O X deve implementar, "de forma imediata, medidas aptas a impedir a produção, a partir do Grok, de conteúdo sexualizado ou erotizado de crianças e adolescentes e de adultos que não expressaram consentimento", afirmaram o MPF, a ANPD e a Senacon.
As instituições apresentaram prazo de cinco dias à plataforma para cumprir a determinação, sob pena de multa e ações judiciais.
Segundo as autoridades brasileiras, após um alerta no fim de janeiro, o X afirmou "ter removido milhares de publicações e suspendido centenas de contas por violação às suas políticas, além de declarar a adoção de medidas de segurança".
Também afirmaram que a empresa não foi transparente em sua resposta.
O X havia anunciado em meados de janeiro uma limitação de sua ferramenta de IA nos países onde a criação deste tipo de imagem é ilegal, mas ainda não é possível saber onde a limitação está em vigor.
O Grok, da empresa xAI de Musk, permitiu que os usuários modificassem imagens reais de pessoas com instruções simples como "coloque um biquíni" ou "tire a roupa".
Segundo o Centro de Combate ao Ódio Digital (CCDH, na sigla em inglês), que investiga os efeitos nocivos da desinformação na internet, o chatbot gerou uma estimativa de três milhões de imagens sexualizadas de mulheres e menores em apenas alguns dias.
© Agence France-Presse
Siga nosso canal no WhatsApp
Siga-nos no
Siga-nos no
Deixe um comentário para nossos editores.
Hover overTap highlighted text for details
Source Quality
Source classification (primary/secondary/tertiary), named vs anonymous, expert credentials, variety
Summary
Relies on official statements from Brazilian authorities and a secondary report from an NGO, but lacks direct primary sources like interviews.
Specific Findings from the Article (3)
"O Ministério Público Federal (MPF), a Agência Nacional de Proteção de Dados (ANPD) e a Secretaria Nacional do Consumidor (Senacon) informaram"
Article cites official, named Brazilian government authorities.
Named source"Segundo o Centro de Combate ao Ódio Digital (CCDH, na sigla em inglês)"
Cites a named NGO as a source for a statistic.
Secondary source"© Agence France-Presse"
Article is credited to a wire service, indicating potential sourcing from other media.
Tertiary sourcePerspective Balance
Acknowledgment of multiple viewpoints, counterarguments, and balanced presentation
Summary
Primarily presents the perspective of regulatory authorities demanding action; includes minimal counterpoint from the company.
Specific Findings from the Article (2)
"exigem que X adote medidas rigorosas"
Headline frames the story as authorities demanding action, setting a one-sided tone.
One sided"u "ter removido milhares de publicações e suspendido centenas de contas por violação às suas"
Briefly notes the company's stated previous actions in response.
Balance indicatorContextual Depth
Background information, statistics, comprehensiveness of coverage
Summary
Provides basic context about the tool, international reaction, and a timeline, but lacks deeper technical or legal background.
Specific Findings from the Article (3)
"ferramenta Grok, que permite gerar imagens sexualizadas a partir de fotos/vídeos"
Explains the function of the AI tool at the center of the controversy.
Background"três milhões de imagens sexualizadas de mulheres e menores em apenas alguns dias"
Provides a specific statistic from a source to quantify the scale of the issue.
Statistic"após um alerta no fim de janeiro"
Provides a basic timeline of events leading to the current demand.
Context indicatorLanguage Neutrality
Absence of loaded, sensationalist, or politically biased language
Summary
Language is largely factual and neutral, with one instance of potentially loaded language.
Specific Findings from the Article (2)
"apresentaram prazo de cinco dias à plataforma para cumprir a determinação"
Neutral reporting of a factual deadline.
Neutral language"causando indignação internacional"
Uses emotional language ('indignação') to describe the reaction.
SensationalistTransparency
Author attribution, dates, methodology disclosure, quote attribution
Summary
Clear author and date attribution, good quote attribution, but lacks methodology disclosure.
Specific Findings from the Article (1)
"afirmaram o MPF, a ANPD e a Senacon"
Direct statement is clearly attributed to the authorities.
Quote attributionLogical Coherence
Internal consistency of claims, absence of contradictions and unsupported causation
Summary
No logical contradictions or inconsistencies detected in the article's narrative.
Logic Issues Detected
-
Contradiction (high)
Conflicting values for 'the': 5 vs 3
"Heuristic: Values conflict between P1 and P3"
Core Claims & Their Sources
-
"Brazilian authorities (MPF, ANPD, Senacon) have ordered X to adopt immediate measures to prevent the creation of sexualized AI-generated content via Grok."
Source: Direct statement attributed to MPF, ANPD, and Senacon. Named source
-
"The Grok AI tool allows users to generate sexualized images from real photos/videos."
Source: Presented as a factual description of the tool's capabilities within the article. Named secondary
Logic Model Inspector
Inconsistencies FoundExtracted Propositions (4)
-
P1
"The authorities gave X a 5-day deadline to comply."
Factual In contradiction -
P2
"X had previously removed content and suspended accounts in January."
Factual -
P3
"The CCDH estimated Grok generated ~3 million sexualized images in a few days."
Factual In contradiction -
P4
"The international outrage causes by Grok led to legal processes in several countries."
Causal
Claim Relationships Graph
Detected Contradictions (1)
View Formal Logic Representation
=== Propositions === P1 [factual]: The authorities gave X a 5-day deadline to comply. P2 [factual]: X had previously removed content and suspended accounts in January. P3 [factual]: The CCDH estimated Grok generated ~3 million sexualized images in a few days. P4 [causal]: The international outrage causes by Grok led to legal processes in several countries. === Constraints === P1 contradicts P3 Note: Conflicting values for 'the': 5 vs 3 === Causal Graph === the international outrage -> by grok led to legal processes in several countries === Detected Contradictions === UNSAT: P1 AND P3 Proof: Heuristic: Values conflict between P1 and P3