O Google está ensinando seu filho a esconder coisas de você
É exatamente isso que o Google tem feito, ao redor do mundo, com crianças que estão prestes a completar 13 anos. Na semana passada, um post no meu feed do Linkedin me chocou. Melissa McKay, presidente de uma organização dos Estados Unidos que atua em prol de uma internet mais segura para crianças, postou que, a um mês de completar 13 anos, seu filho recebeu um email do Google avisando que ele logo poderia desabilitar os controles parentais.
"Uma corporação trilionária está diretamente contactando cada criança para dizer a ela que ela tem idade suficiente para se 'graduar' da supervisão parental. Esse e-mail explica como uma criança pode remover esses controles sozinha, sem consentimento ou envolvimento dos pais", escreveu McKay.
Você deve ter visto nessa última semana os protestos de crianças no Roblox. Carregando cartazes virtuais, esses usuários (que ninguém tem certeza se são crianças, diga-se de passagem) protestavam contra recentes medidas de segurança implementadas pela plataforma.
É fato que, faltando dois meses para que a lei nº 15.211/2025, o chamado ECA Digital, entre em vigor no Brasil, as big techs e outras plataformas estão sentindo o bafo quente da regulação em seus pescoços. O Roblox não fica de fora, e já antecipou os efeitos e introduziu novas medidas de verificação etária.
Mas as big techs também se anteciparam com uma mudança no discurso. Em novembro, cerca de dois meses depois que o presidente Luiz Inácio Lula da Silva sancionou o ECA Digital, começou a circular uma campanha chamada "Rede que Cuida, focada em "promover a conscientização, prevenção e enfrentamento dos riscos de crianças e adolescentes no ambiente digital".
O mote da campanha é que a proteção de crianças e adolescentes na internet é uma responsabilidade compartilhada entre os diferentes setores da sociedade. Parece uma boa iniciativa. O problema é quem está por trás dela: o Conselho Digital.
Se você é leitor do Intercept há algum tempo, já ouviu falar nesse nome. Mas eu te relembro: o Conselho Digital, antigo Instituto Cidadania Digital, é ligado à Frente Digital, um braço de lobby poderosíssimo bancado pelas maiores empresas de tecnologia no mundo para representar seus interesses.
Se a gente pensar em momentos-chave que travaram a agenda de regulação de redes sociais no Brasil, o Conselho Digital estava lá atuando. O modus operandi desse grupo repete o modelo do Instituto Pensar Agropecuária. Mas sob esteróides, como eu costumo dizer. Afinal eles conseguem ir um passo além do agro porque controlam as arenas onde acontece o debate público.
As big techs nunca estiveram muito interessadas em proteger crianças e adolescentes dos danos ocasionados pelas redes sociais. Os Facebook Papers, um conjunto de documentos internos vazados pela ex-funcionária Frances Haugen, revelaram que o Facebook adotou medidas agressivas para aumentar seu uso e retenção entre crianças pequenas. Os mesmos documentos mostraram que a empresa sabia que o Instagram era tóxico para adolescentes, em especial meninas.
Em 2024, o Conselho Digital financiou um relatório de um pesquisador que minimiza o impacto das telas sobre a saúde mental de jovens. A pesquisa foi apresentada em uma comissão sobre proteção de crianças e adolescentes no Senado. Porém, o pesquisador omitiu um detalhe: quem pagou pela pesquisa foram as big techs, principais interessadas no uso prolongado de telas. Mas isso nós revelamos.
LEIA TAMBÉM:
A crise dos EUA é uma oportunidade para combater as big techs
Por que este pesquisador brasileiro negou um prestigioso prêmio bancado por uma big tech
ENTREVISTA: 'A indústria de IA não se importa com nada além de si mesma'
Com a inteligência artificial, o que era ruim piorou. O caso Grok e a omissão do X (que agora está sob a mira do Judiciário brasileiro) escancara a violência contra mulheres e meninas. E digo escancara porque, como pontuou a pesquisadora e co-diretora do Internet Lab Mariana Valente, essa é apenas a ponta do iceberg. Há anos, pesquisadores e jornalistas alertam sobre bots no Telegram e apps que retiram roupas de mulheres – e crianças.
A falácia da "responsabilidade compartilhada"
Tudo isso não quer dizer que eu não acredite que o cuidado deva ser compartilhado. Mas eu vejo uma assimetria brutal de poder entre quem opera as redes, os feeds e algoritmos, e quem está do lado de cá das telas.
Em São Paulo, onde eu moro, o tempo médio de deslocamento para moradores no dia-a-dia é de 2 horas e 25 minutos. Eu não consigo deixar de pensar nas mães e pais que depois do trabalho, com todo esse tempo de deslocamento, precisam chegar em casa e resolver comida e outras tarefas domésticas. Qual é o tempo que sobra para supervisionar um uso de tela por uma criança? Para checar com quem a sua adolescente está conversando?
E por isso não enxergo como justa essa terceirização do cuidado, sendo que há muito mais que as plataformas poderiam fazer pela proteção das nossas crianças e adolescentes.
Também porque a responsabilidade compartilhada é muito delicada. Em julho de 2025, publicamos uma reportagem sobre um grupo de canais de YouTube gerenciados por adultos que estavam enriquecendo às custas da exploração da imagem de menores, inclusive em vídeos de cunho sexual. Depois da primeira reportagem, soubemos que professores da escola onde essas crianças estudam já haviam feito denúncias ao Ministério Público e ao próprio YouTube, sem sucesso. A rede de cuidado tem limites.
O perigo invisível: IA e a saúde mental
O que mais as redes poderiam fazer pelas crianças e adolescentes? Um bom começo seria garantir que os pais tenham soberania sobre as decisões que envolvem seus filhos. Não cabe ao Google dizer a uma criança que ele pode se livrar de controles parentais.
Isso também me faz pensar sobre os casos de pais que estão processando a OpenAI e outros assistentes de IA que encorajaram seus filhos à auto-mutilação ou suicídio. Em um dos casos, o ChatGPT dissuadiu o adolescente de falar com a mãe sobre as ideações suicidas.
'Não dá para se dizer a favor da proteção de crianças e adolescentes e lutar contra leis e proposições que buscam endereçar essas questões'.
Esses problemas ligados à IA são preveníveis. A questão é que, nessa corrida maluca da IA, a obsessão é por estar na frente, em detrimento da segurança e de uma reflexão mais aprofundada sobre os potenciais danos dessa tecnologia.
Por fim, o que as empresas de tecnologia podem realmente fazer se querem ajudar os pais a protegerem suas filhas e filhos é não resistir e ativamente lutar contra a regulação. Não dá para se dizer a favor da proteção de crianças e adolescentes e lutar contra leis e proposições que buscam endereçar essas questões.
Para além do ECA Digital, o Brasil pode aprovar este ano a regulamentação de IA. Parlamentares têm a oportunidade de passar uma legislação séria e rigorosa que olhe para essas questões e exija das big techs medidas à altura dos danos potenciais. Aí sim, poderemos falar de rede de cuidado compartilhado.
PRECISAMOS DAS SUAS IDEIAS
O Intercept Brasil precisa da sua ajuda para definir sua estratégia editorial. É muito importante. Nossa redação não tem patrão nem rabo preso. Somo 100% financiados por quem acredita em jornalismo independente: você. Por isso sua opinião é fundamental para nós. E sua resposta é como uma doação. Responda um breve questionário. É uma contribuição acessível a todos e ajuda a definir o futuro do Intercept. Esta pesquisa leva menos de 3 minutos e vai ajudar a orientar nossas próximas investigações e iniciativas. Cada resposta conta.
PARTICIPE AGORA
Hover overTap highlighted text for details
Source Quality
Source classification (primary/secondary/tertiary), named vs anonymous, expert credentials, variety
Summary
Relies on one primary source (a LinkedIn post) and several secondary/tertiary sources, with some named experts but limited direct sourcing.
Specific Findings from the Article (4)
" Melissa McKay, presidente de uma organização dos Estados Unidos que atua em prol de uma internet mais segura para crianças, postou que, a um mês de completar 13 anos, seu filho recebeu um email do..."
Primary source is a social media post, not a direct interview or document.
Primary source" Os Facebook Papers, um conjunto de documentos internos vazados pela ex-funcionária Frances Haugen, revelaram"
Cites leaked documents as a secondary source.
Secondary source" como pontuou a pesquisadora e co-diretora do Internet Lab Mariana Valente, essa é ap"
Named expert with credentials provided.
Expert source" publicamos uma reportagem sobre um grupo de canais de YouTube gerenciado"
References other reports and previous journalism without direct attribution.
Tertiary sourcePerspective Balance
Acknowledgment of multiple viewpoints, counterarguments, and balanced presentation
Summary
Primarily presents one critical perspective against big tech; minimal effort to include tech companies' viewpoints or defenses.
Specific Findings from the Article (3)
" As big techs nunca estiveram muito interessadas em proteger crianças e adolescentes dos danos ocasionados pelas redes sociais. Os Faceboo"
Strong, one-sided claim without counter-argument.
One sided" o Conselho Digital, antigo Instituto Cidadania Digital, é ligado à Frente Digital, um braço de lobby poderosíssimo bancado pelas maiores empresas de tecnologia no mundo p"
Presents a critical view of an organization without its perspective.
One sided" O mote da campanha é que a proteção de crianças e adolescentes na internet é uma responsabilidade compartilhada entre os diferentes setores da sociedade. Parece uma boa iniciativa. O problema"
Acknowledges a potential positive initiative before critiquing it.
Balance indicatorContextual Depth
Background information, statistics, comprehensiveness of coverage
Summary
Provides good context including legal background, historical examples, and statistical data.
Specific Findings from the Article (4)
" faltando dois meses para que a lei nº 15.211/2025, o chamado ECA Digital, entre em vigor no Brasil, as big te"
Provides legal and temporal context.
Background" Em São Paulo, onde eu moro, o tempo médio de deslocamento para moradores no dia-a-dia é de 2 horas e 25 minutos. Eu não con"
Uses statistical data to support an argument.
Statistic" Em novembro, cerca de dois meses depois que o presidente Luiz Inácio Lula da Silva sancionou o ECA Digital, começou a circular uma campanha chamada "Rede que Cuida, focada em "
Provides historical sequence and context for events.
Context indicator"n, revelaram que o Facebook adotou medidas agressivas para aumentar seu uso e retenção entre crianças pequenas. Os mesmos documentos mostraram"
References past events for background.
BackgroundLanguage Neutrality
Absence of loaded, sensationalist, or politically biased language
Summary
Contains several instances of loaded language and emotional framing, though not excessively sensationalist.
Specific Findings from the Article (2)
" É fato que, faltando dois meses para que a lei nº 15.211/2025, o chamado ECA Digital, entre em vigor no Brasil, as big te"
Factual, neutral statement.
Neutral language" sob esteróides, como eu costumo dizer. Afinal el"
Informal, exaggerated comparison.
SensationalistTransparency
Author attribution, dates, methodology disclosure, quote attribution
Summary
Clear author attribution and date; good quote attribution; lacks methodology disclosure.
Specific Findings from the Article (1)
" como pontuou a pesquisadora e co-diretora do Internet Lab Mariana Valente, essa é ap"
Expert quote properly attributed.
Quote attributionLogical Coherence
Internal consistency of claims, absence of contradictions and unsupported causation
Summary
Generally coherent argument with one minor potential inconsistency in framing.
Specific Findings from the Article (4)
" É exatamente isso que o Google tem feito, ao redor do mundo, com crianças que estão prestes a completar 13 anos. Na semana "
Makes a broad global claim based on one anecdotal example.
Unsupported cause" Por fim, o que as empresas de tecnologia podem realmente fazer se querem ajudar os pais a protegerem suas filhas e filhos é não re"
Initially acknowledges shared responsibility concept, then argues strongly against its current implementation without clear transition.
Contradiction"certo? É exatamente isso que o Google tem feito, ao redor do mundo, com crianças que estão prestes a completa"
The article generalizes Google's actions to a global scale based on a single anecdote from a LinkedIn post.
Logic unsupported cause" Tudo isso não quer dizer que eu não acredite que o cuidado deva ser compartilhado. Mas eu vejo uma assimetria"
The author acknowledges the concept of shared responsibility but then strongly argues against its current implementation without fully reconciling these positions.
Logic contradictionLogic Issues Detected
-
Unsupported cause (medium)
The article generalizes Google's actions to a global scale based on a single anecdote from a LinkedIn post.
"Claim: 'É exatamente isso que o Google tem feito, ao redor do mundo, com crianças' based on 'Melissa McKay... postou que... seu filho recebeu um email do Google'"
-
Contradiction (low)
The author acknowledges the concept of shared responsibility but then strongly argues against its current implementation without fully reconciling these positions.
"'Tudo isso não quer dizer que eu não acredite que o cuidado deva ser compartilhado' vs 'Por fim, o que as empresas de tecnologia podem realmente fazer... é não resistir e ativamente lutar contra a regulação'"
Core Claims & Their Sources
-
"Google is teaching children worldwide to hide things from parents by emailing them about disabling parental controls."
Source: LinkedIn post by Melissa McKay, president of a child internet safety organization Named secondary
-
"Big tech companies are not genuinely interested in protecting children and actively lobby against regulation."
Source: References to Facebook Papers, Conselho Digital lobbying, and author's analysis Named secondary
-
"The 'shared responsibility' framework for child online protection is inadequate due to power asymmetry between platforms and users."
Source: Author's analysis and opinion Unattributed
Logic Model Inspector
ConsistentExtracted Propositions (9)
-
P1
"Melissa McKay's son received an email from Google about disabling parental controls before turning 13."
Factual -
P2
"The ECA Digital law (15.211/2025) will enter into force in Brazil in two months."
Factual -
P3
"Facebook Papers revealed Facebook targeted children and knew Instagram was toxic for teens."
Factual -
P4
"In São Paulo, average daily commute time is 2 hours 25 minutes."
Factual -
P5
"Conselho Digital funded research minimizing screen time impact on youth mental health."
Factual -
P6
"Big tech lobbying causes delayed social media regulation in Brazil"
Causal -
P7
"AI development race causes neglect of safety considerations"
Causal -
P8
"Platform resistance to regulation causes inadequate child protection"
Causal -
P9
"Parental time constraints causes limited ability to supervise children's screen use"
Causal
Claim Relationships Graph
View Formal Logic Representation
=== Propositions === P1 [factual]: Melissa McKay's son received an email from Google about disabling parental controls before turning 13. P2 [factual]: The ECA Digital law (15.211/2025) will enter into force in Brazil in two months. P3 [factual]: Facebook Papers revealed Facebook targeted children and knew Instagram was toxic for teens. P4 [factual]: In São Paulo, average daily commute time is 2 hours 25 minutes. P5 [factual]: Conselho Digital funded research minimizing screen time impact on youth mental health. P6 [causal]: Big tech lobbying causes delayed social media regulation in Brazil P7 [causal]: AI development race causes neglect of safety considerations P8 [causal]: Platform resistance to regulation causes inadequate child protection P9 [causal]: Parental time constraints causes limited ability to supervise children's screen use === Causal Graph === big tech lobbying -> delayed social media regulation in brazil ai development race -> neglect of safety considerations platform resistance to regulation -> inadequate child protection parental time constraints -> limited ability to supervise childrens screen use
All claims are logically consistent. No contradictions, temporal issues, or circular reasoning detected.