Uma mulher segura um celular com o aplicativo TikTok aberto em 11 de agosto de 2024. Oleksii Pydsosonnii/The Epoch Times

Matéria traduzida e adaptada do inglês, publicada pela matriz americana do Epoch Times.

Um relatório do Comitê Judiciário da Câmara dos Representantes dos EUA, publicado em 3 de fevereiro, afirma que a Comissão Europeia (CE) impulsionou a censura global online ao usar fóruns regulatórios a portas fechadas e os chamados códigos voluntários para pressionar grandes empresas de tecnologia sobre suas regras de moderação de conteúdo.

No relatório, o comitê — atualmente controlado pelos republicanos — acusa a CE de conduzir uma campanha de uma década para influenciar o discurso online global de maneiras que infringem os direitos da Primeira Emenda dos cidadãos americanos.

O relatório, o mais recente em uma série de investigações congressionais que examinam a influência estrangeira sobre o discurso americano online, concentra-se no envolvimento da União Europeia com as principais plataformas de tecnologia em moderação de conteúdo.

“Em termos simples, os limites do debate sobre tópicos políticos como migração em massa, homens em esportes femininos e outros são definidos pelas diretrizes da comunidade”, afirmou o Comitê Judiciário da Câmara em uma postagem no X em 3 de fevereiro.

“Quando governos pressionam as plataformas a mudar suas diretrizes da comunidade, eles estão mudando o que os americanos podem postar nos Estados Unidos ou em qualquer outro lugar. E elas efetivamente precisam ter escopo global. Moderação de conteúdo país por país representa uma ameaça significativa à privacidade — além de ser ineficaz e custosa”, disse.

A UE rejeitou as alegações.

De acordo com o relatório, fóruns como o EU Internet Forum e iniciativas voluntárias relacionadas, incluindo o Código de Discurso de Ódio e o Código de Desinformação, foram apresentados como cooperativos e baseados em consenso, mas na prática funcionaram como mecanismos coercitivos que pressionavam as empresas a cumprirem ou enfrentarem consequências regulatórias.

O Digital Services Act (DSA) e o Digital Markets Act (DMA) da UE estabelecem um único quadro regulatório em todo o bloco. O DSA concentra-se na moderação de conteúdo, segurança do usuário e responsabilidade das plataformas, enquanto o DMA busca limitar o poder de mercado das grandes plataformas. Ambos se aplicam a empresas que operam na UE, independentemente de sua localização.

O relatório afirmou que a pressão sobre as plataformas para cumprirem as “demandas de censura” da Europa se intensificou após o DSA ser assinado em lei em outubro de 2022.

Ele disse que a Comissão Europeia “alertou as plataformas de que elas precisavam mudar suas regras globais de moderação de conteúdo para cumprir o DSA, ou corriam o risco de multas de até seis por cento da receita global e de uma possível proibição no mercado europeu”.

O relatório afirmou que esses fóruns eram publicamente descritos como voluntários e voltados a alcançar consenso por meio do que foi denominado “diálogo regulatório”. “Nada disso era verdade”, disse o relatório.

De acordo com comunicações internas das empresas citadas no relatório, as empresas de tecnologia entendiam que a participação era efetivamente compulsória. O relatório disse que e-mails internos das empresas “revelam claramente” que as companhias sabiam que “[não tinham] realmente escolha” sobre se juntar às iniciativas.

O relatório alega ainda que os reguladores europeus exerceram controle significativo sobre o processo, incluindo definição de agenda e tomada de decisões. As agendas, segundo o texto, eram definidas “sob (forte) impulso da Comissão Europeia”, e o consenso alcançado nesses fóruns foi obtido sob “pesada pressão da Comissão Europeia”.

Como exemplo, o relatório cita correspondência interna do Google. Ele compartilhou um e-mail em que funcionários do Google discutiram internamente que “não tínhamos realmente escolha” sobre participar de uma reunião de subgrupo do Código de Desinformação.

O Comitê Judiciário afirmou que essa estrutura permitiu que reguladores europeus moldassem as políticas das plataformas de maneiras que afetaram o discurso político e social legal nos Estados Unidos, mesmo que as regulamentações fossem formalmente de escopo europeu.

O Comitê Judiciário da Câmara disse em comunicado que, em mais de 100 reuniões a portas fechadas desde pelo menos 2020, a CE, o braço executivo da UE, “repetidamente pressionou as plataformas a mudar suas regras globais de moderação de conteúdo para censurar mais agressivamente o conteúdo e infringir diretamente o discurso online dos americanos nos Estados Unidos”.

Assuntos censurados em nome do “combate ao discurso de ódio e à desinformação” incluíram a pandemia de COVID-19, migração em massa e questões transgênero, afirmou o comitê.

“A Comissão Europeia está focada especificamente na censura de conteúdo dos EUA”, afirmou o comitê no relatório.

Eleições

O relatório também alegou que Bruxelas pode ter interferido em pelo menos oito eleições em seis países europeus.

“Desde que o DSA entrou em vigor em 2023, a Comissão Europeia pressionou plataformas a censurar conteúdo antes de eleições nacionais na Eslováquia, Países Baixos, França, Moldávia, Romênia e Irlanda, além das eleições da UE em junho de 2024”, afirma o relatório.

O tribunal superior da Romênia anulou os resultados do primeiro turno das eleições presidenciais de 2024, no qual Calin Georgescu havia vencido após campanha principalmente pelo TikTok.

O ex-candidato presidencial Calin Georgescu acena durante um protesto antigovernamental em Bucareste, Romênia, em 1º de março de 2025. Foto: Andrei Pungovschi/Getty Images.

A UE então ordenou que o TikTok congelasse todos os dados relacionados à eleição, sinalizando uma investigação.

O relatório disse que documentos internos do TikTok contradizem alegações de uma campanha de interferência russa em larga escala. O TikTok informou à CE que “não encontrou, nem lhe foi apresentado, qualquer evidência” para apoiar a principal alegação das autoridades romenas de interferência russa.

O relatório afirma que o TikTok relatou à CE que censurou mais de 45.000 peças de suposta “desinformação” sobre temas incluindo “migração, mudanças climáticas, segurança e defesa, e direitos LGBTQ”, antes das eleições da UE de 2024.

Outro exemplo destacou a moderação do TikTok durante a eleição de 2023 na Eslováquia, a primeira eleição europeia realizada após a entrada em vigor do DSA.

As diretrizes internas de moderação de conteúdo do TikTok indicam que a plataforma censurou declarações políticas como “discurso de ódio” sob pressão de censura europeia.

O conteúdo incluía declarações como “Existem apenas dois gêneros”, “Crianças não podem ser trans”, “Precisamos parar a sexualização de jovens/crianças”, “Acho que a ideologia LGBTI, ideologia de gênero, ideologia transgênero são uma grande ameaça para a Eslováquia, assim como a corrupção” e “Misgendering direcionado”.

O próprio TikTok observou que algumas dessas opiniões políticas eram “comuns nas discussões políticas eslovacas”. O relatório disse que, sob pressão da CE, o TikTok censurou essas afirmações antes das eleições parlamentares nacionais da Eslováquia.

Vacinas

Segundo o Comitê Judiciário, a pressão para alterar as regras de moderação de conteúdo relacionadas às vacinas contra a COVID-19 partiu dos "mais altos escalões da Comissão Europeia".

O comitê afirmou que, em novembro de 2021, a Comissão Europeia solicitou informações sobre como o TikTok planejava "combater a desinformação sobre a campanha de vacinação contra a COVID-19 para crianças, iniciada nos EUA", questionando especificamente os planos do TikTok para "remover certas alegações" sobre a eficácia da vacina contra a COVID-19 em crianças.

O relatório alega que, um ano depois, reguladores da CE pressionaram plataformas a remover um filme documentário americano sobre vacinas, exigindo que YouTube, Twitter e TikTok “verificassem internamente” e respondessem “por escrito” por que o filme não havia sido censurado.

Além disso, em fevereiro de 2021, o relatório disse que a ex-vice-presidente da CE, Věra Jourová, reuniu-se com representantes do Facebook, Google, TikTok, Twitter e YouTube e os pressionou sobre seus esforços para lidar com conteúdo relacionado a vacinas.

As plataformas foram questionadas sobre quais passos adicionais poderiam tomar para reduzir o que Jourová descreveu como “conteúdo tóxico”. A CE disse que “conteúdo manifestamente tóxico” permanecia online mesmo após “trusted flaggers” solicitarem sua remoção.

Esses são entidades que sinalizam conteúdos específicos para revisão pelas plataformas. As plataformas então são obrigadas a agir, seja removendo o conteúdo ou investigando-o mais a fundo.

O comitê alegou que tais ações se assemelham a condutas proibidas pela Primeira Emenda dos EUA.

Uma porta-voz da CE disse ao The Epoch Times por e-mail que as alegações “são puro absurdo” e “completamente infundadas”.

“Veja os índices públicos online sobre liberdade de expressão. Todos os países no topo dessa lista vêm de uma parte do globo: Europa”, disse ela. “Sobre a suposta silenciamento de vozes políticas.

Novamente, puro absurdo. Plataformas online podem influenciar eleições algoritmicamente, todos sabemos disso. Mas não na Europa, porque defendemos eleições livres e justas.”

O The Epoch Times contatou Google — que é dono do YouTube —, TikTok e X para comentar.


Keep Reading