A Transformação do Submundo Digital: Da Dark Web ao Telegram e o Retrocesso na Proteção de Crianças e Adolescentes




A internet, em sua vastidão, sempre foi palco de experimentações, inovações e, infelizmente, de práticas obscuras. O que era, há alguns anos, restrito aos recantos da dark web , um espaço onde atividades ilícitas, tráfico de informações e conteúdos perigosos se proliferavam sob o manto do anonimato , hoje encontra abrigo em plataformas mais “acessíveis”, como o Telegram. Essa migração, que à primeira vista pode parecer uma simples mudança de endereço virtual, revela transformações profundas na forma como o submundo digital opera e, mais preocupantemente, como as grandes corporações de tecnologia estão, intencionalmente ou não, impactando a segurança de crianças e adolescentes.

Historicamente, a dark web era o refúgio daqueles que desejavam escapar dos rigores das políticas de moderação e da vigilância das autoridades. Seu ambiente, caracterizado pela utilização de tecnologias de criptografia e anonimato, facilitava o comércio de drogas, armas, pornografia infantil e discursos extremistas, mantendo tudo isso fora do alcance da maioria dos usuários e dos mecanismos de fiscalização tradicionais.

Contudo, com o passar do tempo, os limites que delimitavam essas atividades começaram a se esvair. Hoje, grande parte do que antes era restrito à dark web migrou para plataformas como o Telegram. Diferente da dark web, o Telegram não exige conhecimento técnico avançado para acesso e conta com uma interface amigável, o que o torna um espaço de encontro para comunidades diversas , inclusive aquelas que buscam difundir conteúdos nocivos, extremistas e ilegais. Essa mudança ilustra um paradoxo inquietante: atividades que antes eram marginalizadas e “escondidas” agora se tornam mais visíveis e, consequentemente, mais difíceis de serem controladas pelas autoridades.

O Telegram, com sua estrutura de grupos privados e canais de divulgação, proporciona uma sensação de segurança e exclusividade para seus usuários. Essa característica, que inicialmente atraiu pessoas em busca de privacidade, acaba servindo como terreno fértil para a disseminação de conteúdos problemáticos. O que antes exigia uma operação complexa na dark web, agora se organiza com relativa facilidade em aplicativos de uso cotidiano. Essa “normalização” das práticas obscuras na esfera pública digital representa não apenas um desafio para as forças de segurança, mas também para a sociedade, que se vê diante de um ambiente onde conteúdos potencialmente danosos podem ser acessados por qualquer usuário, inclusive os mais vulneráveis.

Recentemente, a Meta , empresa responsável por gigantes como Facebook e Instagram , anunciou alterações em sua política de moderação de conteúdo. De acordo com o comunicado oficial, a empresa pretende “pegar menos conteúdos danosos” (em suas próprias palavras, “we’re gonna catch less bad stuff”). Essa decisão, longe de ser um ajuste benigno, representa um retrocesso nas estratégias de proteção do ambiente digital, especialmente para crianças e adolescentes, que são os principais usuários dessas plataformas.

Por anos, diversos grupos de defesa e especialistas têm lutado para que as grandes plataformas adotem medidas eficazes de moderação e verificação etária. A ideia era garantir que conteúdos potencialmente nocivos , como material extremista, violento, pornográfico e até mesmo discursos de ódio , fossem bloqueados ou, no mínimo, devidamente sinalizados para proteger o público mais jovem. A proposta de uma verificação etária robusta, que vá além de um simples clique em um checkbox nos termos de uso, sempre esteve no cerne dessa discussão.

A flexibilização na moderação de conteúdo implica que um volume maior de materiais prejudiciais poderá ser veiculado nas plataformas da Meta. Considerando que o Instagram e o Facebook são algumas das redes sociais mais utilizadas por crianças e adolescentes, essa decisão acarreta riscos significativos:

Sem uma filtragem ativa, crianças e adolescentes podem se deparar com conteúdos que promovem violência extrema, automutilação, discursos extremistas, e até pornografia infantil. Essa exposição pode não apenas traumatizar, mas também influenciar comportamentos de risco.
 Já se observa um aumento no número e na gravidade dos processos relacionados a crimes digitais, sobretudo envolvendo menores. O planejamento de ataques, a violência em escolas e a disseminação de ideologias extremistas têm ganhado espaço, intensificados pelo consumo desenfreado de conteúdos sem a devida moderação.
 A promessa de moderação menos rigorosa, aliada à insuficiência de verificações de idade efetivas, resulta em um ambiente onde pais e responsáveis perdem o controle sobre o que seus filhos estão consumindo. Essa lacuna na segurança digital reforça a necessidade de uma intervenção mais ativa, seja por meio de aplicativos de monitoramento parental ou de políticas governamentais mais robustas.

O cenário atual evidencia disparidades significativas na forma como as grandes plataformas abordam a moderação de conteúdo:

Google e YouTube: A moderação do YouTube é frequentemente apontada como um exemplo de eficácia, impedindo a divulgação de vídeos com conteúdo prejudicial, seja ele pornográfico ou violento. O sistema de verificação e os algoritmos de detecção tornam quase inviável o upload de materiais que possam comprometer a segurança dos usuários.

Meta (Facebook e Instagram): Embora a Meta possua mecanismos de moderação, a recente mudança anunciada sinaliza uma redução na capacidade de filtrar conteúdos danosos. Essa postura, que contraria o que tem sido defendido por especialistas e órgãos reguladores, pode tornar as plataformas mais vulneráveis a abusos.

Discord: Outras plataformas, como o Discord, são apontadas por sua moderação insuficiente, o que facilita a formação de comunidades onde conteúdos extremistas e comportamentos de risco podem se proliferar sem o devido controle.

Essa disparidade na eficácia dos mecanismos de moderação cria um ambiente digital desigual, onde a segurança dos usuários ,especialmente dos mais jovens , depende da plataforma que eles escolhem para se conectar.

Ao anunciar uma moderação mais branda, a Meta, uma das maiores empresas de tecnologia do mundo, opta por um caminho que pode ser interpretado como um retrocesso em termos de responsabilidade social. Essa decisão vai na contramão de esforços históricos para tornar a internet um espaço mais seguro para crianças e adolescentes. Enquanto outras empresas investem em tecnologias que filtram e previnem a propagação de conteúdos nocivos, a estratégia da Meta pode resultar em uma “normalização” de riscos, onde o ambiente virtual se torna cada vez mais hostil e desregulado.
O aumento dos processos relacionados a crimes digitais envolvendo menores é uma realidade que se intensificou, especialmente após a pandemia. Casos de planejamento de ataques, violência extrema em escolas e disseminação de ideologias extremistas estão cada vez mais frequentes. Esse cenário não apenas impõe um fardo ao sistema judicial , como também evidencia a necessidade urgente de políticas públicas que priorizem a proteção dos jovens no ambiente digital. A responsabilidade não pode recair apenas sobre as plataformas, mas também sobre os pais, educadores e governos, que precisam trabalhar juntos para estabelecer normas e mecanismos de supervisão eficazes.

Diante desse quadro, é imprescindível que a sociedade resgate o direito dos jovens a um ambiente digital saudável. Algumas medidas essenciais incluem:

Verificação Etária Eficaz: Abandonar o método simplista do “clique no checkbox” e investir em sistemas robustos de verificação que realmente impeçam o acesso de menores a conteúdos inadequados.

Monitoramento Parental: Ferramentas de controle e aplicativos de monitoramento são fundamentais para que os pais possam acompanhar o que seus filhos consomem online, mesmo que estes não possuam seus próprios dispositivos.

Educação Digital: É necessário que as escolas e a sociedade promovam a educação digital, capacitando crianças e adolescentes a identificar e resistir a conteúdos nocivos, além de compreender os riscos associados ao uso desenfreado das redes sociais.

Regulação Governamental: A ação do Estado também é crucial. Políticas públicas voltadas à proteção dos jovens na internet devem ser formuladas e implementadas, garantindo que as empresas de tecnologia cumpram seu papel na preservação de um ambiente digital seguro.

O que antes era confinado ao submundo da dark web agora encontra espaço em aplicativos amplamente utilizados como o Telegram, refletindo uma mudança preocupante no comportamento das comunidades digitais. Paralelamente, a decisão da Meta de reduzir a moderação de conteúdo representa um retrocesso significativo na proteção de crianças e adolescentes. Em um contexto onde as ameaças digitais estão cada vez mais presentes – seja na forma de conteúdos extremistas, violência ou outros riscos , a necessidade de uma intervenção coordenada entre empresas, governos e sociedade se torna inadiável.

Essa conjuntura exige uma reflexão profunda sobre os rumos do ambiente digital e sobre a responsabilidade coletiva em garantir que a internet seja, antes de tudo, um espaço de conexão, aprendizado e desenvolvimento saudável para as futuras gerações. Enquanto as práticas obscuras migram para ambientes mais acessíveis e as barreiras de proteção se enfraquecem, cabe a todos nós , pais, educadores, reguladores e usuários – lutar para resgatar a integridade e a segurança do universo digital, evitando que retrocessos comprometam o futuro de nossos jovens.

Trago fatos, Marília Ms.

Comentários

Matérias + vistas