Pesquisadores investigaram métodos de distribuição de conteúdos ilícitos que teriam sido autoproduzidos por crianças e adolescentes
Twitter e Instagram são as redes preferenciais para compra e venda de materiais com abuso sexual infantil potencialmente autoproduzidos por crianças e adolescentes. Estudo mostrou como algoritmos dessas redes recomendavam perfis com conteúdo ilícito para pedófilos.
Algoritmos de perfis em redes sociais como Instagram e Twitter promoveram conteúdo ilícito ao conectarem pedófilos a uma rede de pornografia infantil com materiais potencialmente autoproduzidos por crianças e adolescentes, revelou uma investigação de pesquisadores da Universidade de Stanford, na Califórnia, Estados Unidos.
Segundo a apuração, imagens e vídeos não eram publicados diretamente no feed, mas em “menus” que mostravam o conteúdo à venda, nos stories ou em tuítes. Alguns dos conteúdos incluíam crianças e adolescentes se automutilando (com ou sem nudez), zoofilia (atos sexuais com animais) e outros conteúdos de exploração sexual infantil. O comprador tinha acesso através de links em serviços de armazenamento em nuvem, como o Dropbox ou Mega. Os pagamentos, realizados por serviços como o CashApp ou PayPal, podem revelar informações pessoais, expondo crianças e adolescentes aos pedófilos.
Manu Halfeld, mestranda em ciência política e especialista em direitos digitais, recomenda que pais e responsáveis alertem os jovens sobre “os possíveis perigos atrelados à autoprodução de imagens e à possibilidade de perder o controle delas uma vez compartilhadas, que podem acabar sendo divulgadas sem autorização por um terceiro”. Ela chama a atenção também para falhas de segurança dos dispositivos ou das contas de quem compra e vende conteúdos ilícitos.
A distribuição de materiais com abuso sexual infantil ou “grooming” (ação de aliciadores que mantêm contato com crianças e adolescentes com a finalidade de abuso sexual) é proibida em redes públicas e privadas pelas regras de uso da Meta (Facebook e Instagram). No Twitter, é permitida a distribuição de conteúdo pornográfico e/ou com nudez adulta, mas nunca conteúdo sexual envolvendo crianças e adolescentes.
O relatório reforça que, apesar da possibilidade do material ser produzido e distribuído intencionalmente, crianças e adolescentes “não têm a capacidade de consentir significativamente com as implicações de ter material explícito amplamente distribuído e os outros danos pelos quais ele os coloca em risco”.
Halfeld reforça que “a educação em sexualidade, a conscientização sobre a proteção da intimidade e a identificação de comportamentos inapropriados são essenciais para que a criança ou adolescente possa reconhecer uma violência em potencial ou sofrida, e se sentir confortável para procurar os responsáveis como referência para apoio”.
Combater a circulação de imagens de abuso e exploração sexual de crianças e adolescentes na internet é uma obrigação coletiva.
O relatório identificou que 405 contas que vendem conteúdo pornográfico no Instagram possuíam perfis supostamente gerenciados por crianças e/ou adolescentes. Apesar da plataforma alertar sobre o risco de resultados de pesquisas retornarem com imagens ou vídeos com abuso sexual infantojuvenil, o Instagram não impedia o acesso a eles, além de recomendar contas similares que chegam aos pedófilos sem precisar de hashtags. Após um mês de encaminhamento da denúncia para o National Center for Missing & Exploited Children (“Centro Nacional para Crianças Desaparecidas e Exploradas”, em tradução direta), 31 contas rastreadas ainda se mantiveram ativas.
Quando as contas sofrem restrições (como impedimento de trocar mensagens privadas) ou são suspensas, é comum que os vendedores migrem para contas auxiliares, promovidas em stories ou tuítes de outras contas na rede para tentar recuperar seguidores. Para atrair mais pessoas, as contas costumam manter os perfis públicos; após atingir certo número de seguidores, o perfil fica privado, para dificultar a moderação do Instagram.
Já no Twitter, foram identificadas 128 contas de venda de conteúdo pornográfico infantojuvenil autoproduzido. Contudo, como existem mecanismos “melhores” de prevenção, a maioria das contas detectadas pelo relatório caiu em uma semana; apenas 22 não foram suspensas pela plataforma.
Também foram identificadas dinâmicas de compra e venda de conteúdo ilícito no Telegram, Discord e Snapchat. Mastodon e TikTok foram consideradas as redes com menos possibilidades desse tipo de transação. Segundo o relatório, o Facebook não parece ser uma plataforma popular para a atividade, por pedir nome real para criar uma conta e não ser tão acessada pelo público mais jovem.
“Se um grupo de três pesquisadores conseguiu descobrir uma rede de pornografia infantil apesar de uma série de limites, isso nos dá a certeza de que as plataformas têm como chegar a essas informações de uma forma muito mais sofisticada, potente e abrangente, se quiserem”, diz Maria Mello, coordenadora do programa Criança e Consumo, do Instituto Alana.
As empresas precisam considerar a existência desse tipo de risco e agir, com agilidade e responsabilidade, de forma a proteger nossas crianças e adolescentes
Nessa perspectiva do risco de conduta, em que crianças e adolescentes estão gerando conteúdo que pode ser danoso a elas, Mello defende o letramento de habilidades digitais para esse público. “Muito se fala que as crianças e adolescentes são nativas digitais, mas, embora elas saibam caminhos de como chegar em determinados conteúdos, o funcionamento das plataformas pode prejudicá-las.”
O relatório também aponta que, além de desativar contas de encomendas e vendas de conteúdo pornográfico infantil, as plataformas devem encaminhar uma mensagem ao vendedor que desencoraje a reincidência, informando sobre a ilegalidade do conteúdo; que existe a possibilidade de sofrer consequências legais conforme as leis do país em que a conta for rastreada; e que o conteúdo pode aumentar o risco de práticas como “sextortion” (coerção para extorquir favores sexuais da vítima) e “stalking” (perseguição).
Segundo o jornal The Washington Post, a Meta iniciou uma força-tarefa para “impedir que predadores encontrem e interajam com adolescentes”, além de ter desativado mais de 490 mil contas que violavam suas políticas de segurança infantil. Andy Stone, porta-voz da Meta, disse que há um trabalho agressivo para combater a exploração sexual infantil dentro e fora de suas plataformas, além de endossar “a aplicação da lei em seus esforços para prender e processar os criminosos”.
Perfis que promovem imagens de abuso e exploração sexual podem ser denunciados nas próprias redes sociais e no Denuncie.org.br da SaferNet Brasil, que repassa as denúncias para o Ministério Público Federal. Com a ferramenta Take It Down, o compartilhamento de imagens ilícitas gera um código que remove automaticamente a imagem das redes.
* O relatório “Cross-Platform Dynamics of Self-Generated CSAM” (“Dinâmica entre plataformas com material de abuso sexual infantil autogerado”, em tradução livre) está disponível na íntegra, em inglês.
Leia mais
Comunicar erro
No Brasil, adquirir, possuir ou armazenar material que contenha qualquer forma de registro de sexo ou pornografia envolvendo crianças ou adolescente é crime, com pena de 1 a 4 anos de reclusão e multa.