“As plataformas digitais e os sistemas de segurança são desenvolvidos por pessoas que não se relacionam com crianças e isso pode levar a consequências trágicas”, alerta Frances Haugen, cientista de dados e ex-funcionária do Facebook. Ela ficou conhecida no final do ano passado após divulgar documentos sobre decisões e negligências da empresa que podem causar sérios danos à sociedade, especialmente à saúde e ao bem-estar de crianças e adolescentes. O caso foi batizado de “Facebook Papers” e publicado por um consórcio de 17 veículos de imprensa espalhados em três países.
Haugen veio ao Brasil nessa última semana para participar de uma audiência pública sobre o projeto de lei das fake news e dialogar com organizações da sociedade civil. Um desses encontros foi organizado pelo programa Criança e Consumo, do Instituto Alana, onde a engenheira junto de especialistas dos direitos das crianças discutiram estratégias para levar o tema das infâncias ao centro do debate sobre segurança digital.
O Lunetas traz as principais questões abordadas no encontro com Frances Haugen. Confira!
Existe uma grande incompatibilidade entre os modelos de negócio das plataformas digitais e a proteção das crianças. Como o debate sobre as infâncias é abordado dentro das empresas de tecnologia?
Frances Haugen – Estas empresas não escolhem voluntariamente tomar decisões a favor das crianças. As decisões são baseadas em otimizar suas próprias necessidades de negócio. Nós chegamos a um ponto em que um número pequeno de pessoas sem conhecimento em questões que impactam a sociedade tem o poder de construir sistemas de informação para bilhões.
As crianças estão sofrendo pois usam softwares que não atendem às suas necessidades específicas de desenvolvimento.
Pensar em crianças não faz parte da realidade dos times de tecnologia. Eu trabalhei durante 15 anos em lugares como Google, Pinterest, Yelp e Facebook e nunca tive um treinamento sobre esse tema. Essas empresas, em geral, não apresentam pais ou mães em seu quadro de profissionais. A maioria dos funcionários do Facebook saiu da faculdade há menos de cinco anos. Lá, colaboradores abaixo de 30 anos são considerados ‘sênior’.
As plataformas digitais são desenvolvidas por pessoas que nem sequer interagem com crianças.
Isso prova a importância de discutir e advogar pelo consumo, direito e segurança das crianças no ambiente digital.
Como o funcionamento dos algoritmos criados para promover engajamento nas redes sociais pode afetar as crianças?
FH – Há décadas sabemos que crianças são mais suscetíveis a comportamentos impulsivos. O fato de as plataformas digitais serem desenhadas para ‘viciar’ somado à falta de senso de autorregulação das crianças gera consequências muito sérias. Por exemplo: ao criar uma conta nova no Instagram e começar a seguir assuntos inócuos, como receitas saudáveis (clicando no conteúdo que é apresentado no feed e seguindo as hashtags sugeridas), você será levado a conteúdos de transtorno alimentar em duas ou três semanas. É claro que os desenvolvedores não fazem isso pensando: ‘Ah, vamos causar distúrbios alimentares nas crianças!’. Mas ninguém questiona como os sistemas de classificação de engajamento funcionam.
As crianças estão sendo expostas a conteúdos que romantizam o suicídio e a automutilação. O Facebook sabe disso e não age.
A inteligência artificial (IA) é outro assunto que deveria nos deixar extremamente preocupados em relação ao impacto desse tipo de tecnologia nas crianças. Os chineses lançaram pesquisas que mostram que a realidade virtual é 50% mais viciante do que o uso de smartphones.
Imagine um mundo onde um adolescente de 15 anos – que não gosta do próprio corpo, que acha sua casa inferior a do amigo, que não curte suas roupas – use os óculos de IA e consiga fazer toda aquela realidade sumir por algum tempo. De repente, sua aparência é maravilhosa, seu apartamento é lindo, você tem uma vida cheia de aventuras! Depois, quando esta criança tira o dispositivo e vai escovar os dentes, olha-se no espelho e não gosta do que vê. Pense sobre o poder disso na vida das crianças!
Como os algoritmos ampliam as desigualdades raciais, principalmente quando se leva em consideração as crianças?
FH – A relação entre algoritmos, inteligência artificial e desigualdades de raça são questões muito importantes no contexto atual. No Pinterest, fiz uma pesquisa para analisar os conteúdos baseados na cor da pele. Descobrimos que apenas 5% das postagens que tinham rostos eram de pessoas negras. Como 80% dos usuários da plataforma eram brancos, o algoritmo – que não leva em conta a diversidade – avaliava conteúdos de pessoas negras como uma informação “ruim”, por não gerar tantos cliques.
Conheci o caso de uma mãe que não conseguia encontrar referências de pessoas negras com fantasias de princesa para sua filha, que também é negra. Essa mãe só queria mostrar para a menina que ela também podia ser uma princesa.
Além disso, o fato de eu, uma pessoa branca, ter descoberto que não havia conteúdo para pessoas negras só prova o quanto as empresas são homogeneizadas e como são invisíveis as questões raciais.
Se as equipes de tecnologia continuarem homogêneas, os algoritmos nunca serão programados para considerar a diversidade da população.
Uma pesquisa da Plan International mostra que 87% das meninas já foram impactadas por fake news. Por que as notícias falsas têm tanto alcance? E como as empresas de tecnologia poderiam combater esse problema de maneira efetiva?
FH – Eu costumo dizer que a informação contextualizada geralmente é o legume do prato, já a notícia falsa é como uma batata frita.
O Facebook, por exemplo, sabe que quando se exibem muitos conteúdos de amigos ou familiares no seu feed, ou postagens de grupos que você realmente segue e participa, haverá menos discurso de ódio e violência. Ou seja, seus familiares ou amigos não são um problema nas redes sociais, suas escolhas tampouco são um problema. O problema é o sistema geral de algoritmos do Facebook, que empurra conteúdos para você.
O WhatsApp é outro tipo de tecnologia porque tem criptografia de ponta a ponta. Mas se você está a cinco graus de distância de alguém e é alcançado por um conteúdo enviado por essa pessoa, há formas de o software cortar esse contato no segundo grau de distância. Há muitas soluções, mas estamos ainda no começo do debate sobre as escolhas de design.
Algumas soluções simples poderiam se basear em algoritmos que rebaixem ligeiramente os usuários que compartilham conteúdos 20 ou 30 vezes por dia, em casos como o Facebook; ou implementar um aplicativo de fact-checking (checagem de fatos) de links nos aparelhos, quando utilizamos plataformas com criptografia de ponta a ponta.
No Brasil e em outros países do sul global, há um tratamento menos protetivo por parte das plataformas em relação à segurança e ao tratamento de dados pessoais de crianças e adolescentes no meio digital. Como explicar tal diferença de legislação entre os países?
Lugares como Reino Unido, Califórnia e União Europeia estão discutindo como priorizar as diferentes necessidades das crianças no momento em que um software é desenvolvido. Há uma divergência entre os países que estão passando essas leis e o resto do mundo, e isso mostra como é necessário trabalharmos juntos para exigir que as plataformas sejam voluntariamente desenhadas para crianças.
Além disso, nós estamos caminhando para um mundo onde os programas serão descentralizados e sem uma grande empresa como “proprietária dos dados”, a chamada Web3. Por exemplo, as pessoas terão “redes sociais pessoais”, nas quais não se preocupam com o alcance dos conteúdos: posso publicar fotos do meu filho somente para meus familiares verem e, se o objetivo for o alcance, republico em plataformas como Instagram, YouTube ou Facebook. Tal contexto fará com que uma grande base de dados seja rodada em vários computadores. Nós já estamos vendo os primeiros exemplos de redes sociais pessoais sendo desenvolvidas em alguns países e esses sistemas irão abrir uma série de questões, por serem descentralizados e terem criptografia de ponta a ponta. Como iremos regulamentá-los e monitorar suas políticas de uso?
A legislação para regulamentar as plataformas digitais está sempre atrás da rapidez da tecnologia. Quais estratégias podem ser utilizadas para que a pauta das infâncias, ainda tão invisibilizada, sensibilize as empresas desde o início do desenvolvimento de um novo software?
FH – Existe um lapso temporal entre legislação para garantir a proteção das crianças e o desenvolvimento de novas tecnologias. Não adianta dizer ‘isso é contra as regras’ ou ‘você deve fazer isso’. A tecnologia é muito dinâmica e acaba conseguindo contornar a situação.
Uma estratégia é exigir que as empresas de tecnologia divulguem riscos e planos de mitigação, além de demandar dados para acompanhar se a redução de danos está acontecendo. Vamos, por exemplo, exigir que todos os meses seja divulgada, em uma postagem em suas páginas, uma nova ferramenta de segurança para proteger as crianças. Assim, eles terão de pensar qual nova funcionalidade será criada todos os meses.
Muitos dos problemas poderiam ter sido evitados se as empresas de tecnologia tivessem pensado nas crianças antes de desenvolver seus softwares.
Nós sabemos os problemas e suas consequências, agora é o momento de agir.
A legislação brasileira e a proteção das crianças no ambiente digital
A Constituição Federal garante a proteção integral à criança, ao adolescente e ao jovem com prioridade absoluta, por meio do seu artigo 227. Em fevereiro deste ano, foi promulgada a PEC que inclui a proteção de dados pessoais entre direitos fundamentais do cidadão à Constituição Federal.
O Marco Civil da Internet, lei que norteia todo processo de aplicação da internet, aponta o acesso à internet como um direito a todos os cidadãos mas traz poucas disposições específicas sobre a infância.
A Lei Geral de Proteção de Dados Pessoais determina que o tratamento de dados pessoais de crianças e adolescentes deve sempre se dar no seu melhor interesse.
O Estatuto da Criança e do Adolescente (ECA) exige que crianças e adolescentes tenham direito a produtos e serviços que respeitem a sua condição de pessoa em desenvolvimento, demandando das plataformas a garantia dos direitos das crianças no design desses produtos, em consonância com as diretrizes do Comentário Geral nº 25, da ONU, que define como a Convenção das Nações Unidas sobre os Direitos da Criança (do qual o Brasil é signatário) se aplica ao ambiente digital, reforçando o dever dos Estados em tomar medidas para prevenir, monitorar, investigar e punir qualquer desrespeito aos direitos da criança por parte das empresas.
* O encontro aconteceu no dia 5 de julho e foi organizado pela Luminate em parceria com o Instituto Alana. Estavam presentes representantes do Aqualtune Lab, DataPrivacy Brasil, Cetic, Plan ONG Brasil, Instituto Liberta, Juventude Privada, promotoria de Justiça da Infância e Juventude, Sociedade Brasileira de Pediatria e Instituto Iris.
Leia mais