Programas de inteligência artificial podem reproduzir características de crianças a partir de dados abertos na internet. Saiba como proteger essas informações.
O alerta de uma mãe, que ouviu a voz da própria filha pedindo socorro em uma ligação forjada, chamou a atenção para o uso da inteligência artificial na reprodução de características pessoais de crianças e adolescentes. Especialistas explicam como se proteger de golpes.
Ao receber uma ligação com um pedido de ajuda na voz da filha, uma mãe, no Arizona, Estados Unidos, entrou em desespero. “Era completamente a voz dela”, disse Jennifer DeStefano à imprensa americana. Do outro lado da linha, gritos e choros de Briana, 15, que estaria em um passeio de esqui com amigos, pediam socorro à mãe. Foi quando uma voz masculina começou a pedir 1 milhão de dólares para o resgate, que DeStefano desconfiou e mobilizou familiares e amigos para localizar a filha. Ela estava bem, ainda no passeio.
A voz da ligação feita em número privado era de Briana, mas não era ela na linha. A única certeza que a família teve foi a de que se tratava de um golpe em que os criminosos, possivelmente, usaram ferramentas de inteligência artificial para reproduzir a voz da menina. Desde então, a mãe alerta outras famílias a respeito de informações de seus filhos disponíveis na internet.
Com a repercussão do caso, agentes de segurança do FBI indicaram que perfis de menores de idade em redes sociais devem ser privados e constantemente monitorados. Segundo as investigações, golpistas que usam clonagem de voz ou deepfake encontram suas vítimas nas redes sociais.
O material falso que pode ser criado nessas tecnologias é resultado do cruzamento de dados dos conteúdos disponíveis na internet, muitas vezes compartilhados em postagens da própria vítima, como explica Eduardo Pires, especialista em tecnologia de geolocalização. Para ele, a popularização das ferramentas de inteligência artificial facilita o uso para outros contextos. “Essas ferramentas têm acesso e são alimentadas por arquivos de voz ou de imagem utilizados para gerar recortes e tentar criar um novo conteúdo, que emula aquele padrão de imagem e de som iniciais. O que antes era feito apenas com imagens, hoje também é feito com a voz das pessoas”, comenta.
No caso do Arizona, criminosos podem ter manipulado informações em aplicativos ou programas de edição que já existem no mercado, como o Midjourney, serviço de inteligência artificial usado para fazer montagens e artes com o cruzamento de imagens da internet. Foi o caso de imagens como a do papa Francisco vestindo uma jaqueta bufante ou do ex-presidente americano, Donald Trump, algemado, que circularam no mundo todo. Após as inúmeras montagens feitas pelos usuários, o serviço bloqueou o uso aberto das ferramentas.
Para não cair em golpes ou “brincadeiras” manipuladas por esse tipo de serviço, é preciso ficar atento aos detalhes. Nas imagens, é possível notar falhas nos contornos, sombras e objetos. Quando se trata do uso de vozes, é importante notar a entonação, vocabulário e, principalmente, checar a localização da pessoa que diz estar ao telefone, por exemplo. Mas, o ideal é manter as informações seguras, sobretudo das crianças. “O principal cuidado é entender o impacto que suas informações podem ter quando disponíveis na internet. Ou seja, avaliar o alcance das suas fotos, dos seus vídeos e conteúdos de voz. O ideal é manter os perfis fechados e dificultar o acesso de terceiros”, pontua Pires.
A supervisão dos aplicativos e contas que os jovens e as crianças acessam também é essencial para confirmar a segurança desses dados. “É preciso garantir que fotos e vídeos sejam compartilhados apenas com pessoas de confiança e jamais compartilhar login, senha e dados bancários com terceiros”, conclui o especialista.
Leia mais
Comunicar erro