A Meta, empresa que controla o Facebook e o Instagram, anunciou nesta sexta-feira (3) o apoio a uma plataforma da ONG britânica Revenge Porn Helpline que ajuda a impedir o compartilhamento não consensual de imagens íntimas na internet – prática também conhecida como pornô de vingança.
No Brasil, o compartilhamento de fotos intimas se enquadra em um dos artigos da Lei Maria da Penha, como “violência psicológica”.
Por meio do site StopNCII.org, pessoas que estiverem preocupadas que suas imagens íntimas tenham sido publicadas ou que possam vir a ser publicadas nas redes sociais podem criar uma solicitação de ajuda para que os posts sejam detectados de forma proativa – ou seja, sem que a própria pessoa tenha que encontrar o material e fazer um pedido de remoção.
Por enquanto, a página está disponível em inglês – mas uma versão em português deve ser lançada nos próximos dias, segundo a Meta.
O sistema, desenvolvido pelo Facebook e pelo Instagram, utiliza uma tecnologia que garante a privacidade das imagens, o que significa que nenhum moderador das redes sociais ou da ONG terão acesso às imagens íntimas, sejam elas vídeos ou fotos que apresentem nudez ou são de natureza sexual.
Como funciona a tecnologia
Para que as vítimas não tenham receio de cadastrarem seus casos, o sistema possui uma tecnologia de correspondência de imagens que atribui um valor exclusivo (um código numérico) a uma imagem, criando uma impressão digital, chamada de hash.
É como se fizessem uma “cópia embaralhada” do material, sem guardar a imagem em si. Esse mesmo tipo de tecnologia é usado em outras aplicações, como no armazenamento de senhas.
A plataforma StopNCII.org não armazena a imagem e o hash é criado diretamente do celular ou computador da pessoa que está preocupada com o vazamento, que então é enviado para o banco de dados da ONG e acesso pelas plataformas de tecnologia.
O método, no entanto, não é capaz de fazer um “match” se o material tiver sido muito modificado, com a aplicação de filtros ou grandes cortes da imagem. Isso porque um hash só é idêntico para duas imagens iguais.
De acordo com Daniele Kleiner, gerente de políticas públicas para bem-estar e segurança da Meta, o Facebook e o Instagram serão capazes de identificar a tentativa do compartilhamento não consensual e impedir a postagem.
Isso será válido para novas tentativas de compartilhar uma imagem que já tenha sido denunciada e removida.
O sistema também funciona nas mensagens do Messenger e nas DMs do Instagram – desde que os participantes não estejam usando a função de “chat secreto”, que leva criptografia de ponta a ponta para a conversa.
A Apple se envolveu em uma polêmica em setembro passado pelo uso dessa tecnologia para a análise de imagens suspeitas de abuso infantil.
No caso da fabricante do iPhone, o sistema seria usado amplamente no iMessage e ativistas se preocuparam que a solução poderia ser usada para buscar conteúdos genéricos e para governos perseguirem opositores. A empresa adiou o uso da tecnologia.
Ao entrar no site do StopNCII.org, as pessoas podem clicar na opção “Create your case” para fazer o hash das imagens (o site está em inglês, mas uma versão em português deve ser lançada em breve).
Depois disso, é preciso informar se você é maior ou menor de 18 anos. A ferramenta é voltada para adultos – menores de 18 anos devem procurar outros recursos e organizações que podem oferecer apoio, como o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) e a linha de ajuda e denúncia da Safernet Brasil.
Um questionário pergunta quem seriam as pessoas nas imagens – o sistema solicita que o cadastro seja feito somente por alguém que apareça nas imagens – e uma descrição do material.
Em seguida, é preciso enviar as imagens para gerar o hash. Um login e um PIN (código numérico) são gerados para acompanhar o caso e saber se foram encontradas ocorrências do compartilhamento da imagem.