Deepfakes de Taylor Swift mostram o desafio que o TSE tem para as eleições

Os usuários que produzem deep fakes com o objetivo de aplicar golpes ou manipular a opinião pública, geralmente utilizam ferramentas alternativas, muitas vezes de código aberto, e não serviços comerciais oferecidos pelas bigtechs, que já implementam travas de segurança para impossibilitar —ou pelo menos dificultar— que conteúdos prejudiciais sem gerados.

Em matéria do “The New York Times”, é citado que uma empresa de cibersegurança focada em detecção de IA, determinou com 90% de confiança que as imagens sexuais de Taylor Swift foram criados por “Diffusion Models”. Essa é uma tecnologia que está disponível ao público em versões de código aberto que podem ser modificadas.

Neste caso, mesmo uma regulação de IA bastante restritiva, que chegasse ao extremo de banir as ferramentas de criação de imagens, não alcançaria quem, de fato, está causando o problema. Grupos organizados continuariam utilizando meios próprios, baseado em ferramentas alternativas, para produzir conteúdos danosos.

Então, além de olhar para a produção, precisamos estar atentos para a distribuição. Não adianta nada alguém produzir um conteúdo se não tiver caminhos para alcançar o máximo número de pessoas.

Mas as coisas também não são simples nessa dimensão.

Hoje, os principais meios de distribuição são os serviços de grandes plataformas e de redes sociais. Uma das imagens da Taylor Swift foi vista mais de 47 milhões de vezes no X (antigo Twitter) antes de ter sido deletada pela empresa.


PUBLICIDADE
Imagem Clicável