Criação de áudio: o golpe do parente pedindo dinheiro no WhatsApp ganhou nova roupagem. Agora, cibercriminosos criam áudios falsos com a voz da vítima a partir de qualquer exemplo de sua voz — podem até ser mensagens de voz obtidas em um WhatsApp clonado;
Captura de impressões digitais por meio de dispositivos falsos: criminosos podem usar tecnologia de impressão 3D para criar réplicas de alta qualidade de impressões digitais;
Phishing: mensagens falsas com link malcioso via e-mail, SMS ou redes sociais já são prática comum; a IA agora é empregada para personalizar essas mensagens e torná-las mais convincentes e direcionadas.
Fábio Assolini, da Kaspersky, ressalta que a predisposição de pessoa se tornar vítima de golpes do tipo está relacionada ao comportamento nas redes sociais. Foi o caso da designer de arte Juliana Brichesi, de 46 anos, que teve voz e expressões faciais clonadas por IA em vídeo no qual oferece falsamente investimentos via pix.
Se tiverem uma pequena amostra de áudio da sua voz, [os cibercriminosos] podem ligar para seus parentes reproduzindo exatamente a mesma voz e maneira de falar. Principalmente na dark web, esse tipo de serviço já é encontrado com facilidade e, por uma boa quantia financeira, já pode ser comprado por criminosos Fábio Assolini, Kaspersky
Como saber se virei vítima de golpe por IA
Como as IAs conseguem adicionar elementos capazes de dar mais credibilidade às abordagens dos golpes virtuais, as vítimas acabam sendo enganadas com mais facilidade. Ainda assim, é possível detectar falhas no conteúdo gerado por robôs.