Uma resolução até então pouco debatida, mas que eu gostei de ver aprovada é a restrição do uso de chatbots e avatares para intermediar a comunicação da campanha. Esses robôs não poderão ser usados para simular conversas com pessoas candidatas ou pessoas reais.
Um seguidor nas redes sociais me perguntou se isso não seria exagero, já que as campanhas poderiam colocar apenas um alerta dizendo que o usuário está conversando com uma IA. Algo parecido com o que vai acontecer com as imagens e vídeos.
Eu respondi que não. O problema não está na tecnologia, mas na nossa cognição. As pessoas projetam confiança e intimidade sobre essas IAs que dominam a linguagem humana, mesmo sabendo que estão conversando com uma máquina. Esse é o Efeito ELIZA, fenômeno estudado desde a década de 60.
Essa configuração cognitivo/social pode ser facilmente capturada para uma manipulação em larga escala e sem muita transparência, principalmente quando falamos de um chatbot oficial disponibilizado pela própria campanha para ter interações personalizadas – e opacas – com milhares de eleitores.
Como pesquiso futurismo e design especulativo, sempre penso em cenários de futuro. Imaginei um cenário de curto prazo no qual teremos robôs de pessoas candidatas espalhados por diferentes plataformas para, em uma conversa personalizada e íntima, poder dizer o que o candidato real nunca diria só para agradar e convencer alguém com base em suas preferências capturadas por meio de dados.
Vocês ainda têm dúvidas de que isso pode acontecer?