Quer um date com IA? Mais que coração partido, risco é ter a vida espionada

Ainda não sabemos as consequências psicológicas e afetivas ao longo prazo desse fenômeno cultural sensível, principalmente porque pode reforçar determinados tipos de comportamentos que não são socialmente desejáveis.

Diferentes grupos interdisciplinares das áreas de neurociência, psicologia, design e tecnologia estão focados em tentar entender os possíveis problemas futuros para traçar estratégias de mitigá-los. Porém, existem perigos já mapeados e evidentes para nós: como os problemas de privacidade e o possível uso manipulatório desse tipo de tecnologia.

Um relatório recém-publicado por pesquisadores da Fundação Mozilla investigou os 11 aplicativos de acompanhantes de IA mais comuns. É importante destacar que os chatbots de propósito geral (como ChatGPT e Gemini) não entram nessa lista por terem travas de segurança que impedem — muitas vezes — conversas mais intimistas. Entram na lista apenas os aplicativos que foram desenvolvidos como um agente com personalidade para funcionarem como um companheiro, simulando interações humanas.

O relatório mostra que a maioria dos aplicativos de companhia por IA falham em checkups de privacidade e muitos não se responsabilizam pelas respostas de seus chats aos usuários. Inclusive, as empresas donas dos aplicativos escrevem nos termos de uso que não são responsáveis pelas conversas nem pelos efeitos que elas podem ter nas pessoas

Assim fica fácil, né?! Muitas empresas criam produtos sem querer ter qualquer responsabilidade.

O que mais me chamou atenção foi que 90% dos aplicativos podem compartilhar ou vender os dados dos usuários. Apenas um aplicativo (EVA AI Chat Bot & Soulmate) tem uma política que veta esse tipo de ação. Os outros dizem que podem vender os dados para publicidade ou são omissos no assunto.


PUBLICIDADE
Imagem Clicável