Como a ‘guerra cultural’ fez o Google proibir IA de criar imagem de pessoas

Por um lado, não custa lembrar. Enquanto diversas aplicações de IA falharam em representar pessoas negras, as críticas não levaram à adoção de medidas drásticas. Agora que as não representadas são pessoas brancas, parece que o jogo é outro. De qualquer forma, a situação do Google possui uma peculiaridade: o Gemini estava falhando em dar resultados não diversos mesmo quando os comandos pediam uma imagem de pessoa de uma certa raça ou etnia.

Qual será o legado do episódio do Google Gemini?

Ao final, o episódio com o Google Gemini talvez fique marcado como o momento no qual as empresas de tecnologia passaram a ver no front do desenvolvimento de IA o mesmo dilema enfrentado com a moderação de conteúdo. Alguns dizem que redes sociais retiram conteúdo demais, explicitando sua visão progressista e calando vozes conservadoras. Outros dizem que as mesmas empresas removem de menos, deixando no ar conteúdos problemáticos.

O mesmo cabo de guerra chega ao campo da IA. Um espectro do debate público vai dizer que os resultados de IA promovendo diversidade estão forçando um discurso woke e impondo visões progressistas da empresa. É a confusão entre censura e moderação de conteúdo, já existente nas redes sociais e que chega à geração de imagens por IA. Por outro lado, empresas com menos moderação sobre conteúdos gerados por IA serão criticadas por permitir a criação de conteúdos potencialmente danosos.

Esse talvez seja o legado mais duradouro do episódio envolvendo o Google Gemini. Mais do que uma guerra cultural propriamente dita, o caso parece ter mostrado os processos de desenvolvimento e lançamento de aplicações que geram conteúdo com IA.

Como vivemos e vamos viver progressivamente em mundo repleto por esse tipo de criação, é cada vez mais importante entender os bastidores daquilo que se vê. René Descartes (1596-1650) dizia que os sentidos são traiçoeiros. Mal sabia ele.


PUBLICIDADE
Imagem Clicável