Pronto. O tatame estava montado para que pesquisadores de diferentes vertentes rolassem argumentos que variavam de “isso pode ser sim metaconsciência” até “nada a ver. Isso estava na base de treino”.
Eu fico animado sempre que aparece um novo modelo que desafia o reinado do GPT4. Acredito que precisamos de cada vez mais modelos para diminuir a concentração de poder, mas sou cético quando aparecem comportamentos inesperados, porque muitas vezes podem ser mais esperados do que imaginamos.
Lembram quando o GPT4 foi lançado e muita gente ficou chocada porque o modelo teria “mentido” que era cego para convencer um humano a resolver um CAPTCHA?
O que aconteceu com o Claude pode ter sido algo parecido: um aprendizado a partir do treinamento. É bem possível que, nesta fase, os humanos tenham ensinado o modelo a lidar com textos de distração de uma maneira parecida.
Essa situação mostra a dificuldade que ainda temos para avaliar os modelos. E daqui para frente a coisa só vai ficar pior. Todo novo modelo de IA que for lançado vai aquecer a discussão se é ou não uma AGI. O problema é que ainda não existe um consenso ou definição sobre o que é uma AGI e nem como avaliá-la.
Vamos precisar de novos testes para avaliar não apenas uma possível AGI, mas principalmente o desempenho de modelos a partir de perspectivas inéditas. Tem muita gente ao redor do mundo trabalhando nisso e em breve teremos novidades. Enquanto isso, o importante é estarmos atentos para não cair no “canto da sereia” da IA que, por dominar a linguagem, apresenta comportamentos que nos iludem em um jogo de imitação e sedução.