Após comprar o Twitter, Elon Musk passou meses revirando os processos de tomada de decisão na empresa para procurar provar que havia algum direcionamento ideológico por lá. Nada de muito revelador surgiu dos seus Twitter Files, exceto por uma confirmação: há divergências entre os diferentes times da companhia sobre como lidar com casos complexo. Exemplo disso é a história envolvendo o filho de Joe Biden. Nesse caso, prevaleceu a orientação do time de segurança (trust & safety), que aplicou as regras contra a veiculação de conteúdos obtidos por hackers.
As empresas de tecnologia lidam com a fronteira do desenvolvimento de ferramentas que podem transformar, de maneira significativa e instantânea, a forma como as pessoas se comunicam, se informam e se entretêm. As decisões delas importam. Saber como divergências foram identificadas e superadas é também uma medida de sobrevivência —, além de ser uma prática de boa governança. A insatisfação por decisões tomadas de modo abrupto, sem transparência, e que passam por cima das regras pré-estabelecidas, é a receita para toda sorte de problemas.
2) Segurança x Inovação
Assim que o conselho da OpenAI anunciou a removeção de Sam Altman, surgiram mil explicações sobre o que poderia ter motivado a medida. Uma das que mais circulou foi a divergência entre a velocidade com a qual o CEO queria inovar e a cautela que o conselho queria imprimir, garantindo segurança aos lançamentos da empresa.
Essa dinâmica, de certa forma, sempre marcou a trajetória da OpenAI. O lançamento do ChatGPT pegou o mundo de surpresa. Grande parte das pessoas não sabia que o desenvolvimento de aplicações de IA, em especial aquelas ancoradas em large language models, já estava tão avançado. Quando saiu, no final de 2022, o ChatGPT encantou e assombrou ao mesmo tempo. Parecia deter conhecimento enciclopédico e capacidade para redigir textos convincentes, embora não viesse acompanhado de qualquer ferramenta para identificar autenticidade, além de frequentemente inventar fatos.
A tensão entre segurança e inovação não é exclusividade da OpenAI. Grande parte do debate regulatório global sobre inteligência artificial parece girar em volta dessa dualidade. De um lado, estariam os movimentos pela edição de leis para guiar o desenvolvimento de IA, com obrigações de segurança para as empresas. De outro, está a descrença de qualquer regramento poder ser efetivo, trazendo ainda o efeito colateral de restringir o potencial de inovação dessas tecnologias.