Tudo sobre OpenAI
O novo sistema de inteligência artificial (IA) da OpenAI, o Sora, está causando preocupações sobre a disseminação de deepfakes e levantando questões sobre direitos autorais para conteúdos gerados por IA. Especialistas avaliam até onde o sistema pode criar vídeos que simulam com qualidade a realidade.
A OpenAI reconhece as limitações do Sora, como a dificuldade em simular com precisão a física de uma cena complexa e a compreensão de instâncias específicas de causa e efeito. A empresa destaca, contudo, a capacidade do Sora em criar cenas complexas com vários personagens e gerar movimentos e detalhes específicos nos cenários.
Leia mais:
No entanto, a OpenAI também divulgou vídeos mostrando as limitações do Sora, como cenas que não fazem sentido e sequências inusitadas. Especialistas ressaltam que os vídeos apresentados pela empresa provavelmente são apenas alguns entre milhares que foram feitos até alcançar um resultado apresentável, aponta O Globo. Ainda não se sabe quando o Sora será disponibilizado para todos os usuários e se será gratuito ou pago.
[O modelo] pode ter dificuldade em simular com precisão a física de uma cena complexa e pode não compreender instâncias específicas de causa e efeito. Por exemplo, uma pessoa pode dar uma mordida em um biscoito, mas depois o biscoito pode não ter marca de mordida.
OpenAI, sobre o Sora
Riscos do Sora
- O diretor-executivo do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio), Fabro Steibel, pondera que o processo de criação dos vídeos não é tão simples quanto parece, sendo necessário criar muitas imagens para obter uma de qualidade;
- A OpenAI garante que o Sora terá proteções contra conteúdos violentos, de cunho sexual e com celebridades, além de incluir marca criptografada para indicar que o conteúdo foi gerado por IA;
- No entanto, especialistas alertam que os marcadores não resolverão o problema das deepfakes, pois é possível retirá-los ou falsificá-los;
- A aceleração desses sistemas de mídia sintética torna necessário o desenvolvimento de ferramentas de identificação de conteúdos gerados por IA.
A gente já sabia que as capacidades desses sistemas iriam aumentar e que o GPT-3 e GPT-4 eram o começo de uma curva de aprimoramento. Sendo parte do processo, os riscos que tínhamos nas gerações anteriores da IA se repetem ou se acentuam. As discussões sobre criação de conteúdo falso ou violento e os riscos de criar conteúdo com material protegido por direito autoral voltam a aparecer.
Francisco Brito Cruz, diretor-executivo do InternetLab, em entrevista ao O Globo
Já falta de regulação e o vácuo legislativo geram dúvidas sobre a conformidade e a titularidade dos resultados gerados pela IA.
O lançamento do Sora mostra que será cada vez mais fácil produzir deepfakes, levantando a necessidade de parâmetros legislativos antes que isso aconteça. As big techs, incluindo OpenAI, Microsoft e Google, assumiram o compromisso de barrar o possível abuso da IA em contextos eleitorais.
No entanto, a questão do direito autoral deve gerar mais controvérsias à medida que esses sistemas avançam.