Um grupo de artistas voluntários como testadores beta do novo e inédito produto de vídeo de IA da OpenAI, Sora, compartilhou publicamente o acesso à ferramenta na terça-feira para protestar contra o que eles disseram serem práticas de exploração da empresa.
Em uma carta aberta postada na plataforma Hugging Face e dirigida aos “senhores corporativos da IA”, o grupo publicou o acesso à API do Sora, o código especial que permite que usuários externos acessem a ferramenta.
O grupo alegou que foi convidado pela OpenAI para servir como “testadores” e “parceiros criativos” de Sora, mas percebeu que estavam sendo “atraídos para a ‘lavagem de arte’ para dizer ao mundo que Sora é uma ferramenta útil para artistas”. Eles também sustentaram que a OpenAI controlava e aprovava todos os resultados, e que o programa de acesso antecipado parecia ser “menos sobre expressão criativa e crítica, e mais sobre relações públicas e publicidade”.
Sora é um dos novos produtos mais esperados da OpenAI, a empresa privada que fabrica o ChatGPT e que tem sido avaliado em US$ 157 bilhões. A tecnologia de vídeo de IA generativa tem o potencial de derrubar Hollywood e muitas outras indústrias criativas que dependem da criação de vídeos, da publicidade à arte. À medida que a notícia do acesso ao modelo Sora se espalhou online na terça-feira, os usuários rapidamente começaram a postar seus experimentos em vídeo. “Ele pode ser desligado a qualquer momento, experimente agora!” disse um usuário entusiasmado do X. “Ele pode gerar vídeo em 1080P e até 10s! E os resultados são incríveis!”
Após o vazamento, um porta-voz da OpenAI confirmou que a empresa “pausou temporariamente o acesso do usuário enquanto analisamos isso”. O porta-voz enfatizou que Sora ainda está em fase de pesquisa e que “centenas de artistas” moldaram o desenvolvimento do Sora, ajudando a priorizar novos recursos e salvaguardas. “A participação é voluntária, sem obrigação de fornecer feedback ou usar a ferramenta”, disse o porta-voz. “Estamos entusiasmados em oferecer acesso gratuito a esses artistas e continuaremos a apoiá-los por meio de bolsas, eventos e outros programas. Acreditamos que a IA pode ser uma ferramenta criativa poderosa e estamos comprometidos em tornar o Sora útil e seguro.”
Marc Rotenberg, fundador e diretor executivo do Centro de IA e Política Digital, com sede em Washington, DC, destacou que o vazamento foi “profundamente irônico”, já que a OpenAI foi estabelecida pela primeira vez como uma empresa cuja pesquisa estava aberta a todos. “É a razão pela qual Elon Musk investiu dinheiro nisso, e foi a comercialização subsequente que explica a razão pela qual ele ficou desencantado”, disse ele. “Então, se você voltar à missão dele, acho que celebraria o que os artistas fizeram neste momento. Mas é claro, se você é a Microsoft e acabou de investir US$ 10 bilhões para promover seu modelo proprietário, este provavelmente não é um bom dia”, disse Rotenberg, referindo-se à parceria da Microsoft com a OpenAI.
É importante notar que a notícia do acesso à API é muito menos devastadora do que se todo o modelo Sora – incluindo o código e os pesos (que servem como o “cérebro” por trás do modelo) tivesse vazado. A OpenAI encerrou rapidamente o acesso à API vazada na terça-feira.
Ainda assim, o facto de os próprios testadores beta da empresa estarem a protestar é notável: ao longo dos últimos anos, os artistas têm manifestado preocupações crescentes sobre práticas de exploração no domínio da IA generativa, particularmente em torno de questões de direitos de autor e utilização de conteúdos. Os modelos generativos de IA muitas vezes dependem de vastos conjuntos de dados extraídos de conteúdo digital disponível publicamente, muitos dos quais incluem obras de arte, ilustrações e outros trabalhos criativos criados por artistas.
Além disso, os observadores de IA estão extremamente curiosos para descobrir o desempenho do tão aguardado modelo OpenAI Sora. Em fevereiro, a OpenAI lançou vários videoclipes de alta definição gerados por Sora, mas apenas vídeos de demonstração ocasionais foram lançados desde então.