Início Ciência e tecnologia Artistas com acesso antecipado à ferramenta de IA lançam carta aberta e...

Artistas com acesso antecipado à ferramenta de IA lançam carta aberta e criticando a ‘lavagem de arte’

19
0

Um grupo de artistas que recebeu acesso antecipado ao teste beta da ferramenta de criação de vídeo de inteligência artificial Sora vazou seu código e lançou uma carta crítica ao seu criador, OpenAI – a empresa por trás do ChatGPT.

“Recebemos acesso ao Sora com a promessa de sermos primeiros testadores, red teamers e parceiros criativos. No entanto, acreditamos que estamos sendo atraídos para a lavagem da arte, para dizer ao mundo que Sora é uma ferramenta útil para os artistas”, disseram os artistas em a carta aberta.

A carta foi publicada com o código vazado de Sora no Hugging Face, uma plataforma de código aberto para aprendizado de máquina e inteligência artificial que fornece ferramentas para construir e implantar modelos de IA.

Os artistas alegaram que a empresa de US$ 150 bilhões não conseguiu compensá-los e se envolveu em práticas como censura de conteúdo artístico e controle de acesso, permitindo que apenas cerca de 300 artistas selecionados usassem o Sora.

Quando a Artnet alcançou um artista do grupo, eles inicialmente estavam abertos a receber perguntas. Mas o coletivo finalmente decidiu não responder a mais perguntas, incluindo se eles estavam preocupados com as repercussões e se a OpenAI tem legitimidade legal para censurá-los de compartilhar os resultados gerados. Eles também não abordaram se as preocupações com o gatekeeping terminariam se Sora fosse divulgado ao público. Eles encaminharam Artnet de volta à carta.

“Os artistas não são sua pesquisa e desenvolvimento não remunerados. Não somos seus testadores de bugs gratuitos, fantoches de relações públicas, dados de treinamento, tokens de validação”, diz a carta aberta.

Os artistas disseram que apenas algumas das centenas de artistas que usaram Sora foram escolhidos através de um concurso interno para que os filmes que criaram fossem exibidos com uma remuneração mínima, eles disseram “empalidecer em comparação” com o valor de marketing gerado ao permitir-lhes usar a ferramenta.

“Além disso, cada resultado precisa ser aprovado pela equipe OpenAI antes de ser compartilhado. Este programa de acesso antecipado parece ter menos a ver com expressão criativa e crítica e mais com relações públicas e publicidade”, afirmaram na carta.

Os artistas observaram que não são contra o uso da tecnologia de IA para fazer arte ou provavelmente não teriam sido convidados para o programa pela OpenAI. Mas eles disseram que estão preocupados com “como a ferramenta está se desenvolvendo” antes de um possível lançamento público.

“Estamos compartilhando isso com o mundo na esperança de que a OpenAI se torne mais aberta, mais amigável aos artistas e apoie as artes além das ações de relações públicas”, disseram os artistas, instando as pessoas a usarem software de código aberto em vez de plataformas proprietárias como as da OpenAI.

Um porta-voz da OpenAI abordou a controvérsia por e-mail, observando à Artnet que Sora ainda está em uma prévia da pesquisa para equilibrar suas aplicações criativas com o desenvolvimento de medidas de segurança para uso mais amplo. Ela confirmou que centenas de artistas estiveram envolvidos no processo.

“A participação é voluntária, sem obrigação de fornecer feedback ou utilizar a ferramenta. Estamos entusiasmados em oferecer acesso gratuito a esses artistas e continuaremos a apoiá-los por meio de bolsas, eventos e outros programas”, disse o porta-voz. “Acreditamos que a IA pode ser uma ferramenta criativa poderosa e estamos comprometidos em tornar o Sora útil e seguro.”

Os artistas que participam do programa de testes não têm obrigações para com a empresa além de compartilhar detalhes confidenciais sobre seu desenvolvimento com o público, e não há requisitos de uso explícitos para eles. E a empresa tem feito esforços para fornecer acesso e financiamento aos artistas, como o primeiro artista residente da empresa, Alexander Reben.

Fonte