Início Tecnologia OpenAI não conseguiu entregar a ferramenta de opt-out prometida até 2025

OpenAI não conseguiu entregar a ferramenta de opt-out prometida até 2025

31
0

De volta PodeA OpenAI disse que está desenvolvendo uma ferramenta para permitir que os criadores especifiquem como desejam que seus trabalhos sejam incluídos (ou excluídos) dos dados de treinamento de IA. Mas 7 meses depois, esse recurso ainda não viu a luz do dia.

Chamada de Media Manager, a ferramenta “identificaria textos, imagens, áudio e vídeo protegidos por direitos autorais”, disse a OpenAI na época, para refletir as preferências dos criadores “em múltiplas fontes”. Seu objetivo era evitar alguns problemas da empresa. mais feroz críticose potencialmente proteger o OpenAI de Desafios legais relacionados à propriedade intelectual.

Mas pessoas familiarizadas com o TechCrunch dizem que a ferramenta raramente era considerada um grande lançamento internamente. “Não creio que fosse uma prioridade”, disse um ex-funcionário da OpenAI. “Para ser honesto, não me lembro de ninguém trabalhando nisso.”

Um não funcionário que coordena o trabalho com a empresa disse ao TechCrunch em dezembro que eles haviam discutido a ferramenta com a OpenAI no passado, mas não houve atualizações recentes. (Essas pessoas se recusaram a ser identificadas publicamente ao discutir assuntos comerciais confidenciais.)

E um membro da equipe jurídica da OpenAI que trabalhou no Media Manager, Fred von Lohmann, assumiu uma função de consultoria em meio período em outubro. OpenAI PR confirmou a mudança de Von Lohmann para o TechCrunch por e-mail.

A OpenAI ainda não forneceu uma atualização sobre o progresso do Media Manager, e a empresa perdeu um prazo auto-imposto para implantar a ferramenta até 2025.

Questões de propriedade intelectual

Modelos de IA como OpenAI aprendem padrões em conjuntos de dados para fazer previsões; por exemplo, que Uma pessoa que morde um hambúrguer deixa uma marca.. Isto permite que os modelos aprendam como o mundo funciona, até certo ponto, observando-o. Bate-papoGPT Você pode escrever e-mails e ensaios atraentes, enquanto SoraO gerador de vídeo da OpenAI pode criar imagens relativamente realistas.

A capacidade de aproveitar exemplos de escrita, filmes e muito mais para gerar novos trabalhos torna a IA incrivelmente poderosa. Mas também é regurgitante. Quando questionados de uma determinada forma, os modelos (a maioria treinados em inúmeras páginas web, vídeos e imagens) produzem quase cópias desses dados, que apesar de estarem “disponíveis publicamente”, não se destinam a ser utilizados desta forma. .

Por exemplo, Sora pode gerar clipes com o logotipo do TikTok e personagens populares de videogame. O New York Times fez com que o ChatGPT citasse seus artigos literalmente (a OpenAI atribuiu o comportamento a um “corte“).

Compreensivelmente, isso perturbou os criadores cujos trabalhos foram incluídos no treinamento de IA sem sua permissão. Muitos defenderam.

A OpenAI está lutando contra ações judiciais coletivas movidas por artistas, escritores, youtuberscientistas da computação e organizações de notícias, todos alegando que a startup foi treinada ilegalmente em seus empregos. Os demandantes incluem os autores Sarah Silverman e Ta Nehisi-Coates, artistas visuais e conglomerados de mídia como The New York Times e Radio-Canada, para citar alguns.

OpenAI buscou licença ofertas com selecione parceirosmas nem todos os criadores veem o termos tão atraente.

OpenAI oferece aos criadores várias maneiras ad hoc de “cancelar” seu treinamento em IA. Em setembro passado, a empresa lançado um formulário de inscrição para permitir que os artistas sinalizem seus trabalhos para remoção de seus futuros conjuntos de treinamento. E a OpenAI há muito permite que webmasters bloqueiem seus bots de rastreamento da web. raspagem de dados em seus domínios.

Mas os criadores criticaram estes métodos como caóticos e inadequados. Não existem mecanismos específicos de exclusão para trabalhos escritos, vídeos ou gravações de áudio. E o formulário de cancelamento de imagem exige o envio de uma cópia de cada imagem para remoção junto com uma descrição, um processo oneroso.

O Media Manager foi apresentado como uma reformulação completa (e expansão) das atuais soluções de opt-out da OpenAI.

No anúncio de maio, a OpenAI disse que o Media Manager usaria “pesquisas de ponta em aprendizado de máquina” para permitir que criadores e proprietários de conteúdo “digam (ao OpenAI) o que possuem”. A OpenAI, que afirmou estar colaborando com os reguladores durante o desenvolvimento da ferramenta, disse esperar que o Media Manager “estabeleça um padrão em toda a indústria de IA”.

OpenAI nunca mencionou publicamente o Media Manager desde então.

Um porta-voz disse ao TechCrunch que a ferramenta “ainda estava em desenvolvimento” em agosto, mas não respondeu a um pedido de comentários em meados de dezembro.

A OpenAI não deu nenhuma indicação sobre quando o Media Manager poderá ser lançado, ou mesmo com quais recursos e capacidades ele poderá ser lançado.

Uso justo

Supondo que o Media Manager chegue em algum momento, os especialistas não estão convencidos de que ele acalmará as preocupações dos criadores ou fará muito para resolver as questões legais que envolvem o uso de IA e IP.

Adrian Cyhan, advogado de propriedade intelectual da Stubbs Alderton & Markiles, disse que o Media Manager, conforme descrito, é um empreendimento ambicioso. Até plataformas tão grandes como YouTube e TikTok luta com Identificação de conteúdo em escala. O OpenAI poderia realmente funcionar melhor?

“Garantir a conformidade com as proteções ao criador exigidas por lei e os possíveis requisitos de compensação em consideração apresenta desafios”, disse Cyhan ao TechCrunch, “especialmente devido ao cenário jurídico em rápida evolução e potencialmente divergente nas jurisdições nacionais e locais”.

Ed Newton-Rex, fundador da Fairly Trained, uma organização sem fins lucrativos que certifica que as empresas de IA respeitam os direitos dos criadores, acredita que o Media Manager transferiria injustamente o fardo de controlar o treinamento de IA para os criadores; Ao não usá-lo, você poderia dizer que eles poderiam estar dando aprovação tácita para que seus trabalhos fossem usados. “A maioria dos criadores nem ouve falar dele, muito menos usa”, disse ele ao TechCrunch. “No entanto, será usado para defender a exploração em massa do trabalho criativo contra a vontade dos criadores”.

Mike Borella, copresidente do grupo de prática de IA do MBHB, observou que os sistemas de opt-out nem sempre levam em conta as transformações que podem ser feitas em uma obra, como uma imagem que foi reduzida. Eles também podem não abordar o cenário muito comum de plataformas de terceiros que hospedam cópias do conteúdo dos criadores, acrescenta Joshua Weigensberg, advogado de propriedade intelectual e mídia da Pryor Cashman.

“Os criadores e os proprietários dos direitos de autor não controlam, e muitas vezes nem sequer sabem, onde as suas obras aparecem na Internet”, disse Weigensberg. “Mesmo que um criador diga a cada plataforma de IA que está optando por não receber treinamento, essas empresas podem ir em frente e treinar-se com cópias de seus trabalhos disponíveis em sites e serviços de terceiros”.

O Media Manager pode até não ser especialmente vantajoso para o OpenAI, pelo menos do ponto de vista jurisprudencial. Evan Everist, parceiro da Dorsey & Whitney especializado em direitos autorais, disse que, embora a OpenAI pudesse usar a ferramenta para mostrar a um juiz que está mitigando seu treinamento sobre conteúdo protegido por direitos autorais, o Media Manager provavelmente não protegeria a empresa de danos se fosse declarada a violação. .

“Os proprietários dos direitos autorais não têm obrigação de sair e dizer preventivamente aos outros para não infringirem suas obras antes que a violação ocorra”, disse Everist. “Os princípios básicos da lei de direitos autorais ainda se aplicam: ou seja, não pegue ou copie material de outras pessoas sem permissão. Esse recurso pode ter mais a ver com relações públicas e com o posicionamento da OpenAI como um usuário ético de conteúdo.”

um acerto de contas

Na ausência do Media Manager, a OpenAI implementou filtros: embora imperfeito — para evitar que seus modelos regurgitem exemplos de treinamento. E nos julgamentos que está a travar, a empresa continua a reivindicar uso justo proteções, afirmando que seus modelos criam obras transformadoras e não plagiadas.

A OpenAI poderia muito bem vencer em suas disputas de direitos autorais.

Os tribunais podem decidir que a IA da empresa tem um “propósito transformador”, seguindo o precedente ambientado há cerca de uma década no processo da indústria editorial contra o Google. Nesse caso, um tribunal decidiu que a cópia de milhões de livros pelo Google para o Google Books, um tipo de arquivo digital, era permitida.

OpenAI tem ditado publicamente que seria “impossível” treinar modelos competitivos de IA sem usar materiais protegidos por direitos autorais, autorizados ou não. “Limitar os dados de treinamento a livros e desenhos de domínio público criados há mais de um século poderia ser um experimento interessante, mas não forneceria sistemas de IA que atendessem às necessidades dos cidadãos de hoje”, escreveu a empresa em uma apresentação em janeiro à Câmara dos Deputados. Senhores do Reino Unido. .

Se os tribunais finalmente declarassem a OpenAI vitoriosa, o Media Manager teria pouco propósito legal. A OpenAI parece disposta a fazer essa aposta ou reconsiderar sua estratégia de opt-out.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here