A luta pela transparência na IA generativa está no terreno

Está criada a primeira aliança comercial do setor. Anunciada na quarta-feira, a Dataset Providers Alliance (DPA) promete defender a "origem ética dos dados" e a proteção dos direitos de propriedade intelectual.
29 de Junho, 2024

Em resposta ao crescente debate sobre os direitos de autor e a ética na utilização de dados para treinar sistemas de inteligência artificial (IA), sete empresas de licenciamento de conteúdo formaram a primeira aliança comercial do setor. Anunciada na quarta-feira, a Dataset Providers Alliance (DPA) promete defender a “origem ética dos dados” e a proteção dos direitos de propriedade intelectual dos proprietários de conteúdo.

Entre os membros fundadores da DPA estão a empresa norte-americana de datasets musicais Rightsify, o serviço de licenciamento de imagens vAIsual, o fornecedor japonês de fotos de stock Pixta e o data marketplace alemão Datarade. Esta colaboração inédita surge num momento em que a tecnologia de IA generativa, capaz de imitar a criatividade humana, está a enfrentar uma série de processos judiciais e críticas de criadores de conteúdo.

O desenvolvimento de modelos de IA tem sido marcado pela utilização massiva de conteúdos retirados da internet sem o consentimento dos seus criadores ou proprietários. Esta prática, que as empresas de tecnologia defendem ser legal, tem levado a um aumento na procura de coleções privadas de conteúdos, tanto para necessidades específicas de dados quanto para mitigar riscos legais e regulatórios.

A expectativa de um aumento na procura por dados licenciados, caso os proprietários de direitos de autor ganhem as suas batalhas legais, tem dado origem a uma indústria emergente de empresas que embalem e vendem acesso a conteúdos para uso em sistemas de IA. Neste contexto, grupos como o Fairly Trained, uma organização sem fins lucrativos criada este ano, surgiram para certificar modelos que não utilizam materiais protegidos por direitos de autor sem licença.

Padrões éticos e legislação

A DPA pretende estabelecer padrões éticos para as transações de datasets, exigindo que os seus membros não vendam dados de texto obtidos através de rastreamento na web ou áudio que contenha vozes de pessoas sem o seu consentimento explícito. Um foco importante será a promoção de legislações como o NO FAKES Act, um projeto de lei dos EUA introduzido no ano passado para penalizar a geração não autorizada de réplicas digitais de vozes ou imagens de pessoas.

A DPA tem ainda intenção de pressionará por mais requisitos de transparência nos dados de treino, semelhantes aos do AI Act da União Europeia e a um projeto de lei dos EUA introduzido em abril, o Generative AI Copyright Disclosure Act.

O caminho para a sustentabilidade e transparência na IA

A formação da DPA representa um passo significativo na busca por uma utilização mais ética e transparente dos dados no desenvolvimento de IA. À medida que a indústria de IA continua a evoluir, a necessidade de equilibrar inovação tecnológica com a proteção dos direitos de autor e a privacidade individual torna-se cada vez mais premente. A aliança pretende ser uma voz ativa neste diálogo, promovendo práticas que não só respeitem os direitos dos criadores de conteúdo, mas que também garantam um desenvolvimento sustentável e responsável da inteligência artificial.

A questão de como as empresas de tecnologia podem continuar a inovar enquanto respeitam os direitos dos criadores de conteúdo será uma das batalhas legais e éticas definidoras dos próximos anos. Com a DPA, há agora uma plataforma dedicada a abordar estas questões de forma coesa e orientada para soluções.

Com informações Reuters

Opinião