A OpenAI anunciou recentemente a sua nova ferramenta – o Sora -, um modelo de IA capaz de criar vídeos de até um minuto a partir de um prompt. Os vídeos podem ser criados e editados através de texto ou imagens, superando com distinção muitos dos modelos anteriores em termos de duração, resolução e até captação de detalhes. O Sora mostra já uma elevada capacidade de representação das leis físicas do mundo real e, apesar das suas limitações iniciais em algumas nuances, é já impressionante a capacidade desta nova ferramenta de IA de representar conceitos como luz, sombra, reflexos. Para atingir este nível mais elevado de realismo, o Sora combina duas abordagens diferentes de IA. O primeiro é um modelo de difusão semelhante aos utilizados para gerar imagens, como o DALL-E, que aprendem a converter gradualmente pixels de imagem aleatórios em imagens coerentes. A segunda técnica de IA é chamada de “arquitetura de transformador” e é utilizada para contextualizar e reunir dados sequenciais.
Olhando para o futuro, o verdadeiro poder do Sora reside na sua eventual democratização – os empreendedores vão conseguir criar demonstrações de produtos cativantes, os profissionais de marketing e design personalizar os vídeos, e ao nível da educação conseguir criar experiências de aprendizagem personalizadas através de tutoriais gerados pelo Sora. As possibilidades e as vantagens são imensas e é importante olhar para o Sora não como um substituto da criatividade humana, mas antes como uma ferramenta poderosa que pode aumentar e aprimorar as habilidades existentes. Ainda assim, e apesar deste modelo despertar o entusiasmo sobre o avanço da tecnologia de IA, desperta igualmente preocupações relevantes quanto à sua utilização, e antes de libertar todo o seu potencial, é necessário considerar e acautelar as devidas implicações éticas e sociais.
Atualmente, o modelo ainda está somente disponível para as red teams, de forma a testar a sua segurança e o risco de a tecnologia ser utilizada para fins maliciosos, por exemplo, em áreas como desinformação, fraude, conteúdo de ódio e preconceito. A OpenAI está a procurar garantir que o modelo não é utilizado para produzir conteúdo impróprio ou ilegal. Ora, por conseguinte, as capacidades sem precedentes do Sora serão também atrativas para os cibercriminosos que irão procurar explorar o seu potencial para fins maliciosos, desde deepfake a possíveis ataques de engenharia social ainda mais sofisticados e bem-sucedidos. Adicionalmente, como em muitos sistemas de IA, o Sora é suscetível a preconceitos inerentes aos dados pelos quais é treinado. Isto é, sem uma supervisão cuidadosa e estratégias de mitigação, estes preconceitos poderão perpetuar ou mesmo exacerbar desigualdades e disseminar conteúdos de ódio. Nesta fase inicial as consequências são ainda um tanto imprevistas.
Por fim, uma consideração importante tem a ver com as limitações na identificação de conteúdo gerado por IA. É importante definir ferramentas que auxiliem a deteção de conteúdo falacioso, como um classificador de deteção que pode fornecer informação quando um vídeo for criado pelo Sora. A OpenAI está a planear incluir metadados C2PA, um padrão técnico que permite incorporar metadados, neste caso nos vídeos, para verificar a sua origem e informações relacionadas. Contudo, estes classificadores têm limitações que podem ser facilmente contornadas por indivíduos com conhecimento e motivação adequados. Neste sentido, é importante adotar abordagens complementares para a autenticação de conteúdo, bem como o desenvolvimento contínuo de técnicas de deteção e verificação de conteúdo gerado por IA.
No futuro, enfrentaremos uma paisagem digital onde os atores maliciosos já conseguirão criar imagens, vídeos e até mesmo áudios falsos, de maneira convincente. Essa proliferação de conteúdo criado por IA levantará questões sobre a autenticidade de qualquer conteúdo que encontremos online e terá ainda o potencial de minar a confiança na informação. Ao longo da história sempre tivemos provas documentais para suportar a veracidade de qualquer evento. Num presente em que tanto conteúdo já é gerado pela IA, como será que podemos olhar para o passado? Como será identificar o que foi real e o que não foi? Acredito que, a muito curto prazo, num futuro próximo, encontraremos mais respostas para todas estas questões.
Bruno Castro é Fundador & CEO da VisionWare