Meta investiga Deepfakes de sexo explícito gerados por IA, mas é preciso fazer muito mais

Estudos demonstraram que a violência sexual facilitada pela tecnologia, como a publicação não consentida de imagens explícitas, pode ter efeitos devastadores na saúde, nas carreiras, nas relações pessoais e no bem-estar financeiro das vítimas.
22 de Abril, 2024

O Conselho de Supervisão da Meta anunciou na passada terça-feira que tem planos para avaliar a abordagem da empresa a imagens explícitas e geradas por IA de figuras públicas femininas no Facebook e no Instagram.

As plataformas de redes socias Facebook e Instagram contam com 3 mil milhões e 2 mil milhões de utilizadores, respetivamente, em todo o mundo. Com a democratização da IA generativa e o acesso as plataformas de geração de IA ficou difícil controlo do imediato a tendência de inundar as principais redes socias com conteúdos sexualmente explícitos e sugestivos gerados por IA. A fraca capacidade das entidades de segurança, internas e externas, face ao crescimento desta tecnologia, levou a que estes fenómenos criminosos proliferassem pela web com especial incidência nas redes sociais. Já assim tinha sido com o a democratização da Internet. A velocidade da tecnologia chega sempre primeiras as mãos dos que a usam para o mal. Até porque é sempre mais fácil um básico usar a sua fraca criatividade do que alguém pensar como usar melhor e em prole da comunidade, leva tempo e exige capacidade de compreensão ética. Mas o que interessa é que as empresas e a comunidade estão atentas a estes fenómenos, e embora por vezes levem tempo a reagir, até porque é preciso pensar como e qual melhor maneira.

Helle Thorning-Schmidt, vice-presidente do Conselho de Supervisão da Meta, disse numa declaração a impressa norte americana, que este conselho se concentrará em duas decisões de conteúdo específicas tomadas pelo Meta em relação a imagens explícitas de IA de duas figuras públicas não identificadas – explorará se as políticas da empresa e as práticas de aplicação são “eficazes” para lidar com este problema crescente.

“A pornografia deepfake é uma causa crescente de assédio online com base no género e é cada vez mais utilizada para visar, silenciar e intimidar as mulheres – tanto online como offline. Vários estudos mostram que a pornografia deepfake visa maioritariamente as mulheres”, lê-se na declaração de Thorning-Schmidt.

Este Conselho de Supervisão, “Supremo Tribunal” do Facebook, como lhe chama os americanos, é financiado pela Meta, mas funciona de forma independente para rever as decisões de conteúdo “para ver se a empresa agiu de acordo com as suas políticas, valores e compromissos de direitos humanos”. De acordo com o seu estatuto o conselho reserva-se o poder de anular as decisões da empresa no que diz respeito à moderação de conteúdos e de emitir “opiniões consultivas sobre políticas” não vinculativas no que diz respeito a dilemas éticos mais vastos.

Um representante deste conselho explicou ao por e-mail ao techpolicy.press, que a organização optou por ocultar as identidades das duas figuras públicas cujos casos emblemáticos deram origem ao inquérito – uma mulher na Índia e outra nos Estados Unidos – para “evitar mais danos ou riscos de assédio com base no género”.

No primeiro caso, a imagem nua, gerada por IA, foi inicialmente denunciada à Meta depois de ter sido publicada no Instagram, mas a imagem foi autorizada a permanecer na plataforma depois de a denúncia ter sido automaticamente encerrada “porque não foi analisada no prazo de 48 horas”. Não se sabe ao certo porque é que a denúncia não foi analisada pela Meta durante tanto tempo, mas a imagem acabou por ser retirada depois do Conselho de Supervisão ter notificado o Meta de que iria analisar esta decisão em particular.

No segundo caso, a imagem explícita foi publicada num grupo do Facebook dedicado a conteúdo gerado por IA, depois de ter sido removida anteriormente por violar a política do Facebook contra “Bullying e Assédio”, especificamente no que diz respeito a “photoshop ou desenhos sexualizados depreciativos”. A imagem foi retirada uma segunda vez, o que levou o utilizador que a publicou a recorrer da decisão para a Meta e, por fim, a levar a questão para o Conselho de Supervisão, presumivelmente argumentando que a imagem deveria ser autorizada a permanecer na plataforma.

Durante as próximas duas semanas, o Conselho de Supervisão aceitará comentários do público relativamente a estes casos, bem como ao estatuto geral das imagens de IA explícitas nas plataformas Meta. Após o encerramento do período de comentários do público, o Conselho de Supervisão decidirá, em última instância, sobre estes casos específicos e se as publicações em questão – e presumivelmente outras semelhantes – “devem ser permitidas no Instagram ou no Facebook”.

“Sabemos que a Meta é mais rápida e mais eficaz a moderar conteúdos em alguns mercados e línguas do que noutros. Ao pegar num caso dos EUA e num da Índia, queremos ver se a Meta está a proteger todas as mulheres a nível global de forma justa”, disse Thorning-Schmidt, a impressa americana.

O anúncio do conselho de administração não aborda a questão de saber se a decisão da organização e as recomendações subsequentes dirão respeito a casos de imagens explícitas de IA dirigidas a cidadãos privados, que – ao contrário de muitas figuras públicas – não têm os meios ou a notoriedade pública para combater este tipo de abuso.

Estudos demonstraram que a violência sexual facilitada pela tecnologia, como a publicação não consentida de imagens explícitas, pode ter efeitos duradouros e devastadores na saúde, nas perspetivas de carreira, nas relações pessoais e no bem-estar financeiro da vítima, entre outros aspetos da sua vida. Muitos especialistas e defensores das vítimas de abuso sexual com base em imagens salientam que, para muitas mulheres que vivem em regimes especialmente conservadores ou paternalistas, as consequências deste tipo de danos à reputação podem mesmo revelar-se mortais.

Este esforço do Conselho de Supervisão é sem dúvida cheio de méritos, mas a defesa das mulheres em particular, e das vítimas de deepfakes em geral, deve ter a atenção imediata das várias organizações de segurança pelo mundo. O impacto na deterioração da vida humana através de chantagem ou rebaixamento da condição de cada um através da mentira, enfeitada e propagada tecnologicamente, tem de ser também uma luta das tecnológicas e dos programadores. A tecnologia não pode ser ferida de conivência é preciso que empresas das mais pequenas as maiores tenham a noção que as exigências do Conselho Superior da Meta, para com a empresa, devem ser comuns a toda a comunidade tecnológica.