Gaza: Fraude digital com recurso a IA

Misturadas com as imagens da realidade fria da guerra, há um conjunto de outras imagens que evocam o horror, ultrapassando todos os limites, e que nenhum editor de qualquer meio escolheria colocar no ar.
30 de Novembro, 2023
@MOHAMMED SALEM Credit: REUTERS

O peso das imagens de guerra é por si só devastador mesmo para os mais frios dos homens. Casas bombardeadas e ruas devastadas em Gaza, são suficientes para virarmos a folha de um jornal ou apertar o botão do comando da televisão, sem que isso signifique fugir da realidade, mas apenas porque não queremos ver desgraças no final de um dia de trabalho.

Misturadas com as imagens da realidade fria da guerra, há um conjunto de outras imagens que evocam o horror, ultrapassando todos os limites, e que nenhum editor de qualquer meio escolheria colocar no ar. São imagens de bebés abandonados e ensanguentados que já circularam milhões de vezes na Internet desde o início do conflito, estas imagens assustadoras são “deepfakes”, criadas com recurso à Inteligência Artificial (IA). Um exame minucioso revela sinais reveladores, como dedos que se movem de forma estranha ou olhos que brilham com uma luz não natural – indicadores distintivos de fraude digital.

No entanto, a indignação que estas imagens pretendem provocar é inegavelmente real.

As imagens do conflito entre Israel e o Hamas sublinham bem o potencial da IA como ferramenta de propaganda, criando imagens de carnificina. Desde o início da guerra, imagens alteradas digitalmente e divulgadas nas redes sociais têm enganado as pessoas sobre atrocidades inexistentes ou propagado falsas alegações sobre a responsabilidade pelas mortes.

Embora muitas alegações de desinformação sobre a guerra que circulam online não dependam necessariamente da IA e provenham de fontes mais convencionais, os avanços tecnológicos estão a surgir com uma frequência crescente e um controlo mínimo. Este facto começa a colocar a IA no papel de mau da fita tenebrosamente incontrolável, proporcionando um vislumbre do que poderá acontecer em futuros conflitos, eleições e outros eventos significativos.

Em declarações a Associated Press (AP), Claude Goldenstein, diretor executivo da CREOpoint, afirmou, “isto vai piorar – e muito – antes de melhorar”. A CREOpoint é uma multinacional tecnológica com sede em  São Francisco que utiliza a IA para avaliar a validade de certas alegações online. A empresa compilou uma base de dados dos deepfakes mais virais relacionados com Gaza. “Imagens, vídeo e áudio: com a IA generativa, é uma escalada sem precedentes”.

Em alguns casos, fotografias de conflitos e desastres anteriores foram reaproveitadas e apresentadas como novas. Noutros, foram utilizados programas de IA generativa para fabricar imagens de raiz, como a de um bebé a chorar no meio de destroços de um bombardeamento, que se tornou viral nos primeiros dias do conflito.

Outros exemplos de imagens geradas por IA incluem vídeos que mostram supostos ataques de mísseis israelitas ou tanques a passar por bairros devastados, bem como famílias a procurar sobreviventes nos escombros.

Em muitos casos, as falsificações parecem ter sido concebidas para provocar uma forte reação emocional, apresentando os corpos de bebés, crianças ou famílias. Nos sangrentos primeiros dias da guerra, os apoiantes de Israel e do Hamas afirmaram que o outro lado tinha matado crianças e bebés. Imagens deepfake de bebés a chorar foram apresentadas como “provas” fotográficas.

Os criadores destas imagens são hábeis a apelar aos impulsos e ansiedades mais profundos das pessoas, disse à AP, Imran Ahmed, diretor executivo do Center for Countering Digital Hate, uma organização sem fins lucrativos que segue a desinformação sobre a guerra. Quer se trate de uma imagem deepfake de um bebé ou de uma imagem real de outro conflito, o impacto emocional no espetador é o mesmo.

Quanto mais horrível for a imagem, maior é a probabilidade de as pessoas se lembrarem dela e a partilharem, espalhando inadvertidamente a desinformação.

O conteúdo fraudulento gerado pela IA começou a espalhar-se após a invasão da Ucrânia pela Rússia em 2022. Um vídeo manipulado parecia mostrar o Presidente Volodymyr Zelensky a exortar os ucranianos a renderem-se. Essas alegações ressurgiram há uma semana, ilustrando como a desinformação pode ser persistente, mesmo quando facilmente desmascarada.

Cada novo conflito ou época eleitoral oferece novas oportunidades para os que espalham a desinformação mostrarem os últimos avanços da IA. Especialistas em IA e cientistas políticos alertam para os riscos das próximas eleições, nomeadamente nos Estados Unidos, Índia, Paquistão, Ucrânia, Taiwan, Indonésia e México.

O risco de a IA e as redes sociais serem utilizadas para espalhar mentiras aos eleitores americanos alarmou tanto os democratas como os republicanos em Washington. Numa recente audição sobre os perigos da tecnologia deepfake, o deputado Jerry Connolly, democrata da Virgínia, declarou que os Estados Unidos devem investir no financiamento do desenvolvimento de ferramentas de IA concebidas para contrariar a Inteligência Artificial.

Em todo o mundo, várias empresas de tecnologia estão a trabalhar em novos programas que podem detetar deepfake, colocar marcas de água para provar a sua origem ou digitalizar texto para verificar qualquer informação enganosa ou falsa que possa ter sido inserida pela IA.

“A próxima vaga de IA será: como podemos verificar o conteúdo existente? Como é que a desinformação pode ser detectada? Como é que o texto pode ser analisado para determinar a sua exatidão?”, afirmou à AP, Maria Amelie, co-fundadora da Factiverse, uma empresa norueguesa que criou um programa de IA capaz de analisar conteúdos para detetar imprecisões ou distorções introduzidas por outros programas de IA.

Estes programas seriam de interesse imediato para educadores, jornalistas, analistas financeiros e outros interessados em detetar fraudes e plágio. Estão a ser desenvolvidos programas semelhantes para detetar fotografias e vídeos manipulados.

Embora esta tecnologia seja promissora, aqueles que utilizam a IA generativa como uma ferramenta em prol da fraude estão muitas vezes um passo à frente, de acordo com David Doermann, um cientista informático que liderou um esforço na Agência de Projectos de Investigação Avançada da Defesa dos EUA para responder às ameaças à segurança nacional colocadas por imagens manipuladas por IA.

Doermann, agora professor na Universidade de Buffalo, disse à AP que a abordagem eficaz dos desafios políticos e sociais colocados pela desinformação da IA exigirá melhores tecnologias, regulamentos, padrões da indústria e investimentos em programas de alfabetização mediática para ajudar os utilizadores da Internet a discernir a verdade da ilusão provocada pela fraude.

Opinião