A Exclusive Networks e a Netskope classificaram as notícias falsas criadas por IA mais difundidas em 2023, até à data, com base nas visualizações sociais, envolvimento, artigos, alcance e autoridade, a fim de determinar o seu impacto em cada uma delas; e ainda investigaram até onde chegaram as histórias falsas mais virais nas publicações noticiosas e nas redes sociais, e quanto tempo demorou até que essas histórias fossem reveladas como falsas.
Os dados foram também comparados com um estudo que revela a falsa confiança que o público britânico e americano tem na sua capacidade de detetar histórias falsas.
As top 15 notícias falsas geradas por IA
O Vídeo de Hillary Clinton a apoiar Ron DeSantis, gerado por IA, e a imagem do Papa Francisco a usar um casaco branco de grandes dimensões, somaram mais de 840 milhões de visualizações, e de 20 milhões de visualizações, respetivamente. A imagem do papa foi referida por 312 publicações nos media.
Em destaque estão também as imagens falsas de Donald Trump a ser preso na baixa de Washington DC em março deste ano. Embora Donald Trump tenha sido preso mais tarde na vida real, estas imagens convincentes anteciparam a detenção e foram criadas pelo gerador de imagens de IA, Midjourney. Tornaram-se virais no X (Twitter), com mais de 10 milhões de visualizações, e foram cobertas por 671 publicações nos media – o dobro do número de publicações que cobriram a história do Papa.
Geradores de imagens com inteligência artificial (IA), como o DALL-E e o Midjourney, estão a ganhar popularidade e já conquistaram milhões de novos utilizadores até agora. Os programas de fácil utilização permitem que qualquer pessoa crie imagens através de instruções de texto, e os resultados são tão realistas que até os editores de notícias têm dificuldade em distinguir as imagens fictícias da realidade. Estas imagens falsificadas dominam o gráfico, com 14 em cada 15 histórias a serem conduzidas por elas.
Nota ainda para a única história que não é protagonizada por imagens geradas por IA: um drone com IA a matar o seu operador humano. Esta história foi a que registou maior cobertura – 1.689 artigos, e teve um alcance total combinado de 1,3 milhões.
As histórias falsas geradas por IA que demoraram mais tempo a ser corrigidas
É cada vez mais difícil detetar o que é real e o que é IA, por isso, acreditar numa história inventada é um erro cada vez mais frequente. Quais as notícias falsas que demoraram mais tempo a ser desmentidas
Com base na data de publicação original, o tempo médio que demora uma história falsa sobre IA a ser corrigida é de 6 dias. Um vídeo editado por IA de uma entrevista noticiosa australiana com Bill Gates convenceu os editores durante mais tempo, 15 dias. O vídeo adulterado sugere falsamente que Gates terminou abruptamente uma entrevista com a jornalista Sarah Ferguson, da Australian Broadcasting Corporation (ABC) News, depois de ter sido questionado sobre o seu envolvimento na distribuição da vacina contra a COVID-19.
A história seguinte que demorou mais tempo a ser corrigida foi a simulação de um drone com IA a matar o seu operador humano. O tempo para esta correção foi prolongado devido ao atraso na resposta da Força Aérea, que afirmou que o incidente era hipotético.
As fotos do príncipe Harry e William juntos na coroação, geradas por AI, demoraram 12 dias a ser desmentidas. Imagens de uma nave espacial na Antártica demoraram 13 dias a ser desmentidas.
O público é capaz de detetar uma notícia falsa sobre IA?
De acordo com um estudo da Netscope e da Exclusive Networks, que questionou o publico norte-americano e inglês, as plataformas de maior confiança relativamente a notícias são os jornais. No entanto, as plataformas sociais baseadas em vídeo, como o TikTok e o Snapchat, ficaram em segundo lugar, demonstrando a sua enorme influência e a importância da regulação da desinformação nestas plataformas.
As plataformas tradicionais de redes sociais, como o Instagram, o Twitter e o Facebook, ficaram em último lugar.
Mais de 80% dos participantes no estudo do Reino Unido afirmaram estar confiantes em detetar uma notícia falsa. Os inquiridos nos EUA estavam ainda mais seguros das suas capacidades, com 88%. No entanto, quando lhes foi mostrada uma notícia falsa gerada por IA juntamente com uma verdadeira, 44% dos inquiridos do Reino Unido acreditaram que a história falsa era real. Esta percentagem foi ainda mais elevada para os cidadãos dos EUA, com metade a responder incorretamente.
Como detetar uma notícia falsa gerada por IA
Tente encontrar a fonte original da história
Se parecer improvável ou estranha, desconfie. Verifique primeiro a fonte. Se estiver nas redes sociais, os comentários podem conter informações sobre a sua origem. Para imagens, pode efetuar uma pesquisa inversa de imagens utilizando o Google Reverse Image Search, TinEye ou Yandex. A pesquisa pela origem pode revelar mais contexto e verificações de factos existentes por editores de confiança.
Notícias baseadas em imagens
Aumente a imagem e verifique se existem erros. Aumentar a imagem revelará má qualidade ou detalhes incorretos – ambos sinais reveladores de uma imagem gerada por IA.
Verifique as proporções da imagem. Um erro frequente nas imagens de IA são as proporções e quantidades de partes do corpo e outros objetos. Mãos, dedos, dentes, orelhas e óculos são frequentemente deformados e têm as quantidades erradas.
Há algo de estranho no fundo? Se uma imagem tiver sido alterada ou fabricada, os objetos utilizados no fundo estão muitas vezes deformados, utilizados várias vezes e com falta de detalhes.
A imagem tem um aspeto suave ou não tem imperfeições? Nas imagens com IA, certos aspetos que normalmente seriam muito detalhados são frequentemente suavizados e aperfeiçoados, como a pele, o cabelo e os dentes. Os rostos são impecáveis e os tecidos são demasiado harmoniosos.
As inconsistências na lógica da imagem podem ser um sinal revelador de algo gerado por IA. Talvez a coloração de algo tão pequeno como os olhos não corresponda em diferentes imagens, ou um padrão ligeiramente alterado.
Embora as imagens falsificadas já existam há tanto tempo como a fotografia, a facilidade de manipulação e de criação hoje oferecida pelas ferramentas digitais compromete significativamente a segurança. Atualmente, grupos políticos estão a utilizar imagens geradas por IA para influenciar a opinião pública, extorsão de dinheiro, segredos e informações críticas.