A IA ao serviço do cibercrime

O número de mensagens em fóruns e canais do Telegram relacionadas com a utilização do ChatGPT para fins ilegais, ou sobre serviços públicos que dependem de tecnologias de IA, foi um fenómeno recorrente e atingiu o seu pico em 2023, mas agora quantidade está a transformar-se em qualidade.
6 de Março, 2024

A crescente popularidade de tecnologias como os LLM (Large Language Models) facilita a execução de tarefas quotidianas e torna a informação mais acessível, mas cria também novos riscos para a segurança da informação. Não são apenas os programadores de software e os entusiastas da IA que estão a discutir ativamente formas de utilizar modelos de linguagem – os atacantes também o fazem.

O número de mensagens em fóruns e canais do Telegram relacionadas com a utilização do ChatGPT para fins ilegais, ou sobre serviços públicos que dependem de tecnologias de IA, foi um fenómeno recorrente e atingiu o seu pico em 2023, mas agora quantidade está a transformar-se em qualidade – os modelos estão a tornar-se cada vez mais complexos e a sua integração cada vez mais eficiente. 

Tornou-se bastante comum os cibercriminosos utilizarem o ChatGPT no decorrer das suas atividades ilícitas. São vários os relatos de utilizadores de fóruns de cibercrime que descrevem a forma como a IA os ajudou a resolver problemas com o processamento de dados de utilizadores vítimas das suas ações.

Através de uma única pergunta é agora possível aos atores maliciosos obterem informação e conhecimento especializado que, em tempos, só estava ao alcance dos mais experientes. Esta facilidade com que se pode aceder à informação pode potenciar um aumento de ciberataques que atualmente podem ser executados por principiantes sem qualquer expertise.  

A utilização de modelos de linguagem para executar tarefas padrão e obter informações tornou-se tão popular, que alguns fóruns de cibercriminosos têm respostas do ChatGPT ou de ferramentas semelhantes incorporadas na sua funcionalidade padrão.

Noutra vertente, várias soluções baseadas no ChatGPT estão a começar a receber atenção crescente pelos criadores de software de código aberto, incluindo os que trabalham em projetos relacionados com a criação de novas soluções para especialistas em cibersegurança. Estes projetos podem ser usados indevidamente pelos cibercriminosos, que já discutem em fóruns relevantes o seu uso para fins maliciosos.

Um exemplo são projetos de código aberto alojados na plataforma GitHub concebidos para ofuscar código escrito em PowerShell. Ferramentas deste tipo são frequentemente utilizadas tanto por especialistas em cibersegurança como por atacantes quando se infiltram num sistema e tentam estabelecer e manter acesso ao sistema. 

A ofuscação pode aumentar as hipóteses de não ser detetado por sistemas de monitorização e soluções antivírus. Recentemente, por exemplo, foi encontrada uma publicação num fórum de cibercrime em que os atacantes partilham esta ferramenta e mostram como pode ser utilizada para fins maliciosos e qual será o resultado. 

Há uma série de ferramentas legítimas que os peritos em segurança partilham para fins de investigação, que naturalmente destinam-se a ser utilizadas apenas por estes especialistas. Embora algumas delas possam ser um recurso valioso para o desenvolvimento da indústria da cibersegurança, convém não esquecer que os cibercriminosos também estão constantemente à procura de formas de automatizar atividades maliciosas e a facilidade de acesso a essas soluções pode diminuir a barreira de entrada no mundo do cibercrime.

Está a ser dada uma atenção considerável a projetos como o WormGPT, XXXGPT e FraudGPT. Trata-se de modelos de linguagem anunciados como análogos do ChatGPT, mas sem as limitações do original e com funcionalidades adicionais.

O crescente interesse por estas ferramentas pode tornar-se um problema para os programadores. Como já foi referido, a maioria das soluções discutidas pode ser utilizada tanto de forma legítima como para realizar atividades ilegais, no entanto os debates na comunidade centram-se nas ameaças colocadas por esses produtos. Por exemplo, o projeto WormGPT foi encerrado em agosto devido a uma reação negativa da comunidade. Os criadores garantem que o seu objetivo original não se centrava apenas em atividades ilegais, tendo sido encerrado principalmente por causa da atenção dos media, que retratam o projeto como inequivocamente malicioso e perigoso.

Em suma, a crescente popularidade e utilização da IA pelos atacantes é alarmante. A informação está a tornar-se mais acessível e muitos problemas podem ser resolvidos com um simples comando. Isto pode ser utilizado para simplificar a vida das pessoas, mas ao mesmo tempo reduz o limiar de entrada para os agentes maliciosos. Embora muitas das soluções acima referidas possam não representar uma ameaça real atualmente devido à sua simplicidade, a tecnologia está a evoluir a um ritmo acelerado e é provável que as capacidades dos modelos linguísticos atinjam em breve um nível que possibilitará ataques sofisticados.

João Godinho é Senior Security Researcher da Kaspersky

Opinião