A Check Point® Software Technologies Ltd., fornecedor líder de plataformas de segurança cibernética alimentadas por IA e entregues na cloud, adverte que, embora a IA esteja a ser aproveitada para ajudar a combater o cibercrime e a caçar hackers e ameaças, vários serviços de IA também são utilizados pelos atacantes. Esta é uma tendência muito perigosa que está a mudar o mundo do crime organizado.

Quer criar uma imagem, saber mais sobre um tema interessante, escrever um artigo ou um texto para as redes sociais? Para estes exemplos, uma ferramenta de IA como o ChatGPT pode ajudá-lo em tudo. Mas os cibercriminosos têm à sua disposição ferramentas inteligentes semelhantes. Estas ferramentas de IA utilizadas para o crime podem criar ataques ainda mais eficazes e analisar mais facilmente as informações roubadas. Os piratas informáticos podem utilizar várias tecnologias de IA para criar e aperfeiçoar ameaças e táticas de ataque. Ferramentas como FraudGPT, XXXGPT ou WolfGPT são exemplos de como a IA pode ser explorada para fins maliciosos.

"Estas ferramentas mostram que os cibercriminosos podem adaptar a IA para tornar os ataques mais eficazes, facilitando o roubo de dados das vítimas. Por isso, é necessário repensar as estratégias de cibersegurança existentes e também analisar o enquadramento ético que rege o desenvolvimento e a utilização da IA", alerta Oded Vanunu, Head of Vulnerability Research da Check Point Software Technologies.

FraudGPT


O FraudGPT representa um marco na utilização maliciosa da tecnologia de IA, uma vez que é uma plataforma que pode ser subscrita, como qualquer outro serviço, e permite a criação de identidades falsas, e-mails de phishing eficazes, malware ou a utilização de engenharia social para enganar os utilizadores. Tudo isto pode ser feito a um nível muito elevado, de modo que mesmo pessoas com competências técnicas mínimas possam efetuar ataques complexos.

XXXGPT

A ferramenta XXXGPT é popularmente utilizada por criminosos para gerar códigos RAT que lhes permitem assumir remotamente o controlo do dispositivo da vítima e roubar dados sensíveis sem serem detetados ou alterá-los ou corrompê-los silenciosamente. Também pode gerar spyware, ransomware, keyloggers e códigos especiais para ataques direcionados. Esta ferramenta polivalente também pode criar e distribuir todo o tipo de desinformação ou material comprometedor concebido para chantagear e assediar as vítimas.

WolfGPT

O WolfGPT é conhecido pela sua complexidade e arquitetura, baseada na linguagem de programação Python. Pode criar malware encriptado e campanhas de phishing convincentes. Além disso, permite a criação de um vasto arsenal de armas cibernéticas, incluindo botnets, trojans de acesso remoto, keyloggers ou ferramentas para roubar dados e criptomoedas. É também utilizada pelos cibercriminosos para criar códigos maliciosos dirigidos a POS e para ataques direcionados a ATMs, ou para branqueamento de capitais e identificação de fragilidades em redes empresariais.

Cibersegurança e Implicações Éticas

O surgimento de modelos avançados de IA, como o FraudGPT, o XXXGPT e o WolfGPT, exige uma nova abordagem à segurança, uma vez que as defesas convencionais são insuficientes contra estas ameaças complexas e adaptáveis. Ao mesmo tempo, devem ser abordadas questões éticas relativas à responsabilidade dos criadores de IA e à forma de evitar a utilização indevida da IA em geral. Estamos a entrar numa era de IA em que a dupla utilização destas tecnologias é cada vez mais evidente. Alguns domínios que devem ser considerados:

  1. Regulamentação e legislação: Introduzir leis e regulamentos sólidos destinados a controlar e supervisionar o desenvolvimento e a utilização das tecnologias de IA.
  2. Educação: Aumentar a sensibilização do público para os riscos associados à IA e fornecer ferramentas e informações para proteção contra fraudes e abusos.
  3. Tecnologia: Desenvolver sistemas e algoritmos de segurança avançados que possam detetar e paralisar serviços de IA perigosos.
  4. Cooperação Internacional: Colaboração entre governos, organizações internacionais e empresas de tecnologia para criar normas e protocolos globais para o desenvolvimento de uma IA segura.

"A utilização indevida dos serviços de IA é uma ameaça séria que não pode ser ignorada. É essencial que governos, reguladores e empresas tecnológicas trabalhem em conjunto para desenvolver e implementar medidas para travar a utilização indevida das tecnologias de IA", conclui Oded Vanunu.

Classifique este item
(0 votos)
Ler 318 vezes
Tagged em
Top