Seguindo os passos de WormGPT, criminosos cibernéticos estão anunciando mais uma ferramenta de inteligência artificial (IA) generativa para crimes cibernéticos, apelidada de FraudGPT, em diversos mercados da dark web e canais de Telegram.
“Esta é uma IA bot, exclusivamente direcionada para fins ofensivos, como elaboração de e-mails de spear phishing, criação de ferramentas de crack, cartões, etc.”, disse o pesquisador de segurança da Netenrich, Rakesh Krishnan, em um relatório publicado na terça-feira.
A firma de cibersegurança informou que a oferta circula desde pelo menos 22 de julho de 2023, por uma assinatura mensal de US$ 200 (ou US$ 1.000 por seis meses e US$ 1.700 por um ano).
“Se você está procurando uma alternativa ao Chat GPT projetada para oferecer uma ampla gama de ferramentas, recursos e capacidades exclusivas, adaptados a qualquer indivíduo sem limites, não procure mais!”, afirma o ator, que usa o pseudônimo online de CanadianKingpin.
O autor também afirma que a ferramenta pode ser usada para escrever código malicioso, criar malware indetectável, encontrar vazamentos e vulnerabilidades, e que houve mais de 3.000 vendas e avaliações confirmadas.
O modelo exato de linguagem grande (LLM) usado para desenvolver o sistema atualmente não é conhecido.
O desenvolvimento ocorre à medida que os criminosos cibernéticos estão cada vez mais aproveitando o advento de ferramentas de IA semelhantes ao OpenAI ChatGPT para criar novas variantes adversárias que são explícitamente projetadas para promover todos os tipos de atividades cibernéticas criminosas sem quaisquer restrições.
Essas ferramentas podem servir como um trampolim para atores novatos que desejam realizar ataques de phishing convicentes e comprometimento de e-mail comercial (BEC) em escala, levando ao roubo de informações sensíveis e pagamentos não autorizados por transferência eletrônica.
“Enquanto as organizações podem criar o ChatGPT (e outras ferramentas) com salvaguardas éticas, não é uma tarefa difícil reimplementar a mesma tecnologia sem essas proteções”, observou Krishnan.
Há ainda algumas formas onde o hacker pode se aproveitar da ferramenta de AI, sendo através de:
- Engenharia social: consiste na manipulação dos usuários para que informem os dados e informações que precisa;
- Injeção de comandos maliciosos: podem aplicar comandos maliciosos no ChatGPT a fim de descobrir vulnerabilidades. Uma maneira de realizar tal feio é através da inserção de scripts mal intencionados na entrada de texto dos usuários;
- Visualização e exploração de vulnerabilidades de seguranças: podem tentar encontrar as vulnerabilidade do ChatGPT, como erros de programação, fragilidades de hardware e falhas de segurança
- Força bruta: acontecem principalmente em locais onde é necessário a identificação e autenticação de um usuário. Sendo assim, os cibercriminosos tentam adivinhar as senhas até conseguir acessar o sistema.
O tema tem levado a OpenAI a se dedicar a criar algoritmos de privacidade que garantam que os dados dos usuários sejam mantidos seguros e que a privacidade seja respeitada.
Confira algumas ações a serem desempenhadas pelos usuários para que se protejam de tais ataques cibernéticos:
- Não entregar dados e informações pessoais para bots desconhecidos;
- Não acessar links, sites ou baixar documentos não confiáveis;
- Seguir com senhas mais complexas e priorizar a autenticação de dois fatores;
- Revisitar o sistema com frequência para evitar ataques maliciosos no ChatGPT;
- Checar quem enviou os e-mails antes de responder ou tomar qualquer outra ação;
- Incluir sistema de segurança para barrar vírus e encontrar tráfego malicioso.
“A implementação de uma estratégia de defesa em profundidade com toda a telemetria de segurança disponível para análises rápidas tornou-se essencial para encontrar estas ameaças de movimento rápido antes que um e-mail de phishing possa se tornar um ransomware ou exfiltração de dados.”