A quantidade de novas ferramentas de inteligência artificial também acende um alerta para o uso dessa tecnologia em fraudes e outros crimes digitais. É o caso do FraudGPT, um chatbot malicioso desenvolvido apenas para situações criminosas.
O FraudGPT foi descoberto pela equipe de segurança da Netenrich a partirde anúncios na dark web e em canais do Telegram durante o mês de julho. A ferramenta usa o bot por IA para criar conteúdo relacionado a diversos crimes digitais, como escrever um texto de phishing, encontrar sites vulneráveis e criar códigos maliciosos para páginas de golpes.
A ferramenta é vendida por US$ 200 (cerca de R$ 950 na cotação atual) nessas plataformas. Entre os exemplos de prompts, o FraudGPT mostra a mesma fluidez do programa que usa como base e é capaz de criar rapidamente um texto um SMS que induz os clientes de um banco a clicarem num link malicioso ou elaborar uma lista com e-commerces para realizar golpes com cartão de crédito.
A lista completa de ferramentas ainda inclui tutoriais para aprender a hackear, criação de malwares ou páginas de phishing e localização de vazamentos ou vulnerabilidades em sites.
O FraudGPT é uma versão de IA desenvolvida para esse propósito, mas o ChatGPT também já foi alvo de cibercriminosos. Durante alguns testes, usuários conseguiram fazer com que o chatbot criasse um malware indetectável: a IA avisa que não pode criar conteúdo prejudicial, mas existem formas de burlar essa camada de proteção.
Fonte: CanalTech