O cibercrime adota rapidamente novas tecnologias. Uma das tendências mais preocupantes é a ascensão dos deepfakes – imagens forjadas, áudios ou vídeos criados com o auxílio de inteligência artificial, que parecem absolutamente reais a olho nu. A questão ultimamente é ainda mais perturbadora, uma vez que as ferramentas para geração de IA se tornam cada vez mais difundidas e acessíveis ao público em geral. Ao mesmo tempo, as tecnologias de IA estão sempre crescendo em sofisticação (em aspectos impressionantes) a cada nova versão e agora permitem a criação de imagens de aparência incrivelmente realista e áudios extremamente convincentes.
Deepfakes são usados para vários fins, incluindo vingança, fraude financeira, manipulação política e assédio. Em nosso mundo hiperconectado, os fraudadores podem facilmente coletar fotos e até vídeos de vítimas em potencial – especialmente quando se trata de figuras públicas. No entanto, os cibercriminosos de hoje em dia tendem a se aprimorar nas áreas de especialização escolhidas. A criação de deepfakes de alta qualidade requer conhecimento técnico e software avançado, por isso surgiram vários especialistas e serviços no mercado paralelo. Agora, as pessoas que querem criar vídeos e fotos falsos recorrem a especialistas – prontamente disponíveis, como você já deve ter adivinhado, na darkweb.
Decidimos estudar esse mercado clandestino usando um método de etnografia digital; ou seja, mergulhando direto no habitat online dos cibercriminosos — os fóruns da darknet. Pesquisamos fóruns clandestinos em busca de informações relacionadas à criação de deepfake. Para entender o estado atual desse perigo, nos concentramos nas ofertas de deepfake que surgiram este ano e coletamos manualmente alguns dos exemplos mais brilhantes de serviços de criação de deepfake.
Nossa pesquisa descobriu que há uma demanda significativa por deepfakes – que supera em muito a oferta deles. Indivíduos que concordam em criar vídeos falsos estão sendo procurados desesperadamente. E isso é bastante preocupante, pois, como todos sabemos, a demanda cria a oferta; assim, prevemos que no futuro próximo veremos de fato um aumento significativo de incidentes envolvendo deepfakes de alta qualidade.
E, a julgar pelo conteúdo das postagens do fórum da darkweb, os cibercriminosos estão buscando resultados de alta qualidade. Apesar da disponibilidade aberta de ferramentas de criação de deepfake, os criminosos procuram apenas criadores que possam produzir vídeos de alta qualidade com som perfeito e sem atrasos entre vídeo e áudio.
Uma parte significativa dos anúncios relacionados a busca por deepfakes está relacionada a um ou outro criptogolpe. Normalmente, eles estão ligados a golpes de distribuição de criptomoedas, mas em alguns casos vimos anúncios mais peculiares. Por exemplo, encontramos uma publivação que procurava um profissional que pudesse criar um vídeo deepfake de alta qualidade para burlar o sistema de verificação de reconhecimento facial da plataforma Binance. Assim, os cibercriminosos estão tentando usar deepfakes para burlar os sistemas de segurança biométricos e acessar as contas das vítimas para roubar dinheiro diretamente.
Quanto ao fornecimento — o custo de criação ou de compra de deepfakes prontos varia de acordo com a complexidade de um determinado projeto e a qualidade do produto final. A notabilidade do objeto personificado também pode influenciar o preço (geralmente celebridades ou figuras políticas). Os preços por minuto do vídeo deepfake podem variar de US$ 300 a US$ 20.000. Se o comprador estiver disposto a pagar, os criadores de deepfake podem oferecer vídeos incrivelmente realistas e transmitir emoções autênticas, tornando-os indistinguíveis de imagens genuínas. Eis os exemplos brilhantes que prometemos.
Descobrimos um fornecedor que oferece um serviço premium para criar um deepfake de alta qualidade do cofundador da Etherium, Vitaly Buterin, completo com voz e vídeo totalmente sintetizados. Ficou claro que a produção não envolveria apenas a dublagem de vídeos existentes, mas sim um serviço de produção completo, com o fornecedor afirmando que “Vitalik está pronto para qualquer uma de suas fantasias”. O tempo estimado de produção de vídeo neste serviço foi inferior a duas semanas, com o produto sendo um vídeo em inglês que custaria $ 20.000 por minuto.
Outro fornecedor se orgulha de ser capaz de fazer deepfakes da mais alta qualidade para fins de fraude de criptomoedas. Seu serviço inclui a criação de “Criptotransmissões” ou “Falsas criptodoações “, um golpe popular em que os fraudadores coletam criptomoedas transmitindo programas falsos de distribuição de criptomoedas, prometendo dobrar qualquer pagamento de criptomoeda enviado a eles. Para criar esses deepfakes, os golpistas geralmente usam imagens de celebridades para lançar transmissões ao vivo falsas em plataformas de mídia social. O fornecedor até mostra uma página gerada previamente em que as vítimas são incentivadas a transferir de 2.500 a um milhão de XRP (sigla referente da Ripple, uma criptomoeda) com a promessa de dobrar o pagamento. Como resultado, a vítima pode perder de US$ 1.000 a US$ 460.000.
O uso de deepfakes para fins criminosos pode impactar nossas vidas de muitas maneiras. Ele representa uma séria ameaça para indivíduos, organizações e sociedade como um todo. Além disso, o fato de que qualquer história ou artigo de notícias na Internet possa ser um deepfake semeia a desconfiança em relação a qualquer informação disponível publicamente – induzindo paranoia e insegurança. Algumas das possíveis consequências do uso de deepfake incluem:
Deepfakes podem ser usados para a divulgação em massa de informações falsas e manipulação da opinião pública. Eles podem ser usados para criar notícias falsas, propaganda política ou propaganda enganosa. Isso pode ter sérias consequências para a confiança do público.
Exemplos: Uma das instâncias mais inofensivas de uso de deepfake foi a história de reportagem fotográfica super-realista do terremoto da Grande Cascadia que circulou na web, um evento que nunca aconteceu. Mas houve um caso muito mais perigoso – curiosamente, não do uso de deepfake em si, mas da mera suspeita de que um deepfake havia sido usado, no Gabão em 2018. Naquela época, corria o boato de que o presidente gabonês Ali Bongo havia adoecido gravemente. Em resposta, o governo do Gabão divulgou um vídeo que o uso de deepfake foi levantado – causando mais tensão e alimentando suspeitas de que o governo estava escondendo algo. Essa suspeita foi citada como uma das razões para uma tentativa de golpe uma semana depois.
Deepfakes são usados para todos os tipos de ciberfraude – desde os criptogolpes acima mencionados até aqueles que terminam com ataques direcionados a empresas.
Exemplos: um vídeo de Elon Musk criado artificialmente prometendo altos retornos de um esquema duvidoso de investimento em criptomoeda se tornou viral no ano passado, levando os usuários a perderem todo o seu dinheiro. Em 2019, os fraudadores criaram um deepfake de áudio convincente da voz do CEO de uma grande empresa de energia do Reino Unido. Eles enganaram um executivo sênior da empresa para transferir € 220.000 (US$ 243.000) para um fornecedor húngaro. O executivo acreditava estar seguindo as instruções do CEO, mas na verdade a gravação era falsa.
Deepfakes podem ser usados para prejudicar a reputação de indivíduos ou organizações. Por exemplo, um vídeo deepfake pode ser criado para representar alguém envolvido em atividades ilegais ou imorais. Isso pode levar a danos de reputação e/ou danos pessoais.
Exemplo: vídeos deepfake da atriz Scarlett Johansson surgiram na rede, mostrando seu rosto sobreposto aos corpos de atrizes pornográficas em cenas explícitas. Na verdade, este foi um vídeo deepfake criado com fotos privadas vazadas no início de 2011. Seu representante chamou isso de “violação grosseira” de seus direitos e disse que ela estava analisando opções legais para removê-los. O incidente mencionado acima com o CEO da empresa de energia também levou a uma perda significativa de reputação devido ao fato de que o funcionário foi enganado para transferir esses fundos. À medida que a notícia do golpe se espalhava, os clientes da empresa expressaram preocupação sobre a capacidade das empresas de fornecer segurança de seus dados e informações financeiras.
Já mencionamos um anúncio da darkweb em busca de meios para burlar a autenticação biométrica. Nem todo serviço tem um sistema de verificação de reconhecimento, mas o deepfake pode ajudar mesmo com serviços regulares de suporte ao cliente. Isso pode funcionar da seguinte forma: primeiro, o cibercriminoso obtém informações pessoais do proprietário da conta-alvo, tais como nome, endereço, número de telefone etc. Então, eles entram com o provedor de serviços de pagamento e alegam ser o proprietário da conta que teve o acesso perdido ou com dificuldades técnicas. Para verificar a identidade, o provedor de serviços de pagamento pode solicitar uma gravação de vídeo ou áudio do titular da conta executando uma ação específica. Usando os dados coletados, os criminosos podem criar um vídeo ou áudio deepfake representando o verdadeiro proprietário da conta executando a ação solicitada. Como resultado, o provedor de serviços de pagamento pode ser levado a conceder acesso à conta e aos fundos associados.
O conselho mais óbvio, mas deprimente, é simplesmente “nunca mais confie em seus olhos ou ouvidos”. No entanto, há esperança. As mesmas tecnologias de inteligência artificial que estão ajudando a criar deepfakes podem ser usadas para distinguir vídeos, fotos e áudio genuínos dos falsos. E essas ferramentas estão surgindo lentamente no mercado. Esperemos que no futuro próximo os meios de comunicação, mensageiros e talvez até navegadores sejam equipados com tais tecnologias.
Fonte: Karspersky