top of page

Criminosos ampliam o uso de inteligência artificial em fraudes digitais no Brasil e no mundo

ree

Golpistas estão aproveitando ferramentas de inteligência artificial (IA) para sofisticar fraudes digitais, segundo alertas recentes de órgãos de segurança e cibersegurança. No Brasil, as fraudes impulsionadas por IA como clonagem de voz, deepfakes em videochamadas e uso de aplicativos simulados têm se tornado mais frequentes e difíceis de detectar.


Em um caso recente, especialistas relataram que criminosos utilizaram softwares capazes de recriar a voz de um parente ou fazer um vídeo falso com aparência realista para enganar vítimas e solicitar transferências ou dados bancários. No Brasil, foram destacados golpes em que a IA permitiu produzir áudios ou vídeos com voz e rosto de pessoas conhecidas, acelerando a engenharia social.


Os ataques com IA operam com alto grau de personalização: os fraudadores ativam algoritmos para coletar dados da vítima, como nome, horário de uso e hábitos online, e combinam isso com técnicas de deep fake para aumentar a credibilidade. Segundo especialistas, esses golpes “viraram massa de produção” — antes os ataques eram genéricos, agora são moldados para cada alvo.


Em âmbito internacional, casos como uma quadrilha na Espanha que usou IA para criar identidades falsas e gerar golpe de 19 milhões de euros reforçam que a onda é global. Um relatório indica ainda que a adoção de IA por criminosos pode quadruplicar as perdas por fraudes financeiras até 2027, dado o ritmo de crescimento das tecnologias envolvidas.


Para se proteger, especialistas recomendam medidas como evitar cliques em links enviados por mensagem, ativar autenticação de dois fatores (2FA), desconfiar de pedidos urgentes com tom emocional e verificar diretamente com contatos antes de qualquer ação financeira. Também alertam para o risco de vídeos ou áudios aparentemente legítimos que pedem ações ou senhas.


À medida que a tecnologia avança, a corrida entre fraudadores e defensores se intensifica. A combinação de IA e fraudes cria desafios maiores: sistemas de segurança precisam aprender a detectar manipulações cada vez mais sutis, enquanto o usuário comum precisa aumentar a atenção e educação digital para não cair em golpes cada vez mais “profissionais”.


bottom of page