O cenário das fraudes com criptomoedas passou por uma mudança sísmica em 2026, impulsionada pelo uso malicioso da inteligência artificial. O que começou como golpes isolados evoluiu para uma indústria coordenada de bilhões de dólares que explora as mesmas ferramentas criadas para democratizar as finanças. De acordo com investigadores do IRS e empresas de segurança blockchain como CertiK, a IA não é mais apenas uma ferramenta para inovação — é o motor principal por trás de uma nova geração de roubos cripto, com perdas totais projetadas em US$ 20 bilhões até o final do ano.
No centro dessa crise está a militarização dos deepfakes. Golpistas usam vídeos e áudios gerados por IA para personificar CEOs, CFOs e até mesmo familiares em tempo real. Em um caso de alto perfil, um deepfake do CFO de uma empresa foi usado para autorizar uma transferência de US$ 25 milhões para uma carteira fraudulenta. Esses ataques não se limitam a corporações; investidores individuais foram alvo de vídeos gerados por IA de 'conselheiros de confiança' que os instigam a liquidar suas contas de aposentadoria em esquemas cripto falsos. A unidade de Investigação Criminal do IRS relatou um aumento de 400% nas reclamações relacionadas a deepfakes desde 2024, com perdas médias de US$ 145.000 por vítima.
O phishing também foi turbinado pela IA. Bots automatizados agora criam e-mails personalizados que imitam o tom e o estilo de exchanges legítimas, provedores de carteiras e até autoridades fiscais. Esses e-mails são indistinguíveis da correspondência real, frequentemente fazendo referência a transações recentes ou atividades de contas extraídas de vazamentos de dados. Assim que uma vítima clica em um link malicioso, scripts impulsionados por IA implantam malware que pode esvaziar carteiras em segundos. O relatório da CertiK de 2026 destaca que o phishing continua sendo o vetor de ataque mais comum, responsável por 40% de todos os roubos cripto, com a IA tornando essas campanhas 10 vezes mais eficazes do que os métodos tradicionais.
Os ataques à cadeia de suprimentos são outra preocupação crescente. A IA está sendo usada para identificar vulnerabilidades em contratos inteligentes e protocolos DeFi em grande escala. Scanners automatizados agora podem examinar milhares de linhas de código em minutos, sinalizando possíveis explorações que auditores humanos poderiam deixar passar. Apenas no primeiro trimestre de 2026, US$ 600 milhões foram perdidos nesse tipo de hack, com uma exploração média rendendo US$ 2,7 milhões. A velocidade e a precisão desses ataques impulsionados por IA deixaram muitas equipes de segurança lutando para acompanhar.
O componente de engenharia social não pode ser subestimado. Bots de IA agora são capazes de manter conversas completas com as vítimas por meio de aplicativos de mensagens, construindo confiança ao longo de dias ou semanas antes de executar o golpe. Esses bots usam processamento de linguagem natural para se adaptar às respostas da vítima, tornando-os muito mais convincentes do que os scripts rígidos do passado. Em alguns casos, as vítimas relataram sentir que estavam sendo 'cuidadas' por um golpista que as contatava diariamente antes de pedir um 'pequeno empréstimo' que se transformava no esvaziamento completo da carteira.
Para a comunidade de cibersegurança, as implicações são profundas. Defesas tradicionais como autenticação de dois fatores e carteiras de hardware não são mais suficientes quando um golpista pode ligar para uma vítima usando um deepfake da voz do próprio filho. A indústria agora corre para desenvolver contramedidas impulsionadas por IA, incluindo biometria comportamental, detecção de deepfakes em tempo real e análise de blockchain que possa sinalizar padrões suspeitos antes que os fundos sejam movidos. No entanto, como alerta a CertiK, as lacunas de infraestrutura em muitas plataformas cripto continuam sendo uma vulnerabilidade crítica.
Na Itália, as autoridades lançaram campanhas de conscientização pública para educar os usuários sobre como reconhecer chamadas deepfake e e-mails de phishing. Nos EUA, o IRS colabora com empresas de análise blockchain para rastrear fundos roubados, embora o anonimato das transações cripto muitas vezes torne a recuperação impossível. A mensagem é clara: a IA democratizou a fraude, e a única maneira de combatê-la é por meio de uma combinação de tecnologia avançada, educação do usuário e supervisão regulatória.
À medida que o ano avança, o número de US$ 20 bilhões pode se mostrar conservador. A convergência da IA, criptomoedas e engenharia social criou uma tempestade perfeita que exigirá uma resposta unificada e global. Por enquanto, a melhor defesa é o ceticismo: verificar cada solicitação, questionar cada identidade e assumir que qualquer ligação, e-mail ou mensagem pedindo cripto pode ser um deepfake. A era da fraude impulsionada por IA chegou, e exige um novo nível de vigilância.

Comentarios 0
¡Únete a la conversación!
Los comentarios estarán disponibles próximamente.