Se há poucos anos tal tecnologia era usada de forma experimental apenas para brincadeiras e pegadinhas, criminosos cibernéticos já começaram a empregá-la em campanhas de desinformação ou golpes elaborados para fraudar corporações.
É difícil apontar com precisão quando os deepfakes surgiram — acadêmicos já estudavam versões mais arcaicas do conceito durante a década de 90, sempre focando em finalidades científicas. Porém, podemos dizer que a popularização do termo ocorreu ao longo dos últimos dez anos, quando algoritmos de inteligência artificial e aprendizagem de máquina se tornaram de fácil acesso para o público em geral. Hoje em dia, basta uma rápida pesquisa no Google para encontrar modelos de redes neurais artificiais que podem ser usadas gratuitamente para quaisquer projetos, incluindo aqueles com propósitos maliciosos.
Para quem não está acostumado com o termo, vale a pena fazer aqui uma rápida recapitulação. O termo deepfake é um portmanteau (junção de duas palavras) de deep learning (aprendizagem profunda) e fake (falso). Trata-se da arte de utilizar algoritmos de inteligência artificial para criar vídeos e áudios, em tempo real ou não, simulando a imagem e a voz de um indivíduo. De início, os deepfakes foram amplamente usados para simplesmente ¨trollar¨ indivíduos: era comum encontrar clipes de teor adulto colocando o rosto de personalidades famosas em um situações constrangedoras.
Se tais situações já não fossem incômodas e inapropriadas o suficiente, diversos analistas e especialistas em segurança cibernética já previam que, muito em breve, os deepfakes seriam usados como armas para ciberataques sofisticados. Tudo indica que eles estavam certos. De acordo com a mais recente edição do relatório anual Global Incident Response Threat Report, publicado pela VMware, o número de golpes e ameaças que exploram esse tipo de tecnologia cresceu em 13% em comparação com o ano passado, com 66% dos profissionais do setor afirmando terem presenciado um ataque do tipo ao longo de 2021.
Roubando com a voz
A criatividade é o limite quando falamos sobre ataques cibernéticos baseados em deepfakes — e, como bem sabemos, criatividade é justamente uma das principais ̈qualidades ̈ dos cibercriminosos. Como exemplo, podemos citar um incidente ocorrido com uma instituição bancária sediada nos Emirados Árabes: golpistas usaram a tecnologia para criar um áudio falso se passando por um executivo da alta diretoria da companhia e solicitaram a transferência de absurdos US$ 35 milhões (cerca de R$ 93 milhões na cotação atual da moeda).
No áudio (que ficou realista o suficiente para que um gerente bancário acreditasse que realmente havia recebido uma gravação de seu superior), os scammers afirmaram que a diretoria da instituição estava fechando a aquisição de uma empresa e precisava da quantia urgentemente para concretizar a transação. Depois que a farsa foi identificada, a empresa pediu ajuda às autoridades dos Estados Unidos, já que cerca de US$ 400 mil haviam sido transferidos para contas estadunidenses. Investigações posteriores apontaram que o golpe foi arquitetado por uma gangue de pelo menos 17 pessoas, que espalharam o montante roubado em contas ao redor de todo o globo. No fim, o valor nunca foi recuperado.
Embora tal episódio seja emblemático, não foi a primeira vez que criminosos usaram deepfake para personificar a voz de um executivo e ordenar transferências monetárias. Em Em 2019, outra gangue tentou usar um áudio falso para roubar US$ 243 mil de uma corporação inglesa do ramo de distribuição de energia. Na ocasião, o CEO britânico acreditava estar conversando por telefone com o presidente executivo de uma subsidiária alemã, que lhe pediu para transferir fundos para uma conta da Hungria. Por conta da pressão do falso executivo alemão, a transferência acabou sendo efetuada.
Manipulação política
Embora não haja dúvidas a respeito dos perigos do deepfake para crimes cibernéticos, não podemos deixar de lembrar também que tal tecnologia é uma arma poderosa para campanhas de desinformação — especialmente de cunho político. O relatório supracitado da VMware ressalta que vídeos e áudios falsos estão sendo amplamente empregados por hackers de elite da Rússia nos conflitos do Leste Europeu, com o objetivo de desmoralizar o governo e as tropas ucranianas.
Em março deste ano, um falso vídeo circulou nas redes sociais mostrando o presidente Volodymyr Zelenskyy pedindo aos seus soldados que se rendam às forças russas; felizmente, não demorou muito para que o próprio Zelenskyy se deparasse com o clipe malicioso e desmentisse tais palavras. Já em junho, uma prefeita de Berlim conversou durante 15 minutos em uma videochamada com um falso Vitali Klitschko, prefeito de Kiev, até que outros participantes da audiência perceberam que o impostor estava discutindo temáticas alheias à agenda do encontro digital. A chamada foi interrompida imediatamente.
O relatório aponta ainda que email é o principal vetor de entrega para deepfakes, respondendo por 78% dos casos; geralmente, tais campanhas são atreladas a ataques do tipo BEC (Business Email Compromise ou Comprometimento de Email Corporativo), no qual os criminosos personificam executivos de alto escalão para obter vantagens financeiras ou até mesmo roubar informações confidenciais. Infelizmente, vetar a livre distribuição de algoritmos de machine learning não é uma opção para sufocar tal mercado, já que tais projetos podem ser usados para fins benéficos. Vale a pena ficar de olho nessa tendência e checar com calma eventuais áudios e vídeos que você receber.