Newsletter Cibersegurança
AGOSTO 2021

Deepfake

Na procura de novas formas de ciberataques, os invasores recorrem cada vez mais à inteligência artificial. Uma das áreas particularmente preocupantes são as da deepfake, baseada em IA para criar personificações realistas de áudio ou vídeo de pessoas reais que podem enganar ou ajudar a enganar utilizadores desatentos.

Deepfake

O termo "deepfake" vem da tecnologia subjacente "deep learning", que utiliza machine learning e inteligência artificial para criar uma voz ou vídeo humano sintético. Os algoritmos de deep learning reconhecem padrões a partir de um extenso banco de dados que depois são utilizados para manipular imagens, vídeos ou áudios criando uma falsa aparência realista.

Como são utilizados e quais os perigos?

Embora a capacidade de trocar rostos automaticamente para criar vídeos manipulados com aparência realista e confiável tenha algumas aplicações positivas interessantes (como no cinema e gaming), esta é obviamente uma tecnologia com algumas aplicações problemáticas.

As utilizações do deepfake para manipular imagens de políticos e celebridades foram as primeiras experiências e as mais polémicas do deepfake. Em 2018, por exemplo, um partido político belga divulgou um vídeo de Trump a fazer um discurso pedindo à Bélgica que se retirasse do Acordo Climático de Paris. Trump nunca fez esse discurso, era uma deepfake. Este é um dos perigos desta tecnologia, disseminar conteúdo falso como sendo autêntico.

Em contexto corporativo o deepfake potencia a engenharia social quando utilizado para manipular as pessoas de forma a obter acesso não autorizado a sistemas, infraestruturas ou informação. Os atacantes utilizando esta tecnologia podem, por exemplo, combinar phishing de email com mensagens de áudio falsa. Ao utilizar múltiplos vetores aumentam a probabilidade de enganar os utilizadores.

Image52

Como detetar um deepfake?

À medida que os deepfakes se tornam mais comuns, a sociedade vai estando mais alerta para este tipo de técnicas e para a sua utilização conseguindo detetar possíveis tentativas de fraude.

Image53

Para se proteger, recomendamos que esteja atento a alguns destes indicadores que revelam deepfakes:

check

Piscar de olhos: Os deepfakes atuais têm problemas para animar rostos de forma realista, e o resultado é um vídeo em que os olhos nunca piscam, ou piscam com muita frequência ou de forma não natural. No entanto, depois de pesquisadores da Universidade de Albany publicaram um estudo a detetar esta anomalia, novos deepfakes foram lançados que não apresentavam mais este problema.

check

Rosto: Procure problemas de pele ou cabelo, ou rostos que pareçam mais desfocados do que o ambiente em que estão posicionados. A pele do rosto parece demasiado lisa ou com rugas a mais? As expressões faciais não parecem naturais? E os pelos faciais (barba, bigode, sobrancelhas) parecem reais? Por vezes as transformações são mesmo muito ligeiras e dificilmente se notam.

check

Iluminação: A iluminação não parece natural? As sombras estão no sítio certo? Frequentemente, os algoritmos deepfake retêm a iluminação dos videoclipes que foram utilizados como modelos para o vídeo falso, o que não corresponde à iluminação do vídeo de destino.

check

Áudio: O áudio pode parecer não corresponder à pessoa, especialmente se o vídeo foi falsificado e o áudio original não foi cuidadosamente manipulado.

check

No entanto a regra mais importante em que se deverá focar é: se o conteúdo lhe parecer estranho, suspeito, de alguma forma surpreendente ou duvidoso, simplesmente procure confirmar junto do emissor da mesma, se efetivamente o enviou.

Detetar deepfakes é um desafio. Nos vídeos amadores, é fácil ver as falhas a olho nu, mas as tecnologias de IA têm evoluído tão rapidamente, que se torna cada vez mais difícil detetar deepfakes. Há quem acredite que, brevemente, dependeremos de especialistas forenses para verificar a veracidade desses conteúdos.

SUBSCREVA A NOSSA NEWSLETTER


Consentimento Cookies X

A Integrity S.A. utiliza cookies para fins analíticos e de apresentação de informação mais personalizada, com base no perfil elaborado pelos seus hábitos de navegação. Se pretende informação mais pormenorizada, pode aceder à nossa Política de Cookies.