
I. Introdução: O Panorama da Autenticação Biométrica e a Ameaça Crescente dos Deepfakes
A. A Evolução e Importância da Biometria na Segurança Digital
A autenticação biométrica transformou-se numa pedra angular da segurança digital contemporânea, representando um avanço significativo em relação aos métodos tradicionais baseados em conhecimento (senhas, PINs) ou posse (tokens de segurança).1 Historicamente, a procura por mecanismos de verificação de identidade mais robustos e convenientes impulsionou a adoção de características fisiológicas e comportamentais únicas dos indivíduos. As vantagens intrínsecas da biometria residem na singularidade das características utilizadas – como impressões digitais, padrões faciais, da íris ou da voz – e na sua inerente ligação ao indivíduo, o que, teoricamente, dificulta a falsificação e a transferência.1 Esta combinação de segurança acrescida e conveniência para o utilizador levou a uma ampla disseminação de aplicações biométricas, desde o simples desbloqueio de smartphones 2 até sistemas complexos de verificação de identidade em transações financeiras, controlo de fronteiras e acesso a serviços governamentais.4 A promessa de uma autenticação mais intuitiva e segura tornou a biometria um componente central na proteção de dados e ativos digitais.
B. O Surgimento dos Deepfakes como um Desafio Crítico à Segurança Biométrica
Paralelamente à consolidação da biometria, emergiu uma nova e formidável ameaça: os deepfakes. Estes são conteúdos de média sintética – imagens, vídeos ou áudio – gerados através de algoritmos de Inteligência Artificial (IA), especificamente de aprendizagem profunda (deep learning), capazes de criar falsificações hiper-realistas de indivíduos.6 A tecnologia subjacente aos deepfakes, como as Redes Generativas Adversariais (GANs) e os modelos de difusão, evoluiu rapidamente, resultando numa proliferação alarmante destas falsificações. O que antes exigia conhecimentos técnicos especializados e recursos computacionais significativos, tornou-se progressivamente mais acessível, transformando os deepfakes em ferramentas de fraude amplamente utilizadas e disponíveis.6
Esta democratização das ferramentas de criação de deepfakes representa uma mudança de paradigma na paisagem das ameaças cibernéticas. A baixa barreira de entrada para a produção de conteúdo falsificado convincente significa que um leque muito mais vasto de atores maliciosos, desde criminosos individuais a organizações sofisticadas, pode agora explorar esta tecnologia.6 Consequentemente, o volume e a variedade de ataques potenciais aumentaram exponencialmente. Esta acessibilidade, combinada com a sofisticação crescente das falsificações 4, cria um ambiente de ameaça particularmente perigoso.
O impacto direto desta evolução é a erosão da confiança nos sistemas de autenticação biométrica, especialmente os baseados no reconhecimento facial. Analistas da indústria, como o Gartner, preveem uma perda significativa de confiança por parte das empresas nestas tecnologias num futuro próximo.4 A confiança do público e das organizações na biometria, construída ao longo de anos de desenvolvimento e implementação, encontra-se agora sob séria ameaça. A perceção de que a biometria facial, outrora considerada um método de autenticação seguro, pode ser contornada com relativa facilidade tem o potencial de levar a uma hesitação na adoção ou mesmo ao abandono de tecnologias biométricas. Tal retrocesso poderia reverter os progressos alcançados em termos de segurança e conveniência, forçando um regresso a métodos de autenticação menos seguros ou mais incómodos, ou impulsionando uma corrida dispendiosa e urgente por alternativas viáveis, com impactos significativos na experiência do utilizador e nos custos operacionais.
C. Objetivos e Estrutura do Relatório
O presente relatório tem como objetivo principal analisar criticamente o estado atual da segurança em biometria facial e outros métodos biométricos, com um foco particular no comprometimento dessa segurança face à ameaça emergente e crescente dos deepfakes. A análise baseia-se integralmente no material de pesquisa fornecido, procurando destilar os pontos de dados chave, os insights mais profundos e as implicações estratégicas.
A estrutura do relatório foi concebida para fornecer uma visão abrangente do problema e das possíveis soluções:
- A Secção II examinará em detalhe a vulnerabilidade da biometria facial aos deepfakes, incluindo os mecanismos de ataque, o impacto real através de estudos de caso e estatísticas de fraude, e a consequente erosão da confiança.
- A Secção III abordará os desafios na deteção de deepfakes e os avanços tecnológicos nesta área, analisando as limitações dos detetores atuais e as fragilidades da Deteção de Prova de Vida (Liveness Detection).
- A Secção IV expandirá a análise para outros métodos biométricos, como a biometria de íris e a biometria comportamental, avaliando a sua segurança e suscetibilidade.
- A Secção V explorará as estratégias de mitigação e fortalecimento da segurança biométrica, incluindo a biometria multimodal, os padrões FIDO e passkeys, a biometria cancelável, o conceito de Know Your Transaction (KYT) e as respostas da indústria financeira.
- A Secção VI discutirá as importantes implicações éticas, legais e de privacidade associadas à biometria e aos deepfakes.
- Finalmente, a Secção VII apresentará as conclusões do relatório e oferecerá recomendações estratégicas para as organizações que enfrentam estas ameaças.
Este relatório visa fornecer aos decisores e profissionais uma compreensão clara dos riscos e das respostas estratégicas necessárias para navegar no complexo e evolutivo panorama da segurança biométrica.
II. A Vulnerabilidade da Biometria Facial aos Deepfakes
A biometria facial, amplamente adotada pela sua conveniência e perceção de segurança, tornou-se um alvo primário para exploração através de deepfakes. A capacidade destas falsificações geradas por IA de contornar os sistemas de reconhecimento facial levanta sérias questões sobre a sua fiabilidade contínua.
A. Mecanismos de Ataque: Como os Deepfakes Enganam os Sistemas de Reconhecimento Facial
Os sistemas de reconhecimento facial operam, fundamentalmente, através do escaneamento e da análise de múltiplos marcos faciais (facial landmarks) – pontos distintivos como a distância entre os olhos, a forma do nariz, o contorno do maxilar – para criar um template ou uma assinatura facial única. Este template é depois comparado com uma base de dados de templates conhecidos para verificar ou identificar um indivíduo.4
Os deepfakes exploram estes mecanismos ao criar representações faciais sintéticas que mimetizam com precisão estes marcos e características, replicando o que pode ser conceptualizado como o “código de barras facial” de uma pessoa.4 As duas principais técnicas de deepfake que facilitam estes ataques são:
- Face Swapping (Troca de Rostos): Consiste em substituir o rosto de uma pessoa num vídeo ou imagem pelo rosto de outra, mantendo as expressões e movimentos do rosto original.7
- Face Synthesis (Síntese de Rostos): Envolve a geração de rostos inteiramente novos e realistas que não pertencem a nenhuma pessoa real, mas que podem ser concebidos para corresponder a certos parâmetros ou para se assemelharem a um alvo.7
Os ataques podem manifestar-se de duas formas principais:
- Ataques de Apresentação (Presentation Attacks – PAs): Envolvem a apresentação de um artefacto físico à câmara do sistema biométrico, como uma fotografia impressa de alta qualidade, um vídeo do utilizador legítimo reproduzido num ecrã, ou mesmo uma máscara 3D realista.5
- Ataques de Injeção Digital (Digital Injection Attacks – DIAs): São mais sofisticados e contornam completamente a câmara física. Nestes ataques, os dados faciais falsificados (o deepfake) são injetados diretamente no fluxo de dados do sistema, muitas vezes através de software que simula uma câmara virtual.5 Estes ataques são particularmente perigosos porque podem iludir as defesas que se concentram em detetar artefactos físicos. Dados de 2023 indicam um aumento de 200% nos ataques de injeção, embora os ataques de apresentação ainda fossem mais comuns.5
A distinção entre PAs e DIAs é crucial. Enquanto os mecanismos de Deteção de Ataque de Apresentação (PAD) podem ter alguma eficácia contra os PAs mais simples, são frequentemente inadequados para detetar DIAs, que manipulam o sistema a um nível mais fundamental.
B. Impacto Real: Estudos de Caso e Estatísticas de Fraude
A ameaça dos deepfakes à biometria facial não é meramente teórica; já resultou em perdas financeiras substanciais e demonstrou a sua capacidade de enganar tanto humanos como sistemas.
- Incidentes de Fraude de Alto Valor:
- Em 2024, um funcionário de uma empresa multinacional no setor financeiro foi induzido a transferir US$25 milhões após participar numa videochamada onde o CFO e outros colegas eram, na verdade, deepfakes convincentes. O dinheiro foi transferido para os fraudadores.6
- Um incidente similar ocorreu em fevereiro de 2023, quando um funcionário de um banco em Hong Kong autorizou transferências no valor de US$25 milhões. Durante uma videochamada, o CFO e outros participantes reconhecíveis eram deepfakes, levando o funcionário a acreditar na legitimidade das instruções.4 Estes casos demonstram uma exploração sofisticada da engenharia social, amplificada pela credibilidade conferida pela tecnologia deepfake. Não é apenas a tecnologia de reconhecimento facial que falha, mas a combinação da falsificação convincente com a manipulação do comportamento humano e a possível falha nos processos de verificação para transações de tão elevado valor.
- Aumento Exponencial de Tentativas de Fraude:
- O setor fintech registou um aumento alarmante de 700% nas tentativas de fraude relacionadas com deepfakes apenas em 2023.9
- Globalmente, o número de deepfakes detetados quadruplicou (aumento de 4x) de 2023 para 2024, representando já 7% de todas as tentativas de fraude identificadas, de acordo com o Sumsub Identity Fraud Report 2024.6
- Outra fonte, a Onfido, reportou um aumento de 3000% nas tentativas de fraude com deepfakes em 2023.5
- As perdas financeiras devido a fraudes impulsionadas por IA, incluindo deepfakes, foram estimadas em US$12,3 mil milhões em 2023 e projetam-se atingir os US$40 mil milhões até 2027.9
Estes números e casos reais sublinham a urgência e a magnitude da ameaça, demonstrando que os deepfakes são uma ferramenta eficaz e crescente no arsenal dos cibercriminosos. A Tabela 1 resume algumas destas estatísticas impactantes.
Tabela 1: Estatísticas Chave de Fraude com Deepfakes e Impacto na Biometria Facial
C. A Erosão da Confiança e as Limitações dos Sistemas Atuais
A eficácia dos deepfakes em contornar os sistemas de reconhecimento facial está a minar rapidamente a confiança nesta tecnologia. A previsão do Gartner de que 30% das empresas perderão a confiança na autenticação biométrica facial até 2026 é um indicador preocupante desta tendência.4
Estudos técnicos confirmam estas vulnerabilidades. Uma investigação demonstrou que sistemas de reconhecimento facial de última geração, baseados em redes neuronais como VGG e Facenet, são altamente vulneráveis a vídeos deepfake de alta qualidade, apresentando taxas de falsa aceitação (False Acceptance Rates – FAR) de 85,62% e 95,00%, respetivamente.10 Uma FAR tão elevada significa que o sistema identifica incorretamente o deepfake como genuíno na esmagadora maioria dos casos. Isto vai além de uma simples falha; sugere que os deepfakes estão a explorar ou a replicar as próprias características que os modelos foram treinados para identificar como “genuínas”, indicando que a arquitetura fundamental destes sistemas pode não ser inerentemente robusta contra adversários gerados por IA. Ajustes incrementais nos modelos existentes podem não ser suficientes, podendo ser necessária uma reavaliação fundamental dos descritores de características e dos processos de treino.
A maioria das soluções biométricas faciais atuais depende de mecanismos de Deteção de Ataque de Apresentação (PAD) para determinar a “vivacidade” (liveness) do utilizador que tenta autenticar-se.5 O PAD foi concebido para distinguir entre um rosto humano vivo e imitações como máscaras ou vídeos. No entanto, os atacantes estão a recorrer cada vez mais a ataques de injeção digital de maior complexidade usando deepfakes, onde a imagem falsificada é introduzida diretamente no fluxo de dados do sistema, contornando a câmara física.5
Um problema crítico é que os padrões e processos de teste atuais para definir e avaliar os mecanismos PAD não cobrem adequadamente os ataques de injeção digital que utilizam os deepfakes gerados por IA que podem ser criados hoje.5 Este desfasamento entre a evolução dos ataques de injeção digital e os padrões de teste PAD cria um “ponto cego” regulatório e de conformidade. As organizações podem estar a implementar soluções que são “conformes” com os padrões atuais, mas que são, na prática, ineficazes contra as ameaças mais recentes e sofisticadas. Isto pode levar a uma falsa sensação de segurança, onde as empresas acreditam estar protegidas por utilizarem tecnologia certificada, quando na verdade permanecem vulneráveis. Esta situação tem implicações significativas para a atribuição de responsabilidade em caso de violação e sublinha a necessidade urgente de atualizar os padrões da indústria para refletir o panorama de ameaças atual.
III. Desafios na Deteção de Deepfakes e Avanços Tecnológicos
A crescente sofisticação e prevalência dos deepfakes colocam desafios significativos aos métodos de deteção atuais. No entanto, a investigação e o desenvolvimento tecnológico procuram ativamente novas abordagens para combater esta ameaça.
A. Limitações Atuais dos Detetores de Deepfakes
Apesar do desenvolvimento de inúmeras ferramentas de deteção de deepfakes, a sua eficácia no mundo real permanece questionável. Um estudo abrangente conduzido pela CSIRO (agência nacional de ciência da Austrália) e pela Universidade Sungkyunkwan (SKKU) da Coreia do Sul avaliou 16 dos principais detetores de deepfakes e concluiu que nenhum deles conseguiu identificar de forma fiável deepfakes encontrados em cenários reais (“in-the-wild”).7 Os resultados foram alarmantes: as taxas de deteção em conteúdo não controlado variaram entre 39% e 69%, com uma média de aproximadamente 55%, o que é comparável ao acaso de lançar uma moeda ao ar.11
Uma das principais razões para este baixo desempenho é a dependência excessiva de conjuntos de dados académicos limitados e, por vezes, homogéneos para o treino destes detetores. Por exemplo, o detetor ICT (Identity Consistent Transformer), que foi treinado predominantemente com rostos de celebridades, mostrou-se significativamente menos eficaz na deteção de deepfakes de indivíduos não famosos.7 Esta dependência cria uma “bolha de desempenho”, onde os modelos apresentam bons resultados em benchmarks controlados, mas falham quando confrontados com a diversidade e complexidade dos deepfakes encontrados no mundo real.
Esta constatação é corroborada por investigações mais recentes, como a apresentada no artigo “A Multi-Modal In-the-Wild Benchmark of Deepfakes Circulated in 2024”.12 Este estudo introduziu um novo benchmark, o Deepfake-Eval-2024, composto por deepfakes recolhidos de redes sociais e plataformas de deteção em 2024, refletindo as tecnologias de manipulação mais recentes. Ao avaliar modelos de deteção de deepfakes de código aberto considerados de última geração neste novo benchmark, observou-se uma queda abrupta no seu desempenho: a Área Sob a Curva ROC (AUC), uma métrica comum de avaliação, diminuiu em 50% para modelos de vídeo, 48% para áudio e 45% para modelos de imagem, em comparação com os benchmarks académicos anteriores.12 Isto demonstra de forma inequívoca que muitos benchmarks académicos estão desatualizados e não representam adequadamente os deepfakes do mundo real. A comunidade de investigação precisa urgentemente de diversificar os dados de treino e adotar benchmarks mais realistas para evitar um ciclo de desenvolvimento de soluções que se mostram ineficazes na prática.
B. A Deteção de Prova de Vida (Liveness Detection) e as suas Fragilidades
A Deteção de Prova de Vida (Liveness Detection) é frequentemente considerada a principal linha de defesa dos sistemas de reconhecimento facial contra ataques de spoofing, incluindo deepfakes.4 O seu objetivo é garantir que o input biométrico provém de uma pessoa real e presente, e não de uma representação artificial. Os sistemas de Deteção de Ataque de Apresentação (PAD) são a forma mais comum de liveness detection, projetados para identificar artefactos como fotografias, vídeos ou máscaras.5
Contudo, como discutido anteriormente, os mecanismos PAD tradicionais são cada vez mais ineficazes contra ataques de injeção digital, onde o atacante contorna a câmara física.5 Além disso, a própria natureza dos deepfakes modernos desafia as abordagens de liveness detection. Os deepfakes podem ser gerados para simular comportamentos associados à “vida”, como movimentos subtis da cabeça, piscar de olhos e sorrisos, enganando assim o software de liveness check que procura estes padrões.4
Isto sugere que a própria definição de “liveness” pode precisar de ser reavaliada no contexto dos deepfakes avançados. Se um deepfake pode simular um piscar de olhos de forma convincente, então o piscar de olhos deixa de ser um indicador fiável de liveness contra esse tipo de ataque. Pode não ser suficiente detetar apenas sinais de vida, mas sim a autenticidade da origem do sinal biométrico. A questão fundamental transforma-se de “Esta imagem/vídeo parece um humano real?” para “Este é um humano real a interagir com o sistema neste preciso momento?”. A necessidade de testes de liveness mais sensíveis, que vão além de padrões previsíveis e imitáveis, é, por isso, premente.4
C. Avanços e Estratégias Emergentes na Deteção
Apesar dos desafios significativos, a investigação para melhorar a deteção de deepfakes está ativa e a explorar múltiplas vias promissoras. A corrida para desenvolver detetores mais eficazes está, de facto, a impulsionar avanços em IA que vão além da simples classificação de imagens ou vídeos.
- Abordagens Holísticas e Contextuais: Há um reconhecimento crescente de que a deteção eficaz de deepfakes deve ir além da mera análise da aparência visual. Os investigadores defendem que a deteção deve focar-se no “significado e contexto” do conteúdo.7 Isto implica o desenvolvimento de modelos de IA mais holísticos e inteligentes, capazes de analisar e correlacionar informações de múltiplas modalidades. Estão a ser desenvolvidos modelos que combinam dados de áudio, texto, imagens e metadados para obter resultados mais fiáveis.7 Esta abordagem multimodal requer modelos de fusão de sensores e IA capazes de processar tipos de dados díspares, representando uma fronteira na investigação em IA.
- IA contra IA: Uma estratégia fundamental é a de “pôr a IA a lutar contra a IA”. Isto envolve a atualização contínua de modelos de IA de deteção com os dados mais recentes sobre as técnicas de criação de deepfakes, permitindo que os sistemas de defesa permaneçam um passo à frente dos adversários.4 Empresas como a Sumsub já lançaram modelos baseados em Machine Learning (ML), como o “For Fake's Sake”, especificamente concebidos para detetar deepfakes e fraude sintética.6
- Técnicas Inovadoras de Liveness e Deteção:
- “Live Captchas”: Propõe-se o uso de “live captchas” como uma alternativa aos testes de liveness passivos e previsíveis. Estes poderiam envolver desafios interativos que seriam difíceis para deepfakes pré-renderizados ou mesmo em tempo real replicarem autenticamente.4
- Análise de Artefactos Espectrais: Esta técnica procura identificar padrões não naturais em áudio e vídeo, como distorções subtis ou glitches que podem trair uma falsificação.11
- Deteção de Voz Sintética: Modelos de ML estão a ser treinados para analisar características vocais como tom, ritmo, timbre e até a consistência emocional (ou falta dela) para distinguir vozes humanas de sintéticas.13
- Investigação em Generalização de Modelos: O estudo “Anomalous cue Guided FAS (AG-FAS)” propõe uma abordagem inovadora que utiliza rostos reais para melhorar a capacidade de generalização dos modelos de deteção de spoofing facial (FAS), através de um Gerador de Rosto De-spoofing (DFG).14
- Novos Paradigmas de Aprendizagem: Revisões sistemáticas da literatura destacam a evolução das técnicas de deteção de liveness baseadas em IA, incluindo áreas emergentes como IA Explicável (XAI), Aprendizagem Federada, Aprendizagem por Transferência e Meta-Aprendizagem.3 Estas abordagens procuram criar modelos mais robustos, adaptáveis e transparentes.
- Melhoria de Benchmarks: A introdução de benchmarks mais realistas e desafiadores, como o Deepfake-Eval-2024 12, é crucial. Estes conjuntos de dados, recolhidos “in-the-wild”, fornecem material mais relevante para treinar e avaliar a próxima geração de detetores de deepfakes, ajudando a colmatar a lacuna entre o desempenho laboratorial e a eficácia no mundo real.
A luta contra os deepfakes é uma corrida armamentista tecnológica. Embora os desafios sejam consideráveis, os esforços contínuos de investigação e desenvolvimento oferecem esperança para a criação de defesas mais eficazes no futuro.
IV. Análise de Segurança de Outros Métodos Biométricos
Embora a biometria facial esteja no centro das atenções devido à ameaça dos deepfakes, outros métodos biométricos também apresentam os seus próprios perfis de segurança, com vantagens e vulnerabilidades distintas. A compreensão destas alternativas é crucial para desenvolver estratégias de autenticação robustas e resilientes.
A. Biometria de Íris: Precisão Elevada, Riscos de Imutabilidade
A biometria de íris é reconhecida pela sua elevada precisão. O padrão da íris de um indivíduo contém cerca de 266 características identificáveis, significativamente mais do que as aproximadamente 40 encontradas numa impressão digital. A probabilidade de duas pessoas terem o mesmo padrão de íris é extremamente baixa, estimada em uma em mil milhões.15 Esta singularidade torna a íris um identificador biométrico teoricamente muito forte.
No entanto, a biometria de íris partilha uma vulnerabilidade fundamental com outras biometrias físicas: a imutabilidade dos dados. Se os dados da íris de um indivíduo forem comprometidos – por exemplo, através de uma violação de base de dados – as consequências podem ser permanentes. Dado que o padrão da íris não muda ao longo da vida, uma vez que os dados são expostos, o indivíduo pode ficar impossibilitado de usar a sua íris para fins de autenticação no futuro.15 Isto pode levar a problemas graves, incluindo fraude financeira e roubo de identidade. Esta imutabilidade representa um risco existencial para a utilização a longo prazo de tais biometrias, a menos que os modelos de armazenamento e proteção sejam fundamentalmente seguros e à prova de violação. Uma única fuga de dados em grande escala poderia inutilizar esta modalidade biométrica para milhões de pessoas de forma irreversível.
Além disso, a biometria de íris não está imune a ataques de spoofing. Em 2017, o Chaos Computer Club (CCC) demonstrou que era possível contornar os sistemas de leitura de íris da Samsung utilizando uma fotografia impressa de alta resolução da íris de uma pessoa e colocando uma lente de contacto sobre a imagem para simular a curvatura do olho.15 Este incidente destacou que mesmo tecnologias consideradas altamente seguras podem ser vulneráveis a ataques de apresentação engenhosos. Outra preocupação é que a taxa de falso reconhecimento nos sistemas de varrimento da íris pode aumentar à medida que o tamanho da base de dados de íris armazenadas cresce, devido à maior probabilidade de encontrar padrões superficialmente semelhantes.15
O projeto Worldcoin, que propõe a criação de uma identidade digital global através do scan da íris em troca de criptomoeda, levantou preocupações significativas a nível mundial relativamente à recolha em massa de dados da íris, ao consentimento informado dos utilizadores, à transparência sobre o uso dos dados e à transferência internacional dessa informação sensível.15 Reguladores em vários países iniciaram investigações sobre as práticas da Worldcoin.
B. Biometria Comportamental: Uma Camada Dinâmica de Autenticação
A biometria comportamental oferece uma abordagem diferente à autenticação, focando-se não em características físicas estáticas, mas em padrões únicos na forma como os indivíduos interagem com os seus dispositivos e realizam ações digitais.19 Esta tecnologia analisa passivamente uma miríade de comportamentos, como o ritmo e a cadência da digitação, os movimentos do rato ou do cursor, a forma como um ecrã tátil é pressionado e percorrido (swipe), a maneira como o telefone é segurado e movimentado, e até mesmo padrões de navegação e interação com aplicações.19
Vantagens da Biometria Comportamental:
- Não Intrusiva e Contínua: Ao contrário de muitos métodos biométricos físicos que exigem uma ação explícita do utilizador (e.g., colocar o dedo num sensor), a biometria comportamental opera frequentemente em segundo plano, analisando o comportamento ao longo de toda a sessão do utilizador sem causar atrito.19
- Dificuldade de Replicação: Os padrões comportamentais são dinâmicos, subtis e idiossincráticos, tornando-os intrinsecamente mais difíceis de serem roubados, imitados ou replicados por fraudadores em comparação com uma imagem facial ou uma impressão digital.21
- Deteção de Anomalias e Automação: É eficaz na deteção de bots e outras formas de automação, bem como na identificação de desvios súbitos no comportamento de um utilizador legítimo, o que pode indicar que a conta foi comprometida.19
- Custo-Benefício: Em muitos casos, pode ser implementada utilizando o software e o hardware já existentes nos dispositivos dos utilizadores e nos servidores das empresas, sem necessidade de sensores biométricos dedicados.21
Desafios e Desvantagens:
- Variabilidade Comportamental: O comportamento humano é inerentemente inconsistente e pode ser influenciado por uma multitude de fatores externos e fisiológicos, como fadiga, stress, lesões (e.g., uma mão partida a afetar a digitação), ou mesmo o estado emocional. Esta variabilidade pode levar a um aumento de falsos positivos (utilizadores legítimos bloqueados) ou falsos negativos (fraudadores não detetados).22
- Necessidade de Modelos de IA Avançados: Para lidar com a variabilidade natural e distinguir com precisão entre alterações comportamentais legítimas e atividades fraudulentas, os sistemas de biometria comportamental dependem fortemente de algoritmos sofisticados de Machine Learning (ML) e Inteligência Artificial (IA) que se adaptam continuamente.22
- Preocupações com a Privacidade: A natureza da recolha contínua e passiva de dados comportamentais detalhados levanta preocupações significativas com a privacidade. Embora essencial para a segurança, esta monitorização constante pode ser percebida como invasiva se não for gerida com transparência e fortes salvaguardas. A linha entre a monitorização para segurança e a vigilância excessiva pode tornar-se ténue.20 A aceitação pelo utilizador dependerá de garantias robustas de privacidade, minimização da recolha de dados e uma clara demonstração do valor acrescentado em termos de segurança.
- Desafios de Implementação: As organizações podem enfrentar desafios relacionados com a escalabilidade das soluções, a sua integração com infraestruturas de TI existentes, a necessidade de educar os utilizadores sobre o seu funcionamento e benefícios, e a influência de fatores ambientais no comportamento e, consequentemente, na deteção.23
Estudos de Caso e Taxas de Sucesso:
Apesar dos desafios, a biometria comportamental tem demonstrado um sucesso considerável na prevenção de fraudes, especialmente no setor financeiro:
- A BCU, uma cooperativa de crédito nos EUA, implementou soluções de biometria comportamental da BioCatch para combater fraudes relacionadas com a plataforma Zelle, resultando numa impressionante redução de 95% nas atividades fraudulentas.24
- Uma parceria entre a Mastercard e a Feedzai, integrando biometria comportamental na plataforma de risco de fraude ao consumidor, levou a um declínio de 12% no valor das fraudes de Authorized Push Payment (APP) no Reino Unido.24
- Um estudo empírico mais amplo, analisando a implementação de sistemas de biometria comportamental em quinze instituições financeiras, revelou uma precisão geral do modelo de 89,9% e uma redução média de fraude de 35,5% após a implementação.24
Tendências de Mercado:
O mercado de biometria comportamental está a experienciar um crescimento rápido e significativo, indicando uma forte procura impulsionada pela insuficiência dos métodos de autenticação tradicionais e biométricos estáticos face às ameaças atuais.
- A SNS Insider avaliou o mercado em USD 1,66 mil milhões em 2023, projetando que alcance USD 14,00 mil milhões até 2032, com uma Taxa de Crescimento Anual Composta (CAGR) de 26,77%.25
- A Grand View Research apresentou números semelhantes, com um valor de mercado de USD 1,45 mil milhões em 2022 e uma projeção de crescimento para USD 9,92 mil milhões até 2030, a uma CAGR de 27,3%.26 Este crescimento é liderado por grandes empresas e pelo setor de Bancos, Serviços Financeiros e Seguros (BFSI), que enfrenta riscos elevados e perdas financeiras potenciais significativas devido a fraude.25 Geograficamente, a América do Norte lidera atualmente a adoção, mas a região da Ásia-Pacífico está projetada para ter o crescimento mais rápido.25 Este dinamismo do mercado é uma resposta direta à corrida armamentista da cibersegurança, onde as soluções mais antigas se mostram cada vez mais inadequadas.
C. Outras Biometrias e Considerações Gerais
Além da facial, íris e comportamental, outros tipos de biometria incluem o reconhecimento de impressão digital, de voz, de padrões de veias da palma da mão, e até mesmo de ADN em contextos mais específicos.1 Cada uma destas modalidades possui um conjunto único de vantagens e desvantagens.
Vantagens Gerais da Biometria:
- Segurança Acrescida (Teórica): As características biométricas são únicas para cada indivíduo e difíceis de falsificar ou roubar em comparação com senhas.1
- Conveniência: Eliminam a necessidade de memorizar senhas complexas ou carregar tokens físicos.1
- Experiência do Utilizador Melhorada: Geralmente oferecem um processo de autenticação rápido e intuitivo.1
Desvantagens Gerais da Biometria:
- Preocupações com a Privacidade: O armazenamento de dados biométricos sensíveis levanta sérias questões de privacidade. Se estas bases de dados forem comprometidas, as informações pessoais e imutáveis dos utilizadores podem ser expostas.1
- Falsos Positivos e Falsos Negativos: Nenhum sistema biométrico é 100% preciso. Falsos positivos (conceder acesso a um utilizador não autorizado) e falsos negativos (negar acesso a um utilizador legítimo) podem ocorrer, causando problemas de segurança ou frustração para o utilizador.1 Fatores ambientais ou alterações temporárias na característica biométrica (e.g., um corte no dedo para impressão digital) podem afetar a precisão.
- Custos de Implementação: A aquisição de hardware especializado (sensores) e software, bem como a sua manutenção e atualização, podem representar um investimento significativo para as organizações.1
- Irreversibilidade das Violações: Como já mencionado, para muitas biometrias físicas, se os dados forem roubados, não podem ser simplesmente “alterados” ou “resetados” como uma senha. O comprometimento é, em muitos casos, permanente.2
A Tabela 2 oferece um comparativo dos principais métodos biométricos discutidos.
Tabela 2: Comparativo de Métodos Biométricos Chave
Esta visão comparativa demonstra que não existe uma solução biométrica universalmente perfeita. A escolha do método ou combinação de métodos deve depender do caso de uso específico, do nível de risco, dos requisitos de usabilidade e das considerações de custo e privacidade.
V. Estratégias de Mitigação e Fortalecimento da Segurança Biométrica
Face às vulnerabilidades inerentes aos sistemas biométricos, especialmente perante ameaças sofisticadas como os deepfakes, torna-se imperativo adotar estratégias de mitigação robustas e multifacetadas. A defesa eficaz não reside numa única solução, mas numa combinação inteligente de tecnologias, processos e padrões.
A. Biometria Multimodal: A Força da Combinação
A biometria multimodal baseia-se no princípio de utilizar duas ou mais características biométricas distintas para verificar a identidade de um indivíduo.4 Exemplos incluem a combinação de reconhecimento facial com reconhecimento de voz, ou impressão digital com análise da íris. A principal vantagem desta abordagem é o aumento significativo da segurança e da resiliência contra tentativas de fraude.4 Para um atacante, falsificar simultaneamente múltiplas características biométricas de forma convincente é exponencialmente mais difícil do que comprometer um único modal.
A implementação da biometria multimodal, no entanto, requer uma ponderação cuidadosa. É crucial aderir a princípios como as “Três Leis da Biometria” (política antes do processo antes da tecnologia), que enfatizam a necessidade de políticas robustas e processos bem definidos para guiar a implementação e o uso, priorizando considerações éticas e a privacidade dos dados.29 A experiência do utilizador também é um fator importante, pois a exigência de múltiplas verificações pode introduzir atrito adicional. A complexidade da fusão dos dados provenientes de diferentes sensores e a tomada de decisão baseada em múltiplos scores biométricos também representam desafios técnicos. A investigação nesta área explora abordagens inovadoras, como a combinação de características visuais de aparência com sinais fisiológicos subtis, como a fotopletismografia remota (rPPG), que pode detetar o fluxo sanguíneo sob a pele.27
B. Padrões FIDO (Fast Identity Online) e Passkeys: Rumo à Autenticação Resistente a Phishing
A Aliança FIDO (Fast Identity Online) desenvolveu especificações abertas com o objetivo de reduzir a dependência mundial de senhas, que são notoriamente vulneráveis a phishing, roubo e reutilização. Os padrões FIDO utilizam criptografia de chave pública para fornecer uma autenticação mais forte e fácil de usar.30
O funcionamento básico envolve a geração de um par de chaves criptográficas único para cada serviço online: uma chave privada, que permanece armazenada de forma segura no dispositivo do utilizador (e.g., smartphone, token de segurança de hardware), e uma chave pública, que é registada no servidor do serviço online.31 Durante a autenticação, o dispositivo do utilizador usa a chave privada para “assinar” um desafio enviado pelo servidor, e o servidor verifica esta assinatura usando a chave pública correspondente. Este processo elimina a necessidade de transmitir ou armazenar senhas nos servidores, e também torna obsoletos os códigos de One-Time Password (OTP) enviados por SMS, que são suscetíveis a interceção e ataques de SIM swap.32
As principais vantagens da autenticação FIDO incluem:
- Resistência a Phishing: Como as chaves estão vinculadas ao domínio específico do website, não podem ser usadas para autenticar em sites falsos.30
- Proteção contra Credential Stuffing e Ataques de Repetição: A singularidade das chaves por serviço impede estes tipos comuns de ataques.
- Privacidade Melhorada: As chaves são específicas do website, o que ajuda a prevenir o rastreamento entre sites. Se forem usados dados biométricos para desbloquear a chave privada no dispositivo (e.g., impressão digital, reconhecimento facial), esses dados biométricos normalmente não saem do dispositivo.31
- Interoperabilidade: Os padrões FIDO são concebidos para serem interoperáveis entre diferentes plataformas e autenticadores.
As Passkeys são uma evolução das credenciais FIDO, concebidas para uma experiência de autenticação sem senha ainda mais integrada. As passkeys podem ser sincronizadas entre os vários dispositivos de um utilizador (e.g., através do iCloud Keychain da Apple ou do Gestor de Palavras-passe da Google), permitindo uma autenticação conveniente em qualquer um deles.34
O suporte para FIDO e passkeys está a crescer nas principais plataformas móveis:
- Android: Oferece o Android Keystore, que pode fornecer armazenamento de chaves apoiado por hardware num Trusted Execution Environment (TEE), e atestado de chave para verificar a integridade da implementação.36
- iOS (Apple): Utiliza o Secure Enclave para proteger chaves privadas e o iCloud Keychain para sincronização segura de passkeys com encriptação de ponta a ponta. A Apple também suporta o uso de chaves de segurança FIDO físicas como um segundo fator robusto.34
Apesar dos benefícios, a eficácia dos padrões FIDO e passkeys depende criticamente da segurança do “elo final” – o dispositivo do utilizador. Se o dispositivo estiver comprometido por malware avançado, ou se as chaves privadas puderem ser extraídas devido a uma proteção fraca no hardware ou software do dispositivo, ou através de uma má geração de chaves, a promessa de segurança superior do FIDO pode ser minada.39 Embora os TEEs e Secure Enclaves ofereçam proteção significativa, a segurança absoluta contra todos os vetores de ataque não é garantida. A Google e a Apple lançam regularmente correções para vulnerabilidades nos seus sistemas operativos 41, e existem ferramentas de gestão de chaves FIDO 43, o que sublinha que o dispositivo continua a ser um ponto de potencial falha. A segurança FIDO não pode, portanto, ser vista isoladamente da segurança geral do endpoint.
Outros desafios incluem a adoção, por vezes lenta, por parte de certos setores, como o bancário, devido a preocupações regulatórias e ao impacto na experiência do cliente.35 Além disso, existem preocupações sobre a possibilidade de as grandes plataformas tecnológicas (Apple, Google, Microsoft) criarem “jardins murados” (walled gardens) com as suas implementações de passkeys, o que poderia limitar a interoperabilidade e a escolha do utilizador.44
C. Biometria Cancelável (Cancellable Biometrics)
A biometria cancelável é uma abordagem técnica inovadora que procura resolver um dos problemas mais fundamentais da biometria física: a imutabilidade dos dados biométricos.17 Em vez de armazenar o template biométrico bruto (e.g., a imagem da impressão digital ou o padrão da íris), a biometria cancelável aplica uma transformação intencional e repetível (distorção ou encriptação específica) a esses dados brutos antes de os armazenar.
A principal vantagem é que, se um template biométrico transformado (“cancelável”) for roubado ou comprometido, ele pode ser “cancelado” ou revogado. O utilizador pode então gerar um novo template a partir da mesma característica biométrica original, mas aplicando uma transformação diferente.17 Isto torna os dados roubados inúteis para o atacante, pois não corresponderão ao novo template transformado. Essencialmente, a biometria cancelável trata os templates biométricos mais como “tokens” revogáveis do que como identificadores fixos e imutáveis. Esta mudança conceptual é importante porque alinha a gestão de dados biométricos com os princípios de gestão de credenciais mais tradicionais (como senhas), onde o comprometimento de uma credencial não é necessariamente catastrófico, pois pode ser alterada. Isto poderia aumentar significativamente a confiança na utilização de biometrias físicas, sabendo que existe um mecanismo de “reset” em caso de violação.
D. Know Your Transaction (KYT): Adicionando Contexto à Identidade
Know Your Transaction (KYT) é um processo utilizado principalmente no setor financeiro para monitorizar e avaliar transações financeiras em tempo real, com o objetivo de detetar atividades fraudulentas, suspeitas ou ilícitas, como lavagem de dinheiro ou financiamento do terrorismo.45 O KYT complementa o processo de Know Your Customer (KYC), que se foca na verificação da identidade do cliente no momento da integração (onboarding) e periodicamente.
O funcionamento do KYT envolve a recolha e análise de diversos dados relacionados com uma transação, incluindo informações sobre as partes envolvidas, a natureza da transação, os montantes, a localização geográfica, o histórico transacional do cliente e dados de fontes externas. Utilizando algoritmos e sistemas baseados em regras, muitas vezes alimentados por IA e Machine Learning, as transações são pontuadas quanto ao risco.45 Transações que excedem certos limiares de risco ou que se desviam significativamente dos padrões normais do cliente são sinalizadas para investigação e, se necessário, reportadas às autoridades competentes, em conformidade com as regulamentações Anti-Money Laundering (AML).45
Embora o KYT não seja uma tecnologia biométrica em si, desempenha um papel crucial no fortalecimento da segurança global. Ao adicionar uma camada de análise contextual baseada no comportamento transacional, o KYT pode ajudar a identificar atividades fraudulentas mesmo que a verificação de identidade inicial (que pode incluir biometria) tenha sido bem-sucedida ou contornada. Por exemplo, um criminoso que conseguiu aceder a uma conta usando um deepfake pode ser detetado se as transações que tentar realizar forem atípicas para o proprietário legítimo da conta.
Os desafios na implementação do KYT incluem o custo, a necessidade de dados de alta qualidade, o potencial para falsos positivos (que exigem investigação manual), a disponibilidade de recursos (especialmente para instituições menores) e a adaptação a tecnologias financeiras emergentes como as criptomoedas.45
E. Resposta e Estratégias da Indústria Financeira
O setor financeiro, sendo um alvo primário para fraudes, incluindo aquelas facilitadas por deepfakes e roubo de identidade, está na vanguarda da adoção de estratégias de defesa complexas e adaptativas. A resposta da indústria caracteriza-se por uma abordagem multicamadas e uma crescente dependência de tecnologias avançadas:
- Abordagens Multicamadas (Defesa em Profundidade): As instituições financeiras estão a combinar múltiplas tecnologias de segurança, incluindo biometria comportamental, inteligência de dispositivo (análise das características do dispositivo usado para a transação), autenticação dinâmica (que pode variar os desafios de autenticação), e verificação biométrica robusta.47
- Ferramentas de Deteção Baseadas em IA: Há um investimento crescente em plataformas que utilizam IA e ML para monitorizar transações em tempo real, analisar perfis KYC, cruzar dados com listas de vigilância globais e investigar alertas de forma inteligente. Soluções como a ALFA são exemplos desta tendência.47
- Monitorização em Tempo Real e IA Agêntica: Algumas instituições, particularmente na Índia, estão a usar IA agêntica para mapear anomalias comportamentais em vários canais de pagamento (UPI, NEFT, IMPS) para detetar fraudes e até mesmo redes de fraude.47
- Análise de Links e Forense de Blockchain: Ferramentas de análise de links ajudam a descobrir relações ocultas entre entidades que podem indicar fraude de identidade sintética. Com a crescente relevância das criptomoedas, a forense de blockchain torna-se essencial para rastrear fluxos de fundos ilícitos.47
- Colaboração e Formação: Há um reconhecimento crescente de que a formação contínua dos funcionários sobre os riscos emergentes da IA (incluindo deepfakes) e a participação ativa em fóruns de partilha de informações da indústria (como o CSITE do Reserve Bank of India ou o FS-ISAC a nível global) são cruciais.47 Esta colaboração é cada vez mais vista não como um extra opcional, mas como um componente essencial da defesa contra ameaças sofisticadas e em rápida evolução. Os atacantes partilham ferramentas e táticas; os defensores devem fazer o mesmo com informações sobre ameaças e contramedidas eficazes.
- Testes e Auditorias Proativas: A realização de exercícios de “red-teaming” e auditorias de segurança focadas especificamente em vulnerabilidades a deepfakes e ataques de identidade sintética está a tornar-se uma prática recomendada.9
- Parceria com Fornecedores de KYC: As instituições financeiras estão a trabalhar mais de perto com os seus fornecedores de serviços de KYC e verificação de identidade para garantir que estes possuem tecnologias anti-deepfake robustas, incluindo deteção de liveness avançada e capacidades de forense de média.49
Existe, no entanto, uma tensão inerente entre a implementação de medidas de segurança robustas (como biometria multimodal complexa ou múltiplos passos de verificação) e a manutenção de uma experiência de utilizador fluida e conveniente.29 Encontrar o equilíbrio certo é um desafio constante para a indústria financeira, pois medidas de segurança excessivamente onerosas podem levar à frustração do cliente e à procura de alternativas, potencialmente menos seguras.
A Tabela 3 resume as principais estratégias de mitigação discutidas.
Tabela 3: Sumário das Estratégias de Mitigação Contra Ameaças a Sistemas Biométricos
Estas estratégias, quando implementadas de forma integrada e adaptativa, podem fortalecer significativamente a segurança dos sistemas biométricos e a resiliência geral das organizações contra as ameaças em evolução.
VI. Implicações Éticas, Legais e de Privacidade
A crescente adoção de tecnologias biométricas e a proliferação de deepfakes levantam um conjunto complexo de implicações éticas, legais e de privacidade que exigem uma reflexão cuidadosa e respostas proativas por parte da sociedade, das empresas e dos reguladores.
A. Privacidade e Proteção de Dados Biométricos
Os dados biométricos são inerentemente sensíveis. São únicos para cada indivíduo, frequentemente imutáveis (no caso de características físicas como impressões digitais ou padrões da íris), e estão intrinsecamente ligados à identidade física de uma pessoa.1 Esta natureza íntima dos dados biométricos significa que o seu comprometimento pode ter consequências muito mais graves e duradouras do que a violação de outros tipos de dados pessoais.
Os riscos associados a violações de dados biométricos são multifacetados:
- Roubo de Identidade e Fraude Financeira: Dados biométricos roubados podem ser usados para se passar por outra pessoa, aceder a contas bancárias, solicitar crédito ou cometer outros tipos de fraude.1
- Perda de Confiança: Violações podem minar a confiança dos utilizadores nas organizações que recolhem e armazenam os seus dados biométricos, bem como na própria tecnologia biométrica.
- Consequências Regulatórias: Organizações que manuseiam dados biométricos estão sujeitas a regulamentações rigorosas de proteção de dados, como o Regulamento Geral sobre a Proteção de Dados (GDPR) na Europa e o California Consumer Privacy Act (CCPA) nos EUA. O não cumprimento pode resultar em multas pesadas e outras sanções legais.17 O GDPR, por exemplo, classifica os dados biométricos como “categorias especiais de dados pessoais”, que exigem um nível de proteção mais elevado.
A imutabilidade dos dados biométricos físicos é uma preocupação central. Ao contrário de uma senha que pode ser alterada após um comprometimento, uma impressão digital ou um padrão de íris roubado é comprometido para sempre.2 Isto eleva drasticamente o nível de exigência para a segurança do armazenamento e processamento destes dados.
A recolha e armazenamento em massa de dados biométricos, como exemplificado pelo controverso projeto Worldcoin, que oferece criptomoeda em troca de um scan da íris, levanta sérias questões sobre a proporcionalidade, a necessidade e a transparência.15 Muitas vezes, os utilizadores podem não ter uma compreensão clara de como os seus dados serão usados, protegidos ou por quanto tempo serão retidos. Há uma necessidade premente de regulamentações claras e robustas que protejam a privacidade dos dados biométricos e garantam que o seu uso seja conduzido de forma responsável, ética e transparente.16
B. Consentimento, Transparência e Controlo do Utilizador
O princípio do consentimento informado é fundamental no tratamento de dados biométricos. Os indivíduos devem ser claramente informados sobre que dados estão a ser recolhidos, para que finalidade, como serão armazenados e protegidos, e com quem poderão ser partilhados. Este consentimento deve ser livre, específico, informado e inequívoco.15
No entanto, a transparência pode ser um desafio. As políticas de privacidade são frequentemente longas, complexas e redigidas em linguagem jurídica, o que dificulta a sua compreensão pela maioria dos utilizadores.50 Se os utilizadores não compreendem as práticas de dados de uma empresa, a sua capacidade de dar um consentimento verdadeiramente informado é comprometida.
É crucial que os utilizadores mantenham o máximo controlo possível sobre os seus identificadores biométricos.17 Isto inclui o direito de aceder aos seus dados, de os corrigir, de os apagar (direito ao esquecimento, quando aplicável) e de revogar o consentimento. A ideia de “vender” dados biométricos, especialmente quando envolve populações vulneráveis que podem ser coagidas economicamente a fazê-lo, é eticamente problemática e pode exacerbar as desigualdades existentes.18 Pode criar-se um cenário onde a privacidade e a segurança se tornam um luxo, acessível apenas àqueles que podem dar-se ao luxo de recusar a monetização dos seus dados mais pessoais. Este risco de uma “tirania biométrica” ou de um fosso digital exacerbado é uma preocupação crescente.
C. Desafios Legais e Regulatórios na Era dos Deepfakes
A ascensão dos deepfakes introduz desafios legais e regulatórios significativos, particularmente no que diz respeito à autenticidade de provas digitais e à responsabilização pela criação e disseminação de conteúdo falsificado.
- A “Defesa Deepfake”: Em processos judiciais, a possibilidade de as provas de vídeo ou áudio serem deepfakes está a tornar-se uma tática de defesa. Advogados podem argumentar que as provas apresentadas contra os seus clientes não são fiáveis porque poderiam ter sido manipuladas digitalmente.51 Isto coloca um ónus adicional sobre os tribunais para verificar a autenticidade das evidências digitais, um processo que pode ser tecnicamente complexo e moroso.
- Necessidade de Atualizar Regras de Evidência: As regras de admissibilidade de provas existentes podem não estar adequadamente equipadas para lidar com as nuances dos deepfakes. Há um debate em curso sobre a necessidade de emendas às regras de evidência e o desenvolvimento de novos métodos forenses para autenticar conteúdo digital.51
- Iniciativas de Autenticação de Conteúdo e Watermarking: Governos e empresas de tecnologia estão a explorar soluções como o watermarking (marca d'água digital) para identificar conteúdo gerado por IA. A Casa Branca, por exemplo, emitiu uma Ordem Executiva instando o Departamento de Comércio a desenvolver orientações para autenticação de conteúdo e watermarking.51 No entanto, as tecnologias de watermarking atuais ainda têm limitações significativas; as marcas d'água podem, por vezes, ser removidas ou comprometidas por atacantes determinados.51
- Responsabilidade Governamental e Soberania Digital: Existe uma discussão emergente sobre a responsabilidade dos governos em proteger os seus cidadãos de serem vítimas de deepfakes, seja através da criação de legislação específica, da promoção de tecnologias de deteção, ou da educação pública.29 Estas questões tocam no conceito mais amplo de “soberania digital” – a capacidade de uma nação controlar e proteger o seu espaço digital, incluindo a integridade da informação e a identidade dos seus cidadãos.24
A proliferação de deepfakes e o potencial de comprometimento de dados biométricos podem levar a uma “crise de identidade digital” mais vasta, onde a confiança na autenticidade de qualquer interação digital ou dado biométrico é progressivamente erodida.53 Se o adágio “ver para crer” se torna obsoleto 51, e se os dados biométricos, antes considerados prova quase irrefutável de identidade, podem ser falsificados ou roubados, então a própria base da confiança digital é abalada. Isto tem implicações profundas para o comércio eletrónico, as interações sociais online, os processos democráticos e o sistema de justiça.
A resposta legal e regulatória a estas ameaças é, atualmente, fragmentada e muitas vezes reativa, em vez de proativa. A falta de padrões globais harmonizados e a dificuldade em aplicar leis através de fronteiras criam um ambiente onde os atores maliciosos podem operar com um grau de impunidade. A velocidade da evolução tecnológica ultrapassa largamente a capacidade dos processos legislativos de se adaptarem 51, exacerbando o problema e sublinhando a necessidade de uma colaboração internacional mais estreita e de quadros regulatórios mais ágeis e adaptáveis.
VII. Conclusões e Recomendações Estratégicas
A análise detalhada das vulnerabilidades da biometria, especialmente facial, face à ameaça crescente dos deepfakes, juntamente com a exploração de outros métodos biométricos e estratégias de mitigação, permite extrair conclusões significativas e formular recomendações estratégicas para as organizações.
A. Recapitulação das Principais Descobertas
- Vulnerabilidade Crítica da Biometria Facial: A biometria facial, apesar da sua ampla adoção e conveniência, enfrenta uma ameaça existencial por parte de deepfakes cada vez mais sofisticados e acessíveis. Incidentes de fraude com perdas financeiras significativas já foram registados, demonstrando a capacidade dos deepfakes de contornar sistemas de verificação e enganar a perceção humana.4
- Limitações na Deteção de Deepfakes e Liveness: Os atuais sistemas de deteção de deepfakes e de verificação de prova de vida (liveness detection) apresentam limitações significativas, especialmente quando confrontados com deepfakes “in-the-wild” e ataques de injeção digital mais avançados. A eficácia de muitos detetores em cenários reais é consideravelmente inferior à reportada em benchmarks académicos.4
- Alternativas e Complementaridades de Outros Métodos Biométricos: Outros métodos biométricos, como a análise da íris e, particularmente, a biometria comportamental, oferecem alternativas e podem atuar como camadas complementares de segurança. A biometria de íris, embora precisa, partilha o risco da imutabilidade dos dados.15 A biometria comportamental emerge como uma solução dinâmica e promissora, capaz de fornecer autenticação contínua e deteção de anomalias, com um mercado em rápida expansão.19
- Eficácia das Estratégias de Mitigação Multicamadas: Não existe uma “bala de prata” tecnológica. Estratégias de mitigação robustas envolvem, invariavelmente, abordagens de defesa em profundidade, combinando biometria multimodal, padrões de autenticação fortes como FIDO/passkeys, consideração por biometria cancelável, integração de processos de Know Your Transaction (KYT) e uma resposta proativa e colaborativa da indústria, especialmente visível no setor financeiro.4
- Profundas Implicações Éticas, Legais e de Privacidade: A utilização de dados biométricos e a ameaça dos deepfakes levantam questões complexas sobre privacidade, consentimento, proteção de dados, autenticidade de provas e a necessidade de desenvolvimento de quadros regulatórios e legais adequados e adaptáveis.16
B. Recomendações Estratégicas para Organizações
Para navegar neste panorama de ameaças complexo e em constante evolução, as organizações devem adotar uma postura proativa e estratégica em relação à segurança biométrica e à gestão de identidade.
- Adotar uma Mentalidade de “Confiança Zero” (Zero Trust): Partir do princípio de que nenhuma verificação, seja ela biométrica ou de outra natureza, é infalível por si só. Especialmente com a sofisticação dos deepfakes, a confiança implícita deve ser substituída por uma verificação explícita e contínua.4
- Implementar Defesa em Profundidade: Construir múltiplas camadas de segurança que se reforcem mutuamente:
- Utilizar biometria multimodal sempre que possível, combinando diferentes traços biométricos para aumentar a dificuldade de falsificação.4
- Integrar biometria comportamental para monitorização contínua das sessões dos utilizadores e deteção de anomalias em tempo real, fornecendo uma camada de segurança dinâmica e não intrusiva.19
- Adotar padrões FIDO e passkeys para promover uma autenticação forte, resistente a phishing e que reduza a dependência de senhas.30
- Explorar e considerar a implementação de biometria cancelável para modalidades biométricas físicas, a fim de mitigar o risco da imutabilidade dos dados.17
- Fortalecer Processos de KYC (Know Your Customer) e KYT (Know Your Transaction): Ir além da verificação de identidade no onboarding. Implementar ferramentas avançadas, incluindo IA e ML, para análise de risco contínua, monitorização de transações suspeitas e deteção de identidades sintéticas e outras formas de fraude sofisticada.9
- Investir em Deteção de Liveness Avançada e Deteção de Deepfakes: Não se contentar com soluções PAD básicas. Procurar e implementar tecnologias de deteção de liveness que sejam robustas contra ataques de injeção digital e que tenham sido testadas contra deepfakes “in-the-wild”. Manter-se atualizado com os avanços da investigação e as novas soluções que emergem.3
- Priorizar a Segurança de Dispositivos Móveis: Reconhecer o papel central dos smartphones na autenticação moderna (autenticadores FIDO, aplicações bancárias, armazenamento de passkeys). Assegurar que as políticas de segurança de dispositivos, a gestão de dispositivos móveis (MDM) e as defesas contra malware estão implementadas e atualizadas.34
- Educar e Treinar Funcionários e Utilizadores: O elo humano continua a ser um vetor de ataque significativo. Aumentar a sensibilização para os riscos de deepfakes, táticas de engenharia social, phishing e outros vetores de fraude. Implementar programas de formação contínua e simulações.6
- Manter-se a Par da Evolução Regulatória e dos Padrões da Indústria: Garantir a conformidade com as regulamentações de proteção de dados relevantes (e.g., GDPR, CCPA) e outras leis aplicáveis. Participar ativamente em fóruns da indústria e consórcios de partilha de informações sobre ameaças para se manter informado sobre as últimas táticas de ataque e as melhores práticas de defesa.17
- Realizar Auditorias de Segurança e Testes de Penetração Regulares: Conduzir avaliações de segurança abrangentes, incluindo testes de penetração que visem especificamente as vulnerabilidades dos sistemas biométricos a deepfakes, ataques de injeção e fraude de identidade sintética.9
A verdadeira resiliência contra fraudes de identidade sofisticadas não provirá de uma única solução tecnológica, mas de uma abordagem socio-técnica integrada. Esta abordagem deve combinar tecnologia avançada, processos de negócio robustos e seguros, educação e sensibilização contínuas de todas as partes interessadas (funcionários e clientes), e uma colaboração intersetorial e público-privada eficaz. A tecnologia por si só, por mais avançada que seja, pode ser contornada se os processos forem fracos ou se as pessoas não estiverem devidamente preparadas, como demonstrado pelos casos de fraude de alto valor facilitados por deepfakes.4
C. Perspetivas Futuras e Investigação Contínua
O panorama da segurança biométrica e da gestão de identidade digital continuará a ser moldado por uma “corrida armamentista” entre o desenvolvimento de tecnologias de falsificação, como os deepfakes, e o avanço dos métodos de deteção e prevenção. A Inteligência Artificial desempenhará um papel cada vez mais dual, sendo simultaneamente a força motriz por detrás de ameaças mais sofisticadas e a chave para o desenvolvimento de defesas mais inteligentes e adaptativas.
A investigação contínua será crucial em várias frentes:
- Detetores de Deepfakes Mais Robustos: Desenvolvimento de algoritmos capazes de generalizar melhor para deepfakes desconhecidos e “in-the-wild”, possivelmente através de novas arquiteturas de IA, treino com conjuntos de dados mais diversificados e realistas, e exploração de artefactos de manipulação mais subtis.
- Biometria Resistente a Spoofing: Inovação em sensores biométricos e algoritmos de processamento que sejam intrinsecamente mais resistentes a ataques de apresentação e injeção.
- Privacidade por Design (Privacy by Design): Incorporação de princípios de proteção da privacidade desde a fase de conceção das tecnologias biométricas e de identidade, incluindo técnicas como a minimização de dados, a encriptação homomórfica e a computação multipartidária segura.
A longo prazo, a sustentabilidade da identidade digital pode exigir uma transição para modelos de Identidade Auto-Soberana (Self-Sovereign Identity – SSI). Nestes modelos, os indivíduos teriam um controlo significativamente maior sobre os seus dados biométricos e outros atributos de identidade, armazenando-os de forma segura nos seus próprios dispositivos ou cofres digitais pessoais, e partilhando-os seletivamente e com consentimento explícito. A verificação seria descentralizada, utilizando tecnologias como blockchain ou outras formas de registos distribuídos para criar credenciais verificáveis e à prova de adulteração, reduzindo assim os riscos associados a grandes repositórios centralizados de dados biométricos.17 Embora não seja o foco principal do material analisado, a crise de confiança e os riscos inerentes às violações de dados biométricos apontam para a necessidade de explorar paradigmas que minimizem a dependência de terceiros para a custódia de dados tão sensíveis.
Finalmente, a questão da soberania digital no contexto da identidade biométrica e dos deepfakes transcende a segurança puramente técnica.52 Envolve questões de autonomia nacional, o controlo sobre infraestruturas críticas de identidade e a capacidade de uma nação proteger os seus cidadãos, a integridade dos seus sistemas digitais e a confiança nas suas instituições contra manipulação, seja ela interna ou externa. A dependência de tecnologias ou plataformas estrangeiras para funções essenciais de identidade e segurança pode criar vulnerabilidades estratégicas. A capacidade de detetar e mitigar deepfakes que podem ser usados para campanhas de desinformação, para minar processos democráticos ou para comprometer a segurança nacional é, fundamentalmente, uma questão de soberania na era digital.
As organizações e os governos devem, portanto, não só investir em defesas tecnológicas, mas também participar ativamente na definição de padrões éticos, legais e técnicos a nível global, promovendo um ecossistema de identidade digital que seja seguro, privado, equitativo e que inspire confiança.
Referências citadas
- Understanding Biometric Authentication: Advantages and Disadvantages – Recordia, acessado em maio 31, 2025, https://recordia.net/en/understanding-biometric-authentication-advantages-and-disadvantages/
- What is Biometric Security? Strengths and Weaknesses – Keepnet Labs, acessado em maio 31, 2025, https://keepnetlabs.com/blog/what-is-biometric-security-strengths-and-weaknesses
- Face Liveness Detection Using Artificial Intelligence Techniques: A Systematic Literature Review and Future Directions – ResearchGate, acessado em maio 31, 2025, https://www.researchgate.net/publication/368625224_Face_Liveness_Detection_Using_Artificial_Intelligence_Techniques_A_Systematic_Literature_Review_and_Future_Directions
- AI Deepfakes: A Threat to Facial Biometric Authentication – BairesDev, acessado em maio 31, 2025, https://www.bairesdev.com/blog/ai-deepfakes-biometric-authentication/
- Deepfakes will hurt 30% of organizations' trust in biometrics by 2026 | SC Media, acessado em maio 31, 2025, https://www.scworld.com/news/deepfakes-will-hurt-30-of-organizations-trust-in-biometrics-by-2026
- What Are Deepfakes, and How Can You Spot Them? 2025 | The …, acessado em maio 31, 2025, https://sumsub.com/blog/what-are-deepfakes/
- Research reveals ‘major vulnerabilities' in deepfake detectors – CSIRO, acessado em maio 31, 2025, https://www.csiro.au/en/news/All/News/2025/March/Research-reveals-major-vulnerabilities-in-deepfake-detectors
- A Comprehensive Evaluation of Deepfake Detection Methods: Approaches, Challenges and Future Prospects, acessado em maio 31, 2025, https://www.itm-conferences.org/articles/itmconf/pdf/2025/04/itmconf_iwadi2024_03002.pdf
- How Deepfake Identities Are Rewriting The Rules Of Financial Crime – Forbes, acessado em maio 31, 2025, https://www.forbes.com/councils/forbestechcouncil/2025/04/17/face-off-how-deepfake-identities-are-rewriting-the-rules-of-financial-crime-and-why-compliance-must-catch-up/
- (PDF) DeepFakes: a New Threat to Face Recognition? Assessment and Detection, acessado em maio 31, 2025, https://www.researchgate.net/publication/329841498_DeepFakes_a_New_Threat_to_Face_Recognition_Assessment_and_Detection
- Deepfake detectors don't work in the real world – Information Age | ACS, acessado em maio 31, 2025, https://ia.acs.org.au/article/2025/deepfake-detectors-don-t-work-in-the-real-world.html
- A Multi-Modal In-the-Wild Benchmark of Deepfakes Circulated in 2024 – arXiv, acessado em maio 31, 2025, https://arxiv.org/html/2503.02857v2
- How Deepfake Impersonation Can Be Caught by Liveness Detection – Pindrop, acessado em maio 31, 2025, https://www.pindrop.com/article/deepfake-impersonation-liveness-detection/
- Generalized Face Liveness Detection via De-spoofing Face Generator – arXiv, acessado em maio 31, 2025, https://arxiv.org/html/2401.09006v1
- Feature: Iris scanning, security tool or privacy threat? » The Readable, acessado em maio 31, 2025, https://thereadable.co/feature-iris-scanning-security-tool-or-privacy-threat/
- These are the dangers of selling your biometric data – TrustCloud, acessado em maio 31, 2025, https://trustcloud.tech/blog/dangers-of-selling-biometric-data/
- What Happens If Biometric Data Is Breached (And How To Prevent It), acessado em maio 31, 2025, https://www.forbes.com/councils/forbestechcouncil/2025/04/25/what-happens-if-biometric-data-is-breached-and-how-to-prevent-it/
- Paying for Iris Scans: AI-Fueled Surveillance Harms – Epic.org, acessado em maio 31, 2025, https://epic.org/paying-for-iris-scans-ai-fueled-surveillance-harms/
- What is Behavioral Biometrics – LexisNexis Risk Solutions, acessado em maio 31, 2025, https://risk.lexisnexis.com/insights-resources/article/what-is-behavioral-biometrics
- What Is Behavioral Biometrics: How Does It Work Against Fraud – Feedzai, acessado em maio 31, 2025, https://www.feedzai.com/blog/behavioral-biometrics-next-generation-fraud-prevention/
- Biometrics vs. behavioral biometrics in fraud prevention – Celebrus, acessado em maio 31, 2025, https://www.celebrus.com/blogs/biometrics-vs-behavioral-biometrics-in-fraud-prevention
- Challenges and Ethical Considerations in Implementing Behavioral Biometrics for Continuous Authentication – ResearchGate, acessado em maio 31, 2025, https://www.researchgate.net/publication/389167707_Challenges_and_Ethical_Considerations_in_Implementing_Behavioral_Biometrics_for_Continuous_Authentication
- 5 Critical Errors to Avoid in Implementing Biometric Technology for Data Center Security, acessado em maio 31, 2025, https://bioconnect.com/blog/2024/03/07/5-critical-errors-to-avoid-in-implementing-biometric-technology-for-data-center-security
- files.sdiarticle5.com, acessado em maio 31, 2025, https://files.sdiarticle5.com/wp-content/uploads/2025/05/Ms_AJRCOS_135805.docx
- Behavioral Biometrics Market to Reach USD 14.00 Billion by, acessado em maio 31, 2025, https://www.globenewswire.com/news-release/2025/03/12/3041441/0/en/Behavioral-Biometrics-Market-to-Reach-USD-14-00-Billion-by-2032-Due-to-Rising-Demand-for-AI-Driven-Identity-Verification-and-Fraud-Detection-SNS-Insider.html
- Behavioral Biometrics Market Size & Share Report, 2030 – Grand View Research, acessado em maio 31, 2025, https://www.grandviewresearch.com/industry-analysis/behavioral-biometrics-market
- Evaluating Deepfake Applications in Biometric Technology – A Review – Srinivas Publication, acessado em maio 31, 2025, https://www.supublication.com/index.php/ijaeml/article/download/1843/1215/3675
- Protecting Banks from AI-Powered Deepfakes – Risk Management Association, acessado em maio 31, 2025, https://www.rmahq.org/blogs/2025/protecting-banks-from-ai-powered-deepfakes/
- Securing digital identity with multimodal biometrics – Biometrics …, acessado em maio 31, 2025, https://www.biometricsinstitute.org/securing-digital-identity-with-multimodal-biometrics/
- FIDO Devices – Future of Cybersecurity – Thales CPL, acessado em maio 31, 2025, https://cpl.thalesgroup.com/access-management/authenticators/fido-devices
- FIDO2 authentication & passkeys – OneSpan, acessado em maio 31, 2025, https://www.onespan.com/blog/fido2-passwordless-web-coming
- White Paper: DBSC/DPOP as Complementary Technologies to FIDO Authentication, acessado em maio 31, 2025, https://fidoalliance.org/white-paper-dbsc-dpop-as-complementary-technologies-to-fido-authentication/
- NPRM on Rules to Prevent SIM Swapping and Port-Out Fraud – FIDO Alliance, acessado em maio 31, 2025, https://fidoalliance.org/wp-content/uploads/2021/11/FIDO-ALLIANCE-Response-to-FCC-SIM-Swap-NPRM-Nov-2021.pdf
- About the security of passkeys – Apple Support, acessado em maio 31, 2025, https://support.apple.com/en-us/102195
- What is a passkey? Why Apple is betting on password-free tech | FIDO Alliance, acessado em maio 31, 2025, https://fidoalliance.org/what-is-a-passkey-password-apple-ios-18-google-microsoft-bank/
- FIDO2 API for Android | Authentication – Google for Developers, acessado em maio 31, 2025, https://developers.google.com/identity/fido/android/native-apps
- FIDO Alliance White Paper: Hardware-backed Keystore Authenticators (HKA) on Android 8.0 or Later Mobile Devices, acessado em maio 31, 2025, https://fidoalliance.org/wp-content/uploads/Hardware-backed_Keystore_White_Paper_June2018.pdf
- About Security Keys for Apple Account, acessado em maio 31, 2025, https://support.apple.com/en-us/102637
- FIDO2 security keys – what attack vectors/weaknesses exist for “bad” keys, acessado em maio 31, 2025, https://security.stackexchange.com/questions/268823/fido2-security-keys-what-attack-vectors-weaknesses-exist-for-bad-keys
- FIDO Security Reference, acessado em maio 31, 2025, https://fidoalliance.org/specs/common-specs/fido-security-ref-v2.1-rd-20210525.html
- Google just patched an actively exploited zero-day flaw — update your Android phone right now | Tom's Guide, acessado em maio 31, 2025, https://www.tomsguide.com/computing/online-security/google-releases-fixes-for-46-android-security-flaws-update-right-now
- Major Android security update patches a host of actively exploited flaws, so download now, acessado em maio 31, 2025, https://www.techradar.com/pro/security/actively-exploited-vulnerabilities-patched-on-android-in-latest-security-update
- SafeNet FIDO Key Manager – Thales CPL, acessado em maio 31, 2025, https://cpl.thalesgroup.com/access-management/authenticators/safenet-fido-key-manager
- Passkeys on Linux: Breaking Free from Platform Lock-in – TuxCare, acessado em maio 31, 2025, https://tuxcare.com/blog/passkeys-on-linux-breaking-free-from-platform-lock-in/
- What is Know Your Transaction (KYT) – Sanction Scanner, acessado em maio 31, 2025, https://www.sanctionscanner.com/knowledge-base/know-your-transaction-kyt-603
- What is Know Your Transaction (KYT)?: A Guide for 2025 – KYC Hub, acessado em maio 31, 2025, https://www.kychub.com/blog/know-your-transaction-kyt/
- Strategies to Combat Deepfake Fraud and Synthetic Identity Threats …, acessado em maio 31, 2025, https://community.nasscom.in/communities/bfsi/strategies-combat-deepfake-fraud-and-synthetic-identity-threats-financial-services
- Advanced Strategies to Combat Deepfake Fraud & Synthetic Identity Threats in Banking – Anaptyss, acessado em maio 31, 2025, https://www.anaptyss.com/blog/advanced-strategies-deepfake-synthetic-identity-fraud-banking/
- Deepfake attacks in mobile banking: A growing threat to app security in 2025 – Promon, acessado em maio 31, 2025, https://promon.io/security-news/deepfake-mobile-banking-apps
- Data Security in the Apple Ecosystem: An Evaluation – ODU Digital Commons, acessado em maio 31, 2025, https://digitalcommons.odu.edu/cgi/viewcontent.cgi?article=1117&context=covacci-undergraduateresearch
- The “Deepfake Defense”: An Evidentiary Conundrum – American Bar Association, acessado em maio 31, 2025, http://www.americanbar.org/groups/judicial/resources/judges-journal/2024-spring/deepfake-defense-evidentiary-conundrum/
- PONTIFÍCIA UNIVERSIDADE CATÓLICA DE MINAS GERAIS Programa de Pós-Graduação em Direito Jamilla Monteiro Sarkis NÃO AUTOINCR – Pergamum, acessado em maio 31, 2025, https://bib.pucminas.br/teses/Direito_JamillaMonteiroSarkis_31078_TextoCompleto.pdf
- Crise de identidade digital? Deepfakes avançam e desafiam limites humanos – é hora de agir – 15/05/2025 – APDADOS, acessado em maio 31, 2025, https://apdados.org/noticia/crise-de-identidade-digital-deepfakes-avancam-e-desafiam-limites-humanos-e-hora-de-agir-15-05-2025
- Soberania já! – Serpro, acessado em maio 31, 2025, https://www.serpro.gov.br/menu/noticias/Tema-edicao-239/soberania-ja