DEEPFAKES: perceção e legalidade com o eIDAS 2.0

confidebat-deepfake

O novo patamar de exigência para a identidade digital, a prova remota de identidade e os serviços de confiança no quadro europeu

Durante muito tempo, o debate em torno dos deepfakes foi tratado sobretudo como um fenómeno mediático, associado à desinformação, à manipulação de imagem ou à criação de conteúdos sintéticos com impacto reputacional. Esse enquadramento continua a ser relevante, mas tornou-se insuficiente.

No domínio da identidade digital, dos serviços de confiança e dos processos de prova de identidade remota, o deepfake passou a representar um problema substancialmente mais crítico. Já não está apenas em causa a falsificação da aparência. Está em causa a integridade do próprio processo de verificação, a fiabilidade da biometria capturada e, em última análise, a confiança jurídica e operacional sobre a qual assentam mecanismos de identificação eletrónica e serviços de confiança.

É neste contexto que a Europa está a consolidar um novo patamar de exigência técnica e regulatória. E esse novo patamar obriga o mercado a olhar para o problema com mais precisão.

🧠 O que está realmente em causa quando se fala em deepfake

O termo deepfake é frequentemente utilizado de forma ampla para descrever conteúdos sintéticos gerados ou manipulados com recurso a inteligência artificial, em especial através de técnicas de deep learning. No entanto, quando transportado para o universo da identidade digital, o conceito ganha uma relevância particularmente crítica.

Nestes contextos, um deepfake não é apenas uma representação artificialmente convincente. Pode ser um instrumento de fraude destinado a influenciar ou comprometer um processo de prova de identidade, simulando a presença, a aparência, os movimentos ou a voz de uma pessoa real. Isso significa que o risco deixou de estar limitado à perceção humana. Passou a incidir diretamente sobre os próprios mecanismos tecnológicos que suportam a validação da identidade.

A questão central já não é, por isso, saber se um conteúdo “parece real”. A questão central é perceber se um sistema é capaz de distinguir, com robustez suficiente, uma interação biométrica legítima de uma interação artificialmente gerada, manipulada ou injetada.

🎭 Do ataque de apresentação ao ataque de injeção biométrica

Durante anos, grande parte da maturidade do mercado biométrico desenvolveu-se em torno da deteção de ataques de apresentação. Falamos, por exemplo, da utilização de fotografias, vídeos em ecrã, máscaras ou outros artefactos físicos apresentados perante uma câmara com o objetivo de enganar o sistema.

Esse universo continua a ser importante. Mas deixou de ser suficiente para descrever a realidade atual da ameaça.

Hoje, uma parte cada vez mais relevante do risco desloca-se para o plano lógico e digital, através daquilo que a CEN/TS 18099 enquadra no contexto dos biometric injection attacks. Nestes cenários, o atacante já não tenta convencer o sensor através de um objeto colocado diante da lente. O que procura é comprometer o fluxo biométrico por via do software, injetando um sinal manipulado, sintético ou previamente preparado diretamente no sistema.

Esta mudança é particularmente importante porque muitos mecanismos tradicionais de deteção foram concebidos para observar o que acontece à frente da câmara, e não necessariamente para validar a integridade do canal digital por onde o conteúdo biométrico circula.

🛡️ Porque a ISO/IEC 30107, só por si, já não basta

A ISO/IEC 30107 teve, e continua a ter, um papel importante na evolução da biometria, sobretudo através do enquadramento de Presentation Attack Detection (PAD). No entanto, a evolução da ameaça veio mostrar que confiar isoladamente nessa referência já não responde, por si só, ao nível de exigência hoje necessário.

O problema não está na relevância da norma, mas no seu âmbito. A transformação do risco biométrico exige agora uma abordagem complementar, capaz de lidar não apenas com artefactos físicos apresentados ao sensor, mas também com a possibilidade de manipulação do próprio canal de captura e transmissão. É precisamente nesse espaço que a CEN/TS 18099 assume particular importância, ao focar-se em ensaio, classificação e avaliação de mecanismos de prevenção e deteção de ataques de injeção biométrica.

Em termos simples: já não basta proteger a câmara. É necessário proteger a cadeia de confiança do sinal biométrico.

⚖️ Quando a exigência técnica passa a ter impacto regulatório direto

É precisamente aqui que a ETSI TS 119 461 v2.1.1 assume especial relevância. Esta especificação técnica aplica-se à prova de identidade e atributos de pessoas singulares para efeitos de prestação de serviços de confiança e introduz requisitos concretos que refletem a nova realidade da ameaça.

Entre esses requisitos, a norma prevê, para determinados cenários de prova remota de identidade com documento de identificação, a captura de vídeo em tempo real, a necessidade de mecanismos que permitam verificar que a interação corresponde a uma pessoa viva presente no momento, a deteção de aparência facial artificialmente gerada ou manipulada e a existência de medidas de prevenção e deteção de biometric injection attacks.

Mais do que uma recomendação técnica, trata-se de um sinal claro de maturidade normativa: o enquadramento europeu deixa de tratar o deepfake como um risco genérico de fraude e passa a tratá-lo como uma ameaça concreta a ser tecnicamente mitigada e demonstrada.

⏳ O significado do prazo de 2026

A ETSI TS 119 461 v2.1.1 vai mais longe ao estabelecer que os mecanismos de deteção de ataques de injeção biométrica devem ser testados por laboratório acreditado segundo a TS 18099 até ao final de 2026, prevendo ainda reavaliação periódica. Para Baseline LoIP, a referência é Level 2 / Substantial; para Extended LoIP, a exigência sobe para Level 3 / High.

Isto significa que 2026 não é apenas um marco temporal abstrato. É um ponto de transição prática para fabricantes, integradores, prestadores de serviços de confiança, soluções de onboarding digital, plataformas de verificação remota e, de forma mais ampla, para todas as entidades que dependam de processos robustos de prova de identidade.

A partir daqui, a robustez biométrica deixa progressivamente de ser uma promessa comercial ou uma funcionalidade técnica opcional. Passa a exigir demonstração objetiva, repetível e auditável.

🔍 O que isto significa para o mercado

As implicações são profundas.

Em primeiro lugar, obriga as organizações a revisitar pressupostos antigos. Muitas soluções que eram apresentadas como robustas com base em mecanismos tradicionais de liveness ou em certificações biométricas anteriores poderão revelar-se insuficientes perante os novos requisitos de deteção de conteúdo sintético e de injeção biométrica.

Em segundo lugar, desloca o centro da discussão para a evidência. O mercado tenderá a valorizar cada vez menos afirmações genéricas sobre segurança biométrica e cada vez mais resultados demonstráveis, ensaios independentes e enquadramento normativo claro.

Em terceiro lugar, introduz uma nova linha de separação entre soluções tecnologicamente interessantes e soluções verdadeiramente preparadas para operar em ecossistemas regulados de confiança digital. Essa diferença será particularmente relevante para quem pretenda atuar em contextos associados a identificação eletrónica, onboarding remoto, serviços de confiança ou ecossistemas interoperáveis de elevada garantia.

✅ Mais do que perceção: confiança demonstrável

Há um ponto essencial que importa reter: o problema dos deepfakes, neste domínio, não é apenas um problema de perceção ou de sofisticação visual. É um problema de confiança demonstrável.

Num ambiente regulado, não basta alegar que o sistema “deteta deepfakes”. É necessário demonstrar como o faz, contra que categorias de ameaça, em que condições foi testado, por quem foi avaliado e em que nível de robustez se posiciona.

Essa mudança é profundamente europeia na sua lógica: menos confiança declarativa, mais confiança verificável; menos dependência de marketing tecnológico, mais dependência de prova técnica e evidência laboratorial.

🏁Conclusão

Estamos a assistir a uma mudança estrutural no modo como a Europa encara a segurança biométrica em processos de identidade digital.

A evolução da ameaça obrigou a refinar conceitos. A maturidade técnica levou ao desenvolvimento de referenciais específicos para ataques de injeção biométrica. E a evolução normativa, em particular através da ETSI TS 119 461 v2.1.1, veio aproximar essa maturidade técnica de uma exigência de conformidade cada vez mais concreta.

Para as organizações que desenvolvem, integram ou utilizam soluções com relevância neste domínio, a mensagem é clara: já não basta parecer tecnologicamente avançado. É necessário demonstrar robustez, auditabilidade e alinhamento com o novo quadro europeu de confiança digital.

Num contexto em que a fraude evolui com rapidez e em que a identidade digital assume um papel cada vez mais central, o verdadeiro diferencial deixa de estar na promessa de segurança. Passa a estar na capacidade de a provar.


Na Apoiamos organizações públicas e privadas na proteção de informação sensível e classificada, na adoção de identidade digital e serviços de confiança no ecossistema eIDAS / eIDAS 2.0, e na implementação de modelos de cibersegurança e Information Assurance, através de Unidades de Negócio especializadas. acompanhamos de forma próxima a evolução técnica, normativa e regulatória associada à identidade digital, à prova remota de identidade, aos serviços de confiança e ao quadro europeu eIDAS.

Se a sua organização desenvolve, integra, utiliza ou avalia soluções com componentes biométricas e relevância para ecossistemas regulados de confiança digital, este é o momento certo para rever pressupostos, avaliar maturidade e preparar evidência técnica robusta para o novo ciclo de exigência europeia.

Quem não tiver uma resposta auditável ficará sumariamente fora dos ecossistemas de identidade digital europeus. O mercado já não aceita promessas; exige evidência laboratorial.


Nota: Este artigo baseia-se nos requisitos técnicos das normas ETSI TS 119 461 v2.1.1 e CEN/TS 18099:2025.


Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *