BR112017004427B1 - método para análise de vivacidade - Google Patents

método para análise de vivacidade Download PDF

Info

Publication number
BR112017004427B1
BR112017004427B1 BR112017004427-7A BR112017004427A BR112017004427B1 BR 112017004427 B1 BR112017004427 B1 BR 112017004427B1 BR 112017004427 A BR112017004427 A BR 112017004427A BR 112017004427 B1 BR112017004427 B1 BR 112017004427B1
Authority
BR
Brazil
Prior art keywords
signal
fact
pixel location
images
image
Prior art date
Application number
BR112017004427-7A
Other languages
English (en)
Other versions
BR112017004427A2 (pt
Inventor
David Hirvonen
Original Assignee
EyeVerify Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=54330842&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=BR112017004427(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by EyeVerify Inc. filed Critical EyeVerify Inc.
Publication of BR112017004427A2 publication Critical patent/BR112017004427A2/pt
Publication of BR112017004427B1 publication Critical patent/BR112017004427B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/36Applying a local operator, i.e. means to operate on image points situated in the vicinity of a given point; Non-linear local filtering operations, e.g. median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Nonlinear Science (AREA)
  • Biomedical Technology (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

A presente invenção refere-se a um sistema para a determinação da vivacidade de uma imagem apresentada para a autenticação, um sinal de referência é processado em um visor, e uma reflexão do sinal processado a partir de um alvo é analisada para determinar vivacidade da mesma. A análise inclui filtragem passa-banda espacial e/ou temporal do sinal refletido, e a determinação de valores RGB para cada quadro do sinal refletido e/ou cada pixel em um ou mais quadros do sinal refletido. As correlações de nível de quadro e/ou pixel a pixel entre os valores RGB determinados e o sinal prestados são calculadas, e uma determinação se uma imagem apresentada é viva ou falsa é feita através de uma ou ambas as correlações.

Description

REFERÊNCIA CRUZADA A PEDIDOS RELACIONADOS
[0001] Este pedido é uma continuação do, e reivindica prioridade para, o Pedido de Patente U.S. N° 14/480.802 pendente, depositado no dia 9 de setembro de 2014, intitulado "Systems and Methods for Liveness Analysis", cuja descrição é aqui incorporada em sua totalidade a título de referência.
CAMPO TÉCNICO
[0002] A presente divulgação refere-se, em geral, à análise de imagem e, em particular, às técnicas de processamento de imagem para detectar se um indivíduo mostrado em uma imagem está vivo.
ANTECEDENTES
[0003] Muitas vezes, é desejável restringir o acesso a bens ou re cursos a indivíduos específicos. Os sistemas biométricos podem ser usados para autenticar a identidade de um indivíduo para conceder ou negar o acesso a um recurso. Por exemplo, os scanners de íris podem ser usados por um sistema de segurança biométrico para identificar um indivíduo com base em estruturas únicas na íris do indivíduo. Tal sistema pode, de maneira errônea, autorizar um impostor, no entanto, se o impostor apresentar para digitalizar uma imagem pré-gravada ou vídeo do rosto de uma pessoa autorizada. Essa imagem ou vídeo falso pode ser exibido em um monitor, como um tubo de raios catódicos (CRT) ou tela de cristal líquido (LCD), em fotografias brilhantes, etc., na frente de uma câmera usada para digitalização. Alguns sistemas de detecção de falsificação podem detectar uma imagem falsa ao verificar o movimento dos olhos. Mas tal sistema pode não ser eficaz na identificação de um vídeo falso que inclui o movimento esperado do olho. São necessários sistemas e métodos aperfeiçoados para a determinação eficiente de imagens e vídeos falsos daqueles fornecidos ao vivo pelas pessoas autorizadas.
SUMÁRIO
[0004] Em várias implementações aqui descritas, as diferenças nas propriedades refletivas de faces reais/autênticas e faces falsas são utilizadas para distinguir faces vivas e autênticas e/ou olhos de imagens/vídeos falsos. Isso é alcançado, em parte, ao fazer um sinal de referência em uma tela mantido na frente de um alvo, que pode ser uma face real ou uma imagem falsa, ao registrar uma reflexão do sinal de referência pelo alvo e ao calcular uma ou mais correlações entre os sinais refletidos e renderizados.
[0005] Por conseguinte, em um aspecto, um método implementa do por computador para determinar se uma imagem real é apresentada para autenticação inclui renderizar, em um dispositivo de exibição, um primeiro sinal que varia no tempo que inclui vários respectivos sinais diferentes que estão separados em fase uns dos outros. O método também inclui capturar, durante a renderização, inúmeras imagens de um alvo que é iluminado pelo primeiro sinal renderizado, e aplicar um filtro passa-banda temporariamente às imagens para gerar uma pluralidade de imagens filtradas. O método inclui ainda extrair um segundo sinal das imagens filtradas e gerar uma primeira medição com base em pelo menos uma correlação temporal do primeiro sinal e do segundo sinal. Além disso, o método inclui, para cada localização de pixel em várias localizações de pixel, extrair um respectivo sinal para a localização de pixel com base nas alterações de um respectivo valor da localização de pixel ao longo do tempo em inúmeras imagens filtradas e calcular uma respectiva pontuação de correlação de localização de pixel para cada uma das localizações de pixel com base em uma correlação do respectivo sinal extraído da localização de pixel para o primeiro sinal. O método inclui ainda gerar uma segunda medição com base pelo menos em várias das pontuações de correlação de localiza- ção de pixel, e aceitar ou rejeitar o alvo com base pelo menos nas primeira e segunda medições.
[0006] Cada respectivo sinal do primeiro sinal pode ter uma cor diferente, e cada uma das cores pode ser processada com o uso de uma mesma frequência. Em algumas implementações, cada respectivo sinal do primeiro sinal é um sinal monocromático diferente, e o primeiro sinal pode ser sinusoidal. Cada respectivo sinal do primeiro sinal pode ser uma curvatura distinta, e as curvaturas podem ser sobrepostas no primeiro sinal. Os respectivos sinais do primeiro sinal podem ser gerados de maneira aleatória. Em algumas implementações, um respectivo valor específico de uma localização de pixel pode ser uma cor.
[0007] Cada imagem pode incluir as inúmeras respectivas ima gens que sofreram, cada uma, uma respectiva transformação, estão em uma respectiva resolução diferente ou incluem uma respectiva banda de frequência espacial diferente que corresponde a um fenômeno de iluminação selecionado. A primeira medição pode ter como base, ainda mais, em se uma fase do primeiro sinal corresponde a uma fase do segundo sinal. A extração de um segundo sinal das imagens filtradas pode incluir a extração do segundo sinal a partir de um respectivo valor de cor dominante de cada uma das imagens filtradas. Em algumas implementações, o método inclui ainda estabilizar o alvo em várias das imagens capturadas e/ou processadas antes de aplicar o filtro passa-banda. O filtro passa-banda pode ser aplicado no domínio da frequência ou no domínio do tempo.
[0008] Em algumas implementações, a geração da segunda medi ção com base pelo menos em um número de resultados de correlação de localização de pixel inclui a combinação das pontuações de correlação de localização de pixel para gerar a segunda medição. O alvo pode ser uma face humana e as pontuações de correlação de localização de pixel combinadas podem ser para as localizações de pixel de uma região específica da face. A região específica da face pode ser determinada com o uso de um ou mais de: (i) análise de imagem dinâmica para evitar, pelo menos em parte, uma ou mais partes da face que estão ocluídas ou superexpostas na pluralidade de imagens e (ii) uma máscara ou um mapa de peso que representa o conhecimento sobre as características da face que são susceptíveis a refletir o primeiro sinal renderizado.
[0009] Cada localização de pixel pode representar vários elemen tos de dados de imagem, alguns ou todos os quais podem estar em resoluções diferentes. Cada localização de pixel pode ser uma combinação ponderada dos respectivos elementos de dados de imagem da localização de pixel. As várias imagens capturadas podem representar uma pirâmide Gaussiana ou uma pirâmide Laplaciana. Uma imagem filtrada particular das imagens filtradas pode representar uma combinação ponderada de um número de níveis de pirâmide. Outras modalidades desse aspecto incluem sistemas, aparelhos e programas de computador correspondentes.
[0010] As implementações particulares do assunto descrito nesse relatório descritivo podem realizar uma ou mais das vantagens a seguir. Por exemplo, a técnica de detecção depende de um sinal de padrão de multiespectro que é processado durante a realização da detecção. As imagens do rosto e/ou do olho de uma pessoa a partir de qualquer vídeo/imagem pré-gravada fornecida para a autenticação são improváveis de se correlacionarem com o sinal de padrão de multies- pectro proporcionado durante a detecção de vivacidade. Além disso, qualquer reflexão do sinal de padrão de multiespectro a partir de uma renderização de tela, tal vídeo/imagem, é provável que seja de natureza diferente da reflexão da face e/ou do olho de uma pessoa viva. Várias implementações aqui descritas podem detectar essas anomalias, como explicado abaixo e, como tal, podem ser mais robustas para dis- tinguir uma pessoa viva e autorizada de vídeos falsos e/ou imagens.
[0011] Os detalhes de uma ou mais modalidades do assunto des crito nesse relatório descritivo são apresentados nos desenhos anexos e na descrição abaixo. Outras características, aspectos e vantagens do assunto tornar-se-ão evidentes a partir da descrição, dos desenhos e das reivindicações.
BREVE DESCRIÇÃO DOS DESENHOS
[0012] O arquivo de patente ou pedido contém pelo menos um de senho executado em cores. As cópias dessa publicação de patente ou pedido de patente com desenho(s) a cores serão fornecidas pelo Escritório mediante pedido e pagamento da taxa necessária; a figura 1 ilustra um procedimento de exemplo para determinar duas medições de vivacidade; as figuras 2(a) a 2(c) representam um exemplo de quadro de vídeo capturado, um quadro de vídeo normalizado e estabilizado correspondente e um quadro filtrado de passa-banda temporal correspondente, respectivamente; as figuras 3(a) a 3(c) representam sinais RGB recuperados de exemplo que correspondem a uma sequência de quadros de vídeo capturados, a resposta de filtro passa-banda dos sinais RGB recuperados e os sinais RGB de referência renderizados correspondentes, respectivamente; as figuras 4(a) a 4(c) representam, de cima para baixo, os periodogramas de transformada rápida de Fourier (FFT) dos sinais re-presentados nas figuras 3(a) a 3(c), respectivamente; a figura 4(d) representa um filtro de Butterworth temporal usado para gerar a resposta de filtro passa-banda ilustrada na figura 3(b); a figura 5(a) ilustra um quadro de imagem normalizada e estabilizada em média de exemplo; as figuras 5(b) a 5(d) representam uma imagem de correlação bidimensional (2D) correspondente, uma imagem de correlação processada e uma imagem de saturação correspondente, respectivamente; a figura 5(e) representa um exemplo de máscara facial; as figuras 5(f) a 5(k) representam quadros de vídeo capturados de exemplo, que correspondem a um ciclo completo de um sinal RGB de referência, com o uso do qual, a imagem de correlação 2D ilustrada na figura 5(b) é calculada; a figura 6 representa uma configuração de exemplo de um monitor LCD que renderiza uma imagem falsa e um telefone que capta e analisa a imagem falsa; a figura 7 ilustra outra configuração de exemplo de um monitor LCD que representa uma imagem falsa e um telefone que capta e analisa a imagem falsa; as figuras 8(a) a 8(k) representam um quadro de imagem média falsa capturada a partir de um monitor LCD configurado como mostrado na figura 6, a imagem de correlação 2D correspondente e quadros de vídeo, que correspondem a um ciclo completo do sinal RGB, com o uso dos quais, a imagem de correlação 2D ilustrada na figura 8(b) é calculada; as figuras 9(a) a 9(k) representam um quadro de imagem média falsa capturada a partir de um monitor LCD configurado como mostrado na figura 7, a imagem de correlação 2D correspondente e quadros de vídeo, que correspondem a um ciclo completo do sinal RGB, com o uso dos quais, a imagem de correlação 2D ilustrada na figura 9(b) é calculada; as figuras 10(a) a 10(c) representam os sinais RGB recuperados que correspondem à sequência de quadros de vídeo falsos capturados mostrados nas figuras 9(f) a 9(k), resposta de filtro passa- banda dos sinais RGB recuperados e os sinais RGB de referência renderizados correspondentes, respectivamente; as figuras 11(a) a 11(c) representam, de cima para baixo, periodogramas de transformação de Fourier rápida (FFT) dos sinais representados nas figuras 10(a) a 10(c), respectivamente; a figura 11(d) representa um filtro de Butterworth temporal usado para gerar a resposta de filtro passa-banda ilustrada na figura 10(b); a figura 12 representa padrões Moiré associados a uma imagem falsa; a figura 13 ilustra outro exemplo de procedimento para detectar a vivacidade de um olho; as figuras 14(a) e 14(b) descrevem um exemplo de olho que reflete um telefone que capta uma imagem do olho e a imagem de correlação 2D correspondente, respectivamente; a figura 15(a) mostra a imagem falsa representada na figura 12 com uma resolução mais alta; as figuras 15(b) e 15(c) mostram uma porção cortada de alta resolução da imagem representada na figura 15(a) e a correlação 2D local, calculada de acordo com o procedimento mostrado na figura 13.
[0013] Os números de referência e as designações semelhantes nos vários desenhos indicam elementos semelhantes.
DESCRIÇÃO DETALHADA
[0014] A figura 1 ilustra um quadro geral para calcular duas medi ções que podem ser usadas para distinguir entre as imagens de um olho obtidas de uma pessoa real, viva e uma falsa (por exemplo, as imagens ou vídeo previamente capturados de uma pessoa viva). Na etapa 102, um padrão multiespectral é processado no dispositivo de exibição, de tal modo que a face (ou "alvo") de uma pessoa é ilumina- da pelo padrão. Em algumas implementações, o padrão é exibido por cerca de um segundo, mas outras durações são possíveis. O dispositivo de exibição pode ser o dispositivo de exibição de um aparelho de processamento de dado como, por exemplo, um smartphone, óculos inteligentes, um relógio inteligente, um computador tablet, um computador portátil, etc. As imagens do alvo iluminado pelo padrão multies- pectral são capturadas por uma câmara digital na etapa 104. Em algumas implementações, a câmara digital é uma câmara digital virada para frente do aparelho de processamento de dados. Outras câmeras digitais podem ser usadas, incluindo câmeras digitais em outros dispositivos.
[0015] Em várias implementações, o padrão multiespectral inclui três sinais sinusoidais sobrepostos. Por exemplo, as curvaturas vermelhas, verdes e azuis (RGB) podem ser usadas para combinar as sensibilidades dos filtros nativos para cada canal de cor em câmeras digitais de padrão Bayer comuns. Os sinais sinusoidais podem ser processados substancialmente em uma única frequência, de modo que um único filtro passa-banda pode ser utilizado para análise subsequente (descrito abaixo). Além disso, os três sinais sinusoidais podem ser separados de maneira uniforme em fase através dos três canais de cor (por exemplo, vermelho = 0, verde = (2*pi)/3 e azul = (2*pi)*2/3), para melhorar a capacidade de separação do sinal recuperado e reduzir as lacunas de iluminação que podem exacerbar os efeitos de piscar que podem ser desconfortáveis para alguns usuários. Em uma imple-mentação, uma frequência de cerca de 4 Hz é utilizada, que está abaixo do limite para epilepsia fotossensível, contudo, é suficientemente rápida para ser facilmente separável do ruído típico de iluminação de baixa frequência em um curto período de tempo. Outros padrões mul- tiespectrais podem ser utilizados, além das curvaturas RGB, incluindo padrões com menos ou mais sinais de componente, uma curvatura vermelha e azul, por exemplo.
[0016] Um sinal de vídeo que inclui as imagens capturadas pela câmara digital é registado na etapa 104. Em algumas implementações, o sinal de vídeo é um clipe de vídeo de 0,75 segundo a aproximadamente 25 Hz, isto é, 25 quadros/segundo. Outras durações e taxas de quadros são possíveis. Na etapa 106, cada quadro no sinal de vídeo gravado pode ser marcado com o valor (por exemplo, o valor RGB) do padrão que está sendo renderizado no dispositivo de exibição na etapa 102 aproximadamente no momento em que a imagem foi capturada. Os metadados de arquivo de imagem (EXIF) intercambiáveis (ou outros metadados) também podem ser armazenados na etapa 106e, em geral, para fornecer uma medição de iluminação ambiente para o ajuste de limite automático. Os metadados podem incluir o brilho do ambiente, o tempo de exposição, a configuração ISO e/ou o valor de abertura.
[0017] Em algumas implementações, a estabilização de vídeo (re gistro e deformação) pode ser realizada no sinal de vídeo gravado na etapa 108 para mapear os pontos na cena para um sistema de coordenadas de referência comum. Após a estabilização e a deformação, os quadros podem ser convertidos e, um espaço de cor RGB normalizado para reduzir a sensibilidade às sombras e outros artefatos de iluminação no ambiente e, assim, um sinal de vídeo estabilizado e normalizado é obtido na etapa 108.
[0018] Na etapa 110, o vídeo estabilizado e normalizado é proces sado com o uso de um filtro passa-banda temporário que é sintonizado com a frequência da curvatura processada, por exemplo, 4 Hz em um exemplo. A título ilustrativo, o filtro pode ser aplicado a pirâmides gau- ssianas que correspondem aos quadros de vídeo estabilizados e normalizados. A filtragem passa-banda temporal pode ser realizada para isolar a partir do sinal normalizado obtido na etapa 108, um sinal de resposta que corresponde ao padrão multiespectral processado na etapa 102. Por fim, o sinal de vídeo filtrado passa-banda é comparado ao padrão multiespectral previamente renderizado, por exemplo, em escalas diferentes, para obter: (1) um quadro global com base na correlação temporal na etapa 112 e/ou (2) uma correlação no sentido do pixel local na etapa 114, como descrito abaixo.
[0019] De modo a calcular uma medição de correlação temporal global, cada quadro do sinal de resposta filtrado obtido na etapa 110 pode ser representado com um valor RGB dominante, na etapa 122. O valor RGB dominante atribuído na etapa 122 deverá corresponder à cor de padrão multiespectral de valor RGB renderizado, como representado pelos valores RGB marcados para o sinal de vídeo registrado na etapa 106. A título ilustrativo, os valores RGB dominantes podem ser calculados através de um modo robusto a partir de um histograma de cromaticidade ou como uma média ponderada de valores de pixel para cada quadro. Outras formas de determinar o valor RGB dominante são possíveis.
[0020] Uma imagem de saturação média é calculada a partir do sinal de resposta filtrado (etapa 110) e pode ser utilizada para fornecer os pesos para o método da média ponderada (etapa 122). Em algumas implementações, a imagem de saturação média é a distância de uma imagem cinzenta que corresponde ao quadro a ser processado. A imagem de saturação bidimensional (2D) resultante é proporcional à intensidade de padrão multiespectral RGB refletido. Em seguida, na etapa 124, uma retirada de tendência linear é realizada de maneira independente em cada um dos sinais estimados vermelhos, verdes e azuis, de modo a remover qualquer componente de rampa dos dados, tornando-o mais adequado para a comparação com o sinal de padrão multiespectral RGB de referência. A retirada de tendência linear pode ser calculada com o uso de um m-estimador linear, por exemplo.
[0021] A figura 3(a) mostra um exemplo de sinal RGB global. O sinal é chamado de "global" porque representa os valores RGB dominantes correspondentes a um quadro e não a qualquer pixel particular naquele quadro. Na etapa 126, esse sinal global é processado com um filtro Butterworth passa-banda temporal no domínio da frequência para extrair a frequência apropriada que corresponde ao sinal registrado. As figuras 2(b) e 2(c) mostram o sinal RGB filtrado e o sinal de referência renderizado (isto é, o padrão multiespectral RGB), respectivamente. Esses dois sinais são comparados na etapa 128 com o uso de uma correlação cruzada normalizada, e o valor resultante, denotado nxcorr, indica uma primeira medição de vivacidade. Em uma implementação, uma pequena pesquisa temporal unidimensional (1D) é realizada na etapa 128 para compensar a latência no controlador da câmara, que pode causar uma pequena mudança entre os sinais RGB medidos e processados. A pesquisa é uma pesquisa 1D, porque cada ponto na forma de onda combinada na figura 2(a) representa um quadro inteiro. As figuras 4(a) a 4(c) descrevem periodogramas de transformada de Fourier rápida (FFT) dos sinais representados nas figuras 3(a) a 3(c), respectivamente Correlação no sentido de Pixel Local
[0022] Na etapa 114, é calculada uma média espacial de correla ção cruzada normalizada temporal local calculada em cada localização de pixel na resposta de vídeo filtrada (isto é, o sinal obtido na etapa 110 por filtragem do sinal registado estabilizado e normalizado através do filtro passa-banda temporal). A média espacial pode produzir uma imagem de correlação 2D (por exemplo, em um intervalo [-1 ... +1]) que pode indicar com que precisão cada pixel na resposta filtrada corresponde ao sinal RGB gerado. Por exemplo, a figura 5(b) mostra uma imagem de correlação que corresponde a uma imagem registada estabilizada e normalizada de exemplo representada na figura 5(a). A figura 5(c) mostra uma imagem de correlação 2D processada obtida, por exemplo, ao selecionar o máximo de imagens de correlação esquerda e direita, como descrito abaixo. Para calcular uma correlação 2D, pode ser aplicada uma máscara facial na etapa 132, por exemplo, para restringir o processamento à parte de pele da face e para remover, desse modo, as características escuras da face com albedo baixo e/ou para remover o ruído de movimento independente dos olhos. A figura 5(e) representa um exemplo de máscara facial. Uma correlação de pixel a pixel local é, em seguida, calculada na etapa 134, por exemplo, para cada uma das imagens ilustradas nas figuras 5(f) a 5(k). Essas imagens correspondem a um ciclo completo do padrão multies- pectral RGB e as respectivas correlações de pixel a pixel podem ser calculadas e processadas para obter a imagem de correlação 2D final ilustrada na figura 5(c).
[0023] Em algumas implementações, ao calcular a correlação de pixel a pixel local, o atraso de fase recuperada a partir da correlação global acima pode ser utilizado na etapa 134 para evitar a necessidade de uma pesquisa de correlação dispendiosa nos dados volumétricos que correspondem aos valores estabilizados e normalizados obtidas na etapa 110. Em algumas implementações, os valores médios normalizados de correlação espacial cruzada são calculados de maneira separada, nas etapas 136, 138, respectivamente, para os lados esquerdo e direito da máscara facial. O máximo das duas correlações espaciais pode ser selecionado na etapa 140. Isso pode proporcionar uma medição de correlação mais robusta do que uma única média, uma vez que as condições de iluminação extremas são frequentemente limitadas a apenas um lado da face. Em alternativa, a média global para todos os pixels da máscara facial pode ser usada se o valor de brilho ambiente dos metadados EXIF for baixo o suficiente para tornar a sa-turação improvável, como pode ser encontrado na maioria dos ambi- entes internos. A figura 5(d) ilustra uma imagem de saturação que cor-responde à imagem de correlação 2D ilustrada na figura 5(c). A média final da medição de correlação local, denotada nxcorr2, pode ser uma segunda medição de vivacidade.
[0024] Tipicamente, a pele de uma face real proporciona reflexão relativamente difusa com albedo elevado e, como tal, o valor de correlação em cada pixel pode ser elevado. A imagem de correlação tende a ser bastante uniforme, com uma variância espacial relativamente baixa. Em contraste, quando um monitor de vídeo é usado para a reprodução de impostor, o monitor tende a comportar-se como um espelho e, dependendo do ângulo de reflexão da luz emitida a partir da tela de exibição em que o padrão RGB multiespectral é processado, a luz ou é refletida principalmente de volta de modo local em uma pequena porção da imagem da face capturada (como ilustrado na figura 6) ou refletida afastada da tela de exibição, como mostrado na figura 7.
[0025] Por exemplo, a figura 8(a) representa uma imagem de im postor capturada que é exibida em uma tela LCD em frente ao dispositivo ao qual o acesso deve ser autorizado (por exemplo, um telefone), como mostrado na figura 6. As figuras 8(b) e 8(c) mostram as imagens de correlação 2D correspondentes, a figura 8(d) mostra a imagem de saturação correspondente, a figura 8(e) mostra a máscara facial aplicada, e as figuras 8(f) a 8(k) descrevem várias imagens de imagem capturadas que correspondem a um ciclo completo do padrão multies- pectral RGB fornecido como mostrado na etapa 102 na figura 1. Nesse exemplo, a segunda medição nxcorr2 é alta (cerca de 0,63), porque a tela LCD é mantida paralela ao telefone usado para capturar as imagens e porque a tela LCD funciona como um espelho. A primeira medição nxcorr, isto é, a correlação global, é baixa, no entanto, indicando que as imagens capturadas provavelmente não são obtidas de uma fonte viva. Se a tela LCD que exibe as imagens de impostor for manti- da em um ângulo em relação à tela usada para renderizar o padrão RGB multiespectral, como mostrado na figura 7, por exemplo, espera- se que ambos os valores nxcorr2 e nxcorr sejam baixos, isto é, inferiores a um limite selecionado, tal como 0,5, 0,4, 0,3, etc. Um exemplo típico que corresponde a esse caso, em que a luz é refletida para longe da câmara, é ilustrado nas figuras 9(a) a 9(k). Nesse caso, nem as medições de correlação globais nem as médias locais correspondem ao sinal RGB esperado, em geral, fazendo com que ambas as medições nxcorr e nxcorr2 sejam baixas. Como tal, o sinal de resposta filtrado obtido na etapa 124 pode ser muito ruidoso, como o sinal 1D RGB mostrado nas figuras 10(a) a 10(c) ilustra.
[0026] Além de explorar as propriedades semelhantes a espelhos de muitas telas de reprodução de vídeo, as medições de correlação podem refletir outras anomalias de uma reprodução de vídeo, por exemplo, amostras de artefatos, tais como bandas verticais nas imagens de saída filtradas em passa-banda temporal, como pode ser visto nos últimos seis quadros na figura 9. Em uma implementação, uma FFT normalizada para cada sinal de cor representado no sinal de resposta filtrado é um forte indicador de que o indivíduo é um impostor, como pode ser visto na figura 11. As três linhas superiores são os pe- riodogramas correspondentes aos canais de cor vermelha, verde e azul, obtidos a partir do sinal de resposta filtrado (obtido na etapa 110, figura 1). A linha final é um filtro Butterworth de passagem temporária ajustado para o período esperado do sinal no vídeo gravado. Uma relação baixa do sinal de passagem de banda filtrado para a energia total do sinal é outra medição que pode ser usada para detectar casos de impostor.
[0027] A análise de reflexos a partir da tela LCD mantida na frente do dispositivo de captura de imagem (por exemplo, uma câmera de telefone celular) pode ser usada para ajudar na detecção de um im postor quando, por exemplo, nxcor2 é alto, mas nxcorr é baixo, como descrito com referência às figuras 8(a) a 8(k). Por exemplo, as figuras 12(a) a 12(c) mostram uma imagem falsa exibida em uma tela LCD mantida na frente de uma câmera, uma imagem cortada da região da face próxima ao olho e uma imagem de borda que corresponde à imagem cortada, representando uma imagem de reflexão do telefone que foi usado para capturar a imagem falsa exibida na tela LCD. Outro artefato é os padrões de textura do monitor que são visíveis na imagem de correlação 2D, como pode ser visto na figura 12(d). Um classificador 2D, como um classificador Haar, pode ser treinado para identificar os padrões na imagem de correlação que são exclusivos de casos de impostor. Em geral, em várias implementações, uma classificação au-têntica é retornada se, e somente se, a correlação global (nxcorr) e a correlação global (nxcorr2) excederem um limite predeterminado.
[0028] A figura 13 ilustra outra técnica de detecção de impostor que tem a vantagem das propriedades refletoras de um olho típico. Especificamente, a etapa 1302 de renderização de um padrão multi- espectral RGB, a etapa 1304 de captura de um sinal de vídeo, a etapa 1306 de marcação de cada quadro com um valor RGB e a etapa 1306 de estabilização do sinal de vídeo gravado e marcado são realizadas de forma semelhante como descrito acima com referência à figura 1. Em seguida, na etapa 1308, uma decomposição de passa-banda espaço-temporal é realizada para explorar as propriedades refletivas convexas do olho. Observa-se que um olho, tipicamente, tem uma superfície refletora convexa de modo que cada estrutura de imagem capturada na etapa 1304 inclui uma imagem espelhada reduzida do ambiente do olho, que pode incluir uma imagem compacta do padrão RGB processado em uma tela de exibição na etapa 1302.
[0029] Na etapa 1310, os filtros passa-banda temporais são apli cados a uma pirâmide laplaciana que corresponde aos sinais estabili- zados e marcados. A pirâmide laplaciana pode fornecer uma decomposição espacial de passa-banda do vídeo de entrada para ajudar a isolar as frequências espaciais primariamente elevadas do padrão mul- tiespectral RGB refletido a partir do olho.
[0030] Uma imagem de correlação 2D de pixel a pixel local é, em seguida, produzida através de correlação cruzada normalizada temporal entre o sinal de referência e a saída filtrada por passa-banda de vídeo, na etapa 1312. Uma média local em uma pequena vizinhança do pico dominante pode ser utilizada como uma medição de vivacidade adicional. Em geral, essa abordagem pode detectar a vivacidade dos olhos em oposição à detecção da vivacidade da face com o uso das primeira e segunda medições descritas acima. Em uma correlação de pixel a pixel local para apenas a região do olho de um olho real autêntico, espera-se apenas um ponto brilhante que corresponde à reflexão do sinal RGB produzido pela pupila do olho, como pode ser visto nas figuras 14 (a) e 14 (b). Se vários pontos forem observados ou pontos não forem detectados, determina-se que as imagens capturadas são provavelmente fornecidas por um impostor.
[0031] Os sistemas e técnicas aqui descritos podem ser implemen tados em um sistema de computação que inclui um componente final (por exemplo, como um servidor de dados) ou que inclui um componente de middleware (por exemplo, um servidor de aplicativo) ou que inclui um componente inicial (por exemplo, um computador cliente com uma interface gráfica de usuário ou um navegador da Web através do qual um usuário pode interagir com uma implementação dos sistemas e técnicas aqui descritos), ou qualquer combinação de tais componentes finais, middleware ou iniciais. Os componentes do sistema podem ser interligados por qualquer forma ou meio de comunicação de dados digitais (por exemplo, uma rede de comunicação). Os exemplos de redes de comunicação incluem uma rede de área local ("LAN"), uma re- de de área ampla ("WAN") e a Internet.
[0032] O sistema de computação pode incluir clientes e servidores. Um cliente e um servidor são, em geral, remotos entre si e podem interagir através de uma rede de comunicação. A relação de cliente e servidor surge em virtude de programas de computador sendo executados nos respectivos computadores e que têm uma relação cliente- servidor entre si. Inúmeras modalidades foram descritas. No entanto, deve-se entender que várias modificações podem ser feitas sem se afastar do espírito e do âmbito da invenção.
[0033] As modalidades do assunto e as operações descritas nesse relatório descritivo podem ser implementadas em circuitos eletrônicos digitais, ou em software de computador, firmware ou hardware, incluindo as estruturas reveladas nesse relatório descritivo e os seus equivalentes estruturais, ou em combinações de um ou mais desses. As modalidades do assunto descrito nesse relatório descritivo podem ser implementadas como um ou mais programas de computador, isto é, um ou mais módulos de instruções de programas de computador, codificados em meio de armazenamento de computadores para execução por, ou para controlar o funcionamento de aparelho de processamento de dados. Em alternativa ou adicionalmente, as instruções do programa podem ser codificadas em um sinal propagado gerado artificialmente, por exemplo, um sinal elétrico, óptico ou eletromagnético gera-do pela máquina, que é gerado para codificar a informação para transmissão a um aparelho receptor apropriado para execução por um aparelho de processamento de dados. Um meio de armazenamento de computador pode ser ou ser incluído em um dispositivo de armazenamento legível por computador, em um substrato de armazenamento legível por computador, em uma matriz ou dispositivo de memória de acesso aleatório ou em série ou em uma combinação de um ou mais desse. Além disso, enquanto um meio de armazenamento de compu- tador não é um sinal propagado, um meio de armazenamento de computador pode ser uma fonte ou destino de instruções de programas de computador codificadas em um sinal propagado gerado artificialmente. O meio de armazenamento do computador também pode ser ou ser incluído em um ou mais componentes físicos ou mídia separados (por exemplo, vários CDs, discos ou outros dispositivos de armazenamento).
[0034] As operações descritas desse relatório descritivo podem ser implementadas como operações realizadas por um aparelho de processamento de dados em dados armazenados em um ou mais dispositivos de armazenamento legíveis por computador ou recebidos de outras fontes.
[0035] O termo "aparelho de processamento de dados" engloba todos os tipos de aparelhos, dispositivos e máquinas para processamento de dados, incluindo, por exemplo, um processador programável, um computador, um sistema em um chip ou múltiplos, ou combinações dos anteriores. O aparelho pode incluir circuitos lógicos de finalidade especial, por exemplo, um FPGA (arranjo de portas programável em campo) ou um ASIC (circuito integrado de aplicação específica). O aparelho também pode incluir, além do hardware, o código que cria um ambiente de execução para o programa de computador em questão, por exemplo, um código que constitui um firmware de processador, uma pilha de protocolos, um sistema de gestão de banco de dados, um sistema operacional, um ambiente de tempo de execução multipla- taforma, uma máquina virtual, ou uma combinação de um ou mais desses. O aparelho e o ambiente de execução podem realizar várias infraestruturas de modelo de computação diferentes, tais como serviços web, computação distribuída e infraestruturas de computação em grade.
[0036] Um programa de computador (também conhecido como programa, software, aplicativo de software, script ou código) pode ser escrito em qualquer forma de linguagem de programação, incluindo linguagens compiladas ou interpretadas, linguagens declarativas ou processuais e pode ser implementado de qualquer forma, Incluindo como um programa autônomo ou como um módulo, componente, sub- rotina, objeto ou outra unidade adequada para uso em um ambiente de computação. Um programa de computador pode, mas não precisa, corresponder a um arquivo em um sistema de arquivos. Um programa pode ser armazenado em uma parte de um arquivo que contém outros programas ou dados (por exemplo, um ou mais scripts armazenados em um recurso de linguagem de marcação), em um único arquivo dedicado ao programa em questão ou em vários arquivos coordenados, arquivos que armazenam um ou mais módulos, subprogramas, ou partes de código). Um programa de computador pode ser implementado para ser executado em um computador ou em vários computadores que estão localizados em um local ou distribuídos em vários locais e interligados por uma rede de comunicação.
[0037] As modalidades do assunto descrito nesse relatório descri tivo podem ser implementadas em um sistema de computador que inclui um componente final, por exemplo, como um servidor de dados, ou que inclui um componente de middleware, por exemplo, um servidor de aplicativos, ou que inclui um componente inicial, por exemplo, um computador cliente que tem uma interface de usuário gráfica ou um navegador da web por meio do qual um usuário pode interagir com uma implementação do assunto descrito no presente relatório descritiva, ou qualquer combinação de uma ou mais tais de componente final, middleware, ou inicial. Os componentes do sistema podem ser ligados entre si por qualquer forma ou meio de comunicação de dados digitais, por exemplo, uma rede de comunicação. Os exemplos de redes de comunicação incluem uma rede local ("LAN") e uma rede de área am- pla ("WAN"), uma inter-rede (por exemplo, a Internet) e redes ponto a ponto (por exemplo, redes ponto a ponto com essa finalidade).
[0038] O sistema de computação pode incluir clientes e servidores. Um cliente e um servidor são, em geral, remotos a partir de cada um dos outros e podem interagir através de uma rede de comunicação. A relação de cliente e servidor surge em virtude dos programas de computador que funcionam nos respectivos computadores e que têm uma relação cliente-servidor um ao outro. Em algumas modalidades, um servidor transmite dados (por exemplo, uma página HTML) para um dispositivo cliente (por exemplo, para fins de apresentação de dados para receber a entrada de usuário e a partir de um usuário que interage com o dispositivo do cliente). Os dados gerados no dispositivo cliente (por exemplo, um resultado da interação do usuário) podem ser recebidos a partir do dispositivo cliente no servidor.
[0039] Um sistema de um ou mais computadores pode ser confi gurado para realizar as operações ou ações específicas em virtude de ter de software, firmware, hardware, ou uma combinação dos mesmos instalados no sistema que, em funcionamento, faz com que o sistema realize as ações. Um ou mais programas de computador podem ser configurados para realizar operações ou ações particulares em virtude de incluir instruções que, quando executadas por um aparelho de processamento de dados, fazem com que o aparelho execute as ações.
[0040] Embora esse relatório descritivo contenha muitos detalhes específicos de implementação, esses não devem ser interpretados como limitações do âmbito de quaisquer invenções ou do que pode ser solicitado, mas sim como descrições de características específicas a modalidades específicas de invenções particulares. Certas características que são descritas no presente relatório descritivo, no contexto de modalidades separadas, também podem ser implementadas em combinação em uma única modalidade. Por outro lado, várias característi- cas que são descritas no contexto de uma única modalidade podem também ser implementadas em várias modalidades de maneira separada ou em qualquer subcombinação adequada. Além disso, embora as características possam ser descritas acima como atuando em certas combinações e ainda inicialmente reivindicadas como tal, uma ou mais características de uma combinação reivindicada, em alguns casos, podem ser excisadas a partir da combinação, e a combinação reivindicada pode ser direcionada a uma subcombinação ou variação de uma subcombinação.
[0041] Do mesmo modo, embora as operações sejam representa das nos desenhos em uma ordem específica, isso não deve ser entendido como requerendo que essas operações sejam realizadas na ordem específica mostrada ou em ordem sequencial, ou que todas as operações ilustradas sejam realizadas para alcançar os resultados desejados. Em certas circunstâncias, o processamento de múltiplas tarefas e paralelo pode ser vantajoso. Além disso, a separação dos vários componentes do sistema nas modalidades descritas acima não deve ser entendida como requerendo tal separação em todas as modalidades, e deve ser entendido que os componentes e sistemas de programa descritos podem ser, em geral, integrados juntos em um único produto de software ou empacotado em vários produtos de software.
[0042] Assim, as modalidades específicas do assunto têm sido descritas. Outras modalidades estão dentro do âmbito das reivindicações a seguir. Em alguns casos, as ações enumeradas nas reivindicações podem ser realizadas em uma ordem diferente e ainda alcançar os resultados desejáveis. Além disso, os processos descritos nas figuras anexas não exigem, necessariamente, a ordem específica mostrada, ou ordem sequencial, para obter os resultados desejáveis. Em certas implementações, o processamento de múltiplas tarefas e paralelo pode ser vantajoso.

Claims (21)

1. Método implementado por computador, caracterizado pelo fato de que compreende: renderizar, em um dispositivo de exibição, um primeiro sinal que varia no tempo, que compreende uma pluralidade de diferentes respectivos sinais que são separados em fase uns com os outros; durante a renderização, capturar uma pluralidade de imagens de um alvo que é iluminado pelo primeiro sinal renderizado; aplicar um filtro passa-banda de modo temporal às imagens para gerar uma pluralidade de imagens filtradas; extrair um segundo sinal a partir das imagens filtradas; gerar uma primeira medição com base em pelo menos uma correlação temporal do primeiro sinal e do segundo sinal; para cada localização de pixel em uma pluralidade de localizações de pixel, extrair um respectivo sinal para a localização de pixel com base em alterações a um respectivo valor da localização de pixel ao longo do tempo em uma pluralidade das imagens filtradas; calcular uma respectiva pontuação de correlação de localização do pixel para cada uma das localizações de pixel com base em uma correlação entre o respectivo sinal extraído da localização do pixel para o primeiro sinal; gerar uma segunda medição com base em pelo menos uma pluralidade das pontuações de correlação de localização de pixel; e aceitar ou rejeitar o alvo com base pelo menos nas primeira e segunda medições.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que cada respectivo sinal do primeiro sinal é de uma cor diferente.
3. Método, de acordo com a reivindicação 2, caracterizado pelo fato de que cada uma das cores é processada com o uso de uma mesma frequência.
4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que cada respectivo sinal do primeiro sinal é um sinal monocromático diferente.
5. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o primeiro sinal é sinusoidal.
6. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que cada respectivo sinal do primeiro sinal é uma curvatura distinta e em que as curvaturas são sobrepostas no primeiro sinal.
7. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que os respectivos sinais do primeiro sinal são gerados de maneira aleatória.
8. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que um respectivo valor específico de uma localização de pixel é uma cor.
9. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que cada imagem compreende uma pluralidade de respectivas imagens que são, cada uma, respectivamente transformadas em uma respectiva resolução diferente, ou compreendem uma respectiva banda de frequência espacial diferente que corresponde a um fenômeno selecionado de iluminação.
10. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a primeira medição se baseia ainda no fato de que uma fase do primeiro sinal corresponde a uma fase do segundo sinal.
11. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a extração de um segundo sinal a partir das imagens filtradas compreende a extração do segundo sinal a partir de um respectivo valor da cor dominante de cada uma das imagens filtradas.
12. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende adicionalmente a estabilização do alvo na pluralidade de imagens antes de aplicar o filtro passa-banda.
13. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o filtro passa-banda é aplicado no domínio da frequência ou no domínio do tempo.
14. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a geração da segunda medição com base em pelo menos uma pluralidade das pontuações de correlação de localização de pixel compreende combinar as pontuações de correlação de localização de pixel para gerar a segunda medição.
15. Método, de acordo com a reivindicação 14, caracterizado pelo fato de que o alvo é uma face humana e em que as pontuações de correlação de localização de pixel combinadas são para as localizações de pixel de uma região específica da face.
16. Método, de acordo com a reivindicação 15, caracterizado pelo fato de que a região específica da face é determinada com o uso de pelo menos um de: (i) análise de imagem dinâmica a fim de evitar, pelo menos em parte, uma ou mais partes da face que são oclu- ídas ou superexpostas na pluralidade de imagens, e (ii) uma máscara ou um mapa de peso que representa o conhecimento sobre as características da face que são susceptíveis de refletir o primeiro sinal processado.
17. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que cada localização de pixel representa uma respectiva pluralidade de elementos de dados de imagem.
18. Método, de acordo com a reivindicação 17, caracterizado pelo fato de que uma pluralidade dos elementos de dados de imagem está em diferentes resoluções.
19. Método, de acordo com a reivindicação 18, caracterizado pelo fato de que cada localização de pixel é uma combinação ponderada dos respectivos elementos de dados de imagem da locali- zação do pixel.
20. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a pluralidade de imagens capturadas representa uma pirâmide Gaussiana ou uma pirâmide laplaciana.
21. Método, de acordo com a reivindicação 20, caracterizado pelo fato de que uma imagem filtrada específica das imagens filtradas representa uma combinação ponderada de uma pluralidade de níveis de pirâmide.
BR112017004427-7A 2014-09-09 2015-09-09 método para análise de vivacidade BR112017004427B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/480,802 US9396537B2 (en) 2014-09-09 2014-09-09 Systems and methods for liveness analysis
US14/480,802 2014-09-09
PCT/US2015/049195 WO2016040487A2 (en) 2014-09-09 2015-09-09 Systems and methods for liveness analysis

Publications (2)

Publication Number Publication Date
BR112017004427A2 BR112017004427A2 (pt) 2017-12-05
BR112017004427B1 true BR112017004427B1 (pt) 2021-01-19

Family

ID=54330842

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112017004427-7A BR112017004427B1 (pt) 2014-09-09 2015-09-09 método para análise de vivacidade

Country Status (13)

Country Link
US (2) US9396537B2 (pt)
EP (1) EP3192008B1 (pt)
JP (1) JP6257840B2 (pt)
KR (1) KR101902136B1 (pt)
CN (1) CN107077602B (pt)
AU (2) AU2015315156A1 (pt)
BR (1) BR112017004427B1 (pt)
CA (1) CA2960397C (pt)
ES (1) ES2688399T3 (pt)
MX (1) MX359546B (pt)
RU (1) RU2671540C2 (pt)
SG (1) SG11201701855RA (pt)
WO (1) WO2016040487A2 (pt)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230091381A1 (en) * 2021-09-17 2023-03-23 Jumio Corporation Spoof detection using eye boundary analysis

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015157021A1 (en) 2014-04-07 2015-10-15 Eyeverify, Llc Bio leash for user authentication
US10614204B2 (en) 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
US10698995B2 (en) * 2014-08-28 2020-06-30 Facetec, Inc. Method to verify identity using a previously collected biometric image/data
US11256792B2 (en) * 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
US9934443B2 (en) * 2015-03-31 2018-04-03 Daon Holdings Limited Methods and systems for detecting head motion during an authentication transaction
RU2715521C2 (ru) 2015-06-16 2020-02-28 Айверифай Инк. Системы и способы для обнаружения обманных объектов и анализа жизненности
CN107135348A (zh) 2016-02-26 2017-09-05 阿里巴巴集团控股有限公司 拍摄对象的识别方法、装置、移动终端和照相机
US10111103B2 (en) 2016-03-02 2018-10-23 EyeVerify Inc. Spoof detection using proximity sensors
FR3053499B1 (fr) 2016-06-29 2018-06-29 Safran Identity & Security Procede et dispositif de detection de fraude par examen a deux focales distinctes lors d'une reconnaissance automatique d'un visage
WO2018079031A1 (ja) 2016-10-31 2018-05-03 日本電気株式会社 画像処理装置、画像処理方法、顔認証システム、プログラム及び記録媒体
US10204262B2 (en) 2017-01-11 2019-02-12 Microsoft Technology Licensing, Llc Infrared imaging recognition enhanced by 3D verification
US10372974B2 (en) 2017-01-11 2019-08-06 Microsoft Technology Licensing, Llc 3D imaging recognition by stereo matching of RGB and infrared images
US10679083B2 (en) 2017-03-27 2020-06-09 Samsung Electronics Co., Ltd. Liveness test method and apparatus
CN108694357A (zh) * 2017-04-10 2018-10-23 北京旷视科技有限公司 用于活体检测的方法、装置及计算机存储介质
US10657401B2 (en) * 2017-06-06 2020-05-19 Microsoft Technology Licensing, Llc Biometric object spoof detection based on image intensity variations
CN113095124B (zh) * 2017-06-07 2024-02-06 创新先进技术有限公司 一种人脸活体检测方法、装置以及电子设备
GB201713697D0 (en) 2017-06-28 2017-10-11 Cirrus Logic Int Semiconductor Ltd Magnetic detection of replay attack
GB2563953A (en) 2017-06-28 2019-01-02 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201801528D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Method, apparatus and systems for biometric processes
CN107506687B (zh) 2017-07-17 2020-01-21 Oppo广东移动通信有限公司 活体检测方法及相关产品
US20190108551A1 (en) * 2017-10-09 2019-04-11 Hampen Technology Corporation Limited Method and apparatus for customer identification and tracking system
GB2567503A (en) 2017-10-13 2019-04-17 Cirrus Logic Int Semiconductor Ltd Analysing speech signals
GB201801874D0 (en) 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Improving robustness of speech processing system against ultrasound and dolphin attacks
GB201804843D0 (en) 2017-11-14 2018-05-09 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201801661D0 (en) * 2017-10-13 2018-03-21 Cirrus Logic International Uk Ltd Detection of liveness
GB201801664D0 (en) 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of liveness
CN107832712A (zh) * 2017-11-13 2018-03-23 深圳前海微众银行股份有限公司 活体检测方法、装置和计算机可读存储介质
GB201801659D0 (en) 2017-11-14 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of loudspeaker playback
US11475899B2 (en) 2018-01-23 2022-10-18 Cirrus Logic, Inc. Speaker identification
US11735189B2 (en) 2018-01-23 2023-08-22 Cirrus Logic, Inc. Speaker identification
CN109376592B (zh) * 2018-09-10 2021-04-27 创新先进技术有限公司 活体检测方法、装置和计算机可读存储介质
JP6989025B2 (ja) * 2018-09-12 2022-01-05 富士通株式会社 生体認証装置、偽造判別プログラム及び偽造判別方法
US11023756B2 (en) 2018-10-26 2021-06-01 Advanced New Technologies Co., Ltd. Spoof detection using iris images
US11272156B2 (en) * 2019-02-15 2022-03-08 Analog Devices International Unlimited Company Spatial correlation sampling in time-of-flight imaging
CN110720105A (zh) * 2019-09-11 2020-01-21 深圳市汇顶科技股份有限公司 人脸防伪检测方法、装置、芯片、电子设备和计算机可读介质
TWI761739B (zh) * 2019-12-10 2022-04-21 緯創資通股份有限公司 活體臉部辨識系統與方法
US11687778B2 (en) * 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
CN111460419B (zh) * 2020-03-31 2020-11-27 深圳市微网力合信息技术有限公司 物联网人工智能人脸验证方法及物联网云服务器
DE102020123927A1 (de) 2020-09-15 2022-03-17 Audi Aktiengesellschaft Verfahren zur Lebenderkennung bezüglich eines Fahrers eines Kraftfahrzeugs und Kraftfahrzeug
CN112348881B (zh) * 2020-11-12 2023-06-30 网易(杭州)网络有限公司 图像渲染方法、装置和电子设备
KR20220102450A (ko) * 2021-01-13 2022-07-20 삼성전자주식회사 이미지 필터 효과의 생성 방법 및 그 전자 장치
US11562600B2 (en) 2021-03-29 2023-01-24 Nec Corporation Of America Liveness detection based on reflections analysis
WO2023039003A1 (en) * 2021-09-07 2023-03-16 Facetec, Inc. Facial recognition and/or authentication system with monitored and/or controlled camera cycling

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5329379A (en) 1992-10-22 1994-07-12 International Business Machines Corporation System and method of measuring fidelity of decompressed video signals and images
US6075905A (en) * 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
KR100320188B1 (ko) 1999-03-23 2002-01-10 구자홍 홍채인식 시스템의 위조 판별방법
KR100407319B1 (ko) 2001-04-11 2003-11-28 학교법인 인하학원 확장 정합 함수를 이용한 블록 매칭 기반 얼굴 특징 추적방법
US7440590B1 (en) * 2002-05-21 2008-10-21 University Of Kentucky Research Foundation System and technique for retrieving depth information about a surface by projecting a composite image of modulated light patterns
RU2309672C2 (ru) * 2005-10-05 2007-11-10 Общество с ограниченной ответственностью "Научно-производственное предприятие "Лазерные системы" Способ распознавания принадлежности отпечатка пальца живому или неживому человеку
US8260008B2 (en) 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
CN101493884B (zh) * 2008-01-24 2012-05-23 中国科学院自动化研究所 多光谱图像采集装置和方法
KR100949801B1 (ko) 2008-04-17 2010-03-30 한국전자통신연구원 퍼지볼트 시스템에서의 다항식 복원장치 및 그 방법
US7508960B1 (en) * 2008-05-06 2009-03-24 International Business Machines Corporation Projection of light patterns for liveness verification of biometrics
JP5814799B2 (ja) * 2012-01-06 2015-11-17 キヤノン株式会社 画像処理装置及び画像処理方法
US8457367B1 (en) 2012-06-26 2013-06-04 Google Inc. Facial recognition
US8542879B1 (en) * 2012-06-26 2013-09-24 Google Inc. Facial recognition
US10452894B2 (en) * 2012-06-26 2019-10-22 Qualcomm Incorporated Systems and method for facial verification
JP5955133B2 (ja) * 2012-06-29 2016-07-20 セコム株式会社 顔画像認証装置
CN102831400B (zh) * 2012-07-31 2015-01-28 西北工业大学 一种多光谱人脸识别方法及其系统
KR101417433B1 (ko) * 2012-11-27 2014-07-08 현대자동차주식회사 눈동자의 움직임을 이용한 사용자 인증 장치 및 그 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230091381A1 (en) * 2021-09-17 2023-03-23 Jumio Corporation Spoof detection using eye boundary analysis
US12020512B2 (en) * 2021-09-17 2024-06-25 Jumio Corporation Spoof detection using eye boundary analysis

Also Published As

Publication number Publication date
MX2017002987A (es) 2017-07-28
CN107077602A (zh) 2017-08-18
BR112017004427A2 (pt) 2017-12-05
JP2017534102A (ja) 2017-11-16
EP3192008A2 (en) 2017-07-19
CA2960397C (en) 2018-05-01
MX359546B (es) 2018-10-02
US20170053406A1 (en) 2017-02-23
AU2018247216B2 (en) 2019-11-14
RU2017111779A3 (pt) 2018-10-10
ES2688399T3 (es) 2018-11-02
WO2016040487A2 (en) 2016-03-17
WO2016040487A3 (en) 2016-04-28
JP6257840B2 (ja) 2018-01-10
RU2671540C2 (ru) 2018-11-01
KR101902136B1 (ko) 2018-09-27
AU2018247216A1 (en) 2018-11-01
KR20170052636A (ko) 2017-05-12
SG11201701855RA (en) 2017-04-27
US20160071275A1 (en) 2016-03-10
RU2017111779A (ru) 2018-10-10
US9396537B2 (en) 2016-07-19
AU2015315156A1 (en) 2017-03-23
CA2960397A1 (en) 2016-03-17
CN107077602B (zh) 2018-11-02
US10237459B2 (en) 2019-03-19
EP3192008B1 (en) 2018-06-27

Similar Documents

Publication Publication Date Title
BR112017004427B1 (pt) método para análise de vivacidade
US11995902B2 (en) Facial signature methods, systems and software
US10380421B2 (en) Iris recognition via plenoptic imaging
US20190102608A1 (en) System and method for entity recognition
WO2018040307A1 (zh) 一种基于红外可见双目图像的活体检测方法及装置
CN109325933A (zh) 一种翻拍图像识别方法及装置
WO2016084072A1 (en) Anti-spoofing system and methods useful in conjunction therewith
TW202011260A (zh) 活體檢測方法、裝置和電腦可讀取儲存媒介
CN109670390A (zh) 活体面部识别方法与系统
Farrukh et al. FaceRevelio: a face liveness detection system for smartphones with a single front camera
Kim et al. Face spoofing detection with highlight removal effect and distortions
CA3041991A1 (en) System and method for correcting color of digital image based on the human sclera and pupil
US9996743B2 (en) Methods, systems, and media for detecting gaze locking
US20200314412A1 (en) Synchronizing an illumination sequence of illumination sources with image capture in rolling shutter mode
US11551475B2 (en) System architecture and method of authenticating a 3-D object
CN112597466A (zh) 用户认证方法和系统
CN116508055A (zh) 判定方法、判定程序以及信息处理装置
Wang et al. Livrable D1. 3 of the PERSEE project-Perceptual Modelling: Softwares results and final report.

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B09W Correction of the decision to grant [chapter 9.1.4 patent gazette]

Free format text: RETIFICA-SE O PARECER DE DEFERIMENTO NOTIFICADO NA RPI NO 2605 DE 08-12-2020.

B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 09/09/2015, OBSERVADAS AS CONDICOES LEGAIS.

B25D Requested change of name of applicant approved

Owner name: MATRIX TWO INC. (US)

B25G Requested change of headquarter approved

Owner name: MATRIX TWO INC. (US)

B25A Requested transfer of rights approved

Owner name: JUMIO CORPORATION (US)