BR122018007961B1 - Método implementado por computador e sistema - Google Patents

Método implementado por computador e sistema Download PDF

Info

Publication number
BR122018007961B1
BR122018007961B1 BR122018007961-4A BR122018007961A BR122018007961B1 BR 122018007961 B1 BR122018007961 B1 BR 122018007961B1 BR 122018007961 A BR122018007961 A BR 122018007961A BR 122018007961 B1 BR122018007961 B1 BR 122018007961B1
Authority
BR
Brazil
Prior art keywords
interest
region
periocular
image
point
Prior art date
Application number
BR122018007961-4A
Other languages
English (en)
Other versions
BR122018007961A2 (pt
Inventor
Sashi K. Saripalle
Vikas Gottemukkula
Reza R. Derakhshani
Original Assignee
Jumio Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jumio Corporation filed Critical Jumio Corporation
Publication of BR122018007961A2 publication Critical patent/BR122018007961A2/pt
Publication of BR122018007961B1 publication Critical patent/BR122018007961B1/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Ophthalmology & Optometry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

MÉTODO IMPLEMENTADO POR COMPUTADOR E SISTEMA A presente invenção refere-se à inscrição biométrica e técnicas de verificação para regiões ocular-vascular, periocular e facial. Regiões de imagem periocular podem ser definidas com base nas dimensões de uma região ocular identificada em uma imagem de uma região facial. Descritores de características podem ser gerados para pontos de interesse nas regiões oculares e perioculares usando uma combinação de descritores de característica de histograma padronizado. Métricas de qualidade para as regiões podem ser determinadas com base nos escores de valor de região calculados com base em textura circundando os pontos de interesse. Um processo de correspondência biométrica para cálculo de um escore de correspondência com base em regiões oculares e perioculares pode incluir progressivamente regiões perioculares adicionais para obter uma maior certeza de correspondência.

Description

REFERÊNCIA CRUZADA A PEDIDO RELACIONADO
[001] O presente pedido reivindica prioridade para e o benefício do Pedido de Patente Provisório U.S. 62/217.660, depositado em 11 de setembro de 2015 e intitulado “Image Enhancement, Quality Metrics, Feature Extraction, Information Fusion, Pose Estimation and Compensation, and Template Updates for Biometric Systems”, cuja totalidade é aqui incorporada a título de referência.
ANTECEDENTES
[002] A presente invenção refere-se a à autenticação biométrica e, mais especificamente, a sistemas e métodos para melhora de imagem, métrica de qualidade, extração de característica e fusão de informação para sistemas biométricos de região múltipla (subocular até face) ou baseados em outra imagem.
[003] Sistemas biométricos podem ser usados para autenticar a identidade de um indivíduo para ou garantir ou negar acesso a um recurso. Por exemplo, scanners de imagem podem ser usados por um sistema de segurança biométrico para identificar um indivíduo com base em estruturas únicas na face do indivíduo, por exemplo, no olho do indivíduo e suas regiões circundantes. Dados biométricos capturados de um indivíduo, tais como aqueles capturados durante um processo de inscrição, podem ser armazenados como um modelo que é usado para verificar a identidade do indivíduo uma próxima vez. Tecnologia de varredura biométrica se beneficiaria, no entanto, de técnicas aperfeiçoadas ao usar características perioculares ao invés de ou em adição a características oculares para inscrição e verificação.
BREVE SUMÁRIO
[004] Sistemas e métodos se relacionando a técnicas biométricas aplicáveis a regiões ocular-vascular, periocular e facial são revelados. Em um aspecto, um método implementado por computador compreende as etapas de: recebimento de uma imagem de uma região facial de um usuário, a região facial incluindo um olho e uma área circundando o olho; processamento da imagem para definir uma região de imagem ocular incluindo pelo menos uma porção do olho na imagem da região facial; definição de uma pluralidade de regiões de imagem periocular cada uma incluindo pelo menos uma porção da área circundando o olho na imagem da região facial, onde as regiões perioculares são definidas com base em dimensões da região ocular definida; cálculo de um ou mais scores de correspondência biométrica com base na região de imagem ocular e pelo menos uma das regiões perioculares; e designação da imagem da região facial como autêntica ou não autêntica com base no um ou mais scores de correspondência biométrica.
[005] Em uma modalidade, a pluralidade de regiões de imagem periocular compreende pelo menos quatro regiões de imagem periocular. As pelo menos quatro regiões de imagem periocular podem compreender uma região de imagem periocular disposta abaixo da região de imagem ocular, uma região de imagem periocular disposta à direita da região de imagem ocular, uma região de imagem periocular disposta à esquerda da região de imagem ocular e uma região de imagem periocular disposta acima da região de imagem ocular.
[006] Definição da pluralidade de regiões de imagem periocular pode compreender definição de uma região de imagem periocular inferior disposta abaixo da região de imagem ocular, a região de imagem periocular inferior tendo uma largura substancialmente igual a uma largura da largura da região de imagem ocular e uma altura na faixa de 10% a 300% de uma altura da região de imagem ocular. Definição da pluralidade de regiões de imagem periocular pode também compreender definição de uma região de imagem periocular direita disposta à direita da região de imagem ocular, a região de imagem periocular direita tendo uma largura na faixa de 10% a 80% de uma largura da região de imagem ocular e uma altura de 120% a 550% de uma altura da região de imagem ocular. Definição da pluralidade de regiões de imagem periocular pode compreender ainda definição de uma região de imagem periocular esquerda disposta à esquerda da região de imagem ocular, a região de imagem periocular esquerda tendo uma largura na faixa de 10% a 50% de uma largura da região de imagem ocular e uma altura de 120% a 550% de uma altura da região de imagem ocular. Definição da pluralidade de regiões de imagem periocular pode também compreender definição de uma região de imagem periocular superior disposta acima da região de imagem ocular, a região de imagem periocular superior tendo uma largura substancialmente igual a uma largura da região de imagem ocular e uma altura na faixa de 10% a 150% de uma altura da região de imagem ocular.
[007] Em uma outra modalidade, cálculo do um ou mais scores de correspondência biométrica compreende: cálculo de um primeiro score de correspondência biométrica com base na região de imagem ocular e um modelo de inscrição ocular; e em resposta à determinação que o primeiro score de correspondência biométrica não satisfaz um primeiro limiar de correspondência, cálculo de um segundo score de correspondência biométrica com base na região de imagem ocular, uma primeira das regiões de imagem periocular, no modelo de inscrição ocular e um modelo de inscrição periocular. Cálculo do um ou mais scores de correspondência biométrica pode compreender ainda, em resposta à determinação que o segundo score de correspondência biométrica não satisfaz um segundo limiar de correspondência, cálculo de um ou mais scores de correspondência biométrica adicionais ao incluir iterativamente mais das regiões de imagem periocular no cálculo de scores de correspondência biométrica adicionais até que ou um score de correspondência biométrica adicional particular satisfaça um limiar de correspondência correspondente ou quaisquer regiões de imagem periocular adicionais estejam disponíveis para inclusão. A pluralidade de regiões de imagem periocular pode ser classificada com base pelo menos em capacidade e/ou qualidade discriminativa e as regiões de imagem periocular adicionais podem ser iterativamente incluídas com base nas respectivas classificações das regiões de imagem periocular adicionais. Uma ou mais da pluralidade de regiões de imagem periocular podem ser divididas em sub-regiões com base em uma ou mais características faciais derivadas das regiões de imagem periocular e as regiões de imagem periocular adicionais podem ser iterativamente incluídas com base em importância de agrupamento ou nas respectivas classificações das regiões de imagem periocular adicionais.
[008] Em uma modalidade adicional, cálculo de um ou mais scores de correspondência biométrica compreende: identificação de um primeiro conjunto de pares de pontos correspondentes com base na região de imagem ocular e um modelo de inscrição; e identificação de um segundo conjunto de pares de pontos correspondentes com base em pelo menos uma das regiões de imagem periocular e no modelo de inscrição. Cálculo do um ou mais scores de correspondência biométrica pode compreender ainda: determinação de um ou mais pontos de correspondência inlier ao entrar com uma combinação dos primeiro e segundo conjuntos de pares de pontos correspondentes em um algoritmo de detecção outlier; determinação que um número dos pontos correspondentes inlier que corresponde à região de imagem ocular satisfaz uma contagem inlier ocular mínima; e cálculo de um score de correspondência biométrica particular com base pelo menos em parte nos pontos correspondentes inlier. A contagem inlier ocular mínima pode ser igual a 3.
[009] Em ainda uma outra modalidade, cálculo do um ou mais scores de correspondência biométrica compreende ainda: determinação de um ou mais primeiros pontos de correspondência inlier ao entrar o primeiro conjunto de pares de pontos correspondentes em um algoritmo de detecção outlier; determinação de um ou mais segundos pontos correspondentes inlier ao entrar com o segundo conjunto de pares de pontos correspondentes em um algoritmo de detecção outlier; e cálculo de um score de correspondência biométrica particular com base pelo menos em parte em uma saída de um algoritmo de detecção outlier usando uma combinação dos primeiro e segundo pontos correspondentes inlier como entrada. Cálculo do um ou mais scores de correspondência biométrica pode compreender ainda determinação que um número de pontos correspondentes inlier, obtidos da saída do algoritmo de detecção outlier, que correspondem à região de imagem ocular satisfaz uma contagem inlier ocular mínima. A contagem inlier ocular mínima pode ser igual a 3.
[0010] Em um outro aspecto, um método implementado por computador compreende as etapas de: recebimento de uma imagem de uma região facial de um usuário; a região facial incluindo um olho e uma área circundando o olho; processamento da imagem para: (i) definir uma região de imagem ocular incluindo pelo menos uma porção do olho na imagem da região facial e (ii) definir uma ou mais regiões de imagem periocular cada uma incluindo pelo menos uma porção da área circundando o olho na imagem da região facial; identificação de uma pluralidade de pontos de interesse em pelo menos uma da região de imagem ocular e da uma ou mais regiões de imagem periocular; gerar, para cada ponto de interesse, um descritor de característica com base em uma combinação de uma pluralidade de descritores de característica de histograma padronizado; e armazenamento dos descritores de característica gerados em um modelo biométrico.
[0011] Em uma modalidade, processamento da imagem compreende melhora de pelo menos uma porção da imagem usando padrão Gabor de gradiente local (LGGP). Melhora de pelo menos uma porção da imagem usando LGGP pode compreender: cálculo, em cada uma de uma pluralidade de ângulos, de uma imagem de fase Gabor para a pelo menos uma porção da imagem, agregamento das imagens de fase Gabor calculada para formar uma imagem de fase Gabor combinada; cálculo, em cada um de uma pluralidade de ângulos, de um gradiente local da imagem de fase Gabor combinada; e retenção de um valor máximo de cada gradiente local para formar uma imagem melhorada.
[0012] Um descritor de característica de histograma padronizado particular pode compreender um histograma padronizado de padrões binários locais de raios múltiplos estendidos (PH-EMR-LBP), um histograma padronizado de padrões binários locais simétricos centrais de raios múltiplos estendidos (PH-EMR-CSLBP) ou um histograma padronizado de padrões ternários locais de raios múltiplos estendidos (PH-EMR-LTP). Geração do descritor de característica para um ponto de interesse particular pode compreender geração de um descritor de característica PH-EMR-LBP através de: definição de uma região de imagem compreendendo o ponto de interesse particular; cálculo de uma pluralidade de códigos de padrão binário local (LBP) para cada pixel na região de imagem para formar uma imagem LBP de raios múltiplos (MR- LBP); divisão da imagem MR-LBP em uma pluralidade de sub-regiões; derivação de uma pluralidade de histogramas compreendendo frequências de cada localização de bit de MR-LBP dentro de cada sub- região; e combinação da pluralidade de histogramas para formar o descritor de característica PH-EMR-LBP. Geração do descritor de característica para um ponto de interesse particular pode compreender geração de um descritor de característica PH-EMR-CSLBP através de: definição de uma região de imagem compreendendo o ponto de interesse particular; cálculo de uma pluralidade de códigos de padrão binário local simétrico central (CSLBP) para cada pixel na região de imagem para formar uma imagem CSLBP de raios múltiplos (MR- CSLBP); divisão da imagem MR-LPB em uma pluralidade de sub- regiões; derivação de uma pluralidade de histogramas compreendendo frequências de cada localização de bit de MR-CSLBP dentro de cada sub-região; e combinação da pluralidade de histogramas para formar o descritor de característica PH-EMR-CSLBP. Geração do descritor de característica para um ponto de interesse particular pode compreender geração de um descritor de característica PH-EMR-LTP através de: definição de uma região de imagem compreendendo o ponto de interesse particular; cálculo de uma pluralidade de códigos de padrão ternário local (LTP) para cada pixel na região de imagem para formar uma imagem LTP de raios múltiplos (MR-LTP); divisão da imagem MR- LBP em uma pluralidade de sub-regiões; derivação de uma pluralidade de histogramas compreendendo frequências de cada localização de bit de MR-LTP dentro de cada sub-região; e combinação da pluralidade de histogramas para formar o descritor de característica PH-EMR-LTP.
[0013] Em uma outra modalidade, geração do descritor de característica para um ponto de interesse particular compreende: cálculo de um descritor de característica PH-EMR-LBP, descritor de característica PH-EMR-CS-LBP e descritor de característica PH-EMR- LTP para o ponto de interesse particular; e combinação do descritor de característica PH-EMR-LBP, descritor de característica PH-EMR-CS- LBP e descritor de característica PH-EMR-LTP para formar um descritor de característica combinado. Geração do descritor de característica para um ponto de interesse particular pode compreender ainda aplicação de uma análise de variância para o descritor de caraterística combinado para formar um descritor de característica principal compreendendo um subconjunto de características do descritor de característica combinado. Geração do descritor de característica para um ponto de interesse particular pode compreender ainda realização de redução de dimensionalidade no descritor de característica principal para formar o descritor de característica para o ponto de interesse particular.
[0014] Em uma modalidade adicional, na geração de um descritor de característica de histograma padronizado particular, descritores de característica de padrão binário local ou padrão ternário local são calculados usando uma vizinhança definida por um quadrado com ou sem cantos.
[0015] Em um outro aspecto, um método implementado por computador compreende as etapas de: recebimento de uma imagem de uma região facial de um usuário, a região facial incluindo um olho e uma área circundando o olho; definição de uma região de imagem ocular incluindo pelo menos uma porção do olho na imagem da região facial; definição de uma ou mais regiões de imagem periocular cada uma incluindo pelo menos uma porção da área circundando o olho na imagem da região facial; identificação de uma pluralidade de pontos de interesse em pelo menos uma da região de imagem ocular e na uma ou mais regiões de imagem periocular; cálculo, para cada ponto de interesse, de um valor de região para textura circundando o ponto de interesse; e determinação de pelo menos uma métrica de qualidade para pelo menos uma porção da imagem da região facial com base nos pontos de interesse e nos respectivos valores de região calculados.
[0016] Em uma modalidade, cálculo do valor de região para um ponto de interesse particular compreende: cálculo de pelo menos um padrão binário (BP) local em uma vizinhança de formato quadrado para o ponto de interesse particular; e cálculo de pelo menos um BP para um ou mais pontos de compensação do ponto de interesse particular. Cálculo do valor de região para o ponto de interesse particular pode compreender ainda ajuste do valor de região para uma média de valores de região calculados para o ponto de interesse particular e uma pluralidade de pontos de compensação. Cálculo de pelo menos um BP para o ponto de interesse particular pode compreender cálculo de uma pluralidade de BPs, cada um tendo uma vizinhança diferente, para o ponto de interesse particular, e cálculo de pelo menos um BP para os pontos de compensação pode compreender cálculo de uma pluralidade de BPs, cada um tendo uma vizinhança diferente, para cada ponto de compensação. Cálculo da pluralidade de BPs para um ponto de interesse ou ponto de compensação particular pode compreender: redução da pluralidade de BPs para um Padrão Binário de Ruído (NBP); e criação de um padrão binário geral (genBP) a partir do NBP. Cálculo de uma pluralidade de BPs para um ponto de interesse ou ponto de compensação particular pode compreender ainda: criação de um padrão ponderado H a partir do genBP; e cálculo de um valor de região para o ponto de interesse ou ponto de compensação particular como:
[0017] onde L compreende um comprimento máximo de zeros contínuos no genBP. Os pontos de compensação podem compreender uma pluralidade de localizações de pixel uniformemente mudadas em direções diferentes do ponto de interesse particular.
[0018] Em uma outra modalidade, determinação da métrica de qualidade compreende: criação de uma lista ordenada dos pontos de interesse com base nos respectivos valores de região dos pontos de interesse; e cálculo das distâncias entre pontos de interesse consecutivos na ordem listada. Determinação da métrica de qualidade pode compreender ainda cálculo da métrica de qualidade como:
[0019] onde p compreende o número de pontos de interesse, sn compreende o valor de região calculado para ponto de interesse n, swn compreende um índice ponderado para ponto de interesse n e dwn compreende um peso para a distância correspondendo ao ponto n na ordem listada.
[0020] Em uma modalidade adicional, a pelo menos uma porção da imagem da região facial compreende a região ocular ou pelo menos uma das regiões perioculares. O método pode compreender ainda classificação das regiões de imagem periocular com base nas respectivas métricas de qualidade separadamente calculadas para cada uma das regiões de imagem periocular. O método pode compreender ainda classificação das regiões de imagem periocular com base em pelo menos uma de uma respectiva capacidade discriminativa de cada região de imagem periocular. O método pode compreender ainda uso das regiões de imagem periocular em um dispositivo de correspondência biométrica progressiva com base pelo menos em parte nas respectivas classificações de métrica de qualidade e/ou capacidade discriminativa das regiões de imagem periocular.
[0021] Em ainda uma outra modalidade, o método compreende ainda: determinação que uma diferença em métrica de qualidade calculada entre uma primeira das regiões de imagem ocular ou periocular e uma segunda das regiões de imagem ocular ou periocular excede um limiar; e indicação de uma provável presença de uma fraude com base na diferença determinada em métrica de qualidade calculada.
[0022] Outros aspectos do acima incluem sistemas correspondentes e meios de leitura por computador não transitórios. Os detalhes para uma ou mais modalidades da matéria objeto descrita no presente pedido são mostrados nos desenhos acompanhantes e na descrição abaixo. Outras características, aspectos e vantagens da matéria objeto se tornarão aparentes a partir da descrição, desenhos e reivindicações.
BREVE DESCRIÇÃO DOS DESENHOS
[0023] Nos desenhos, caracteres de referência iguais geralmente se referem às mesmas partes nas diferentes vistas. Também, os desenhos não estão necessariamente em escala, ênfase ao contrário sendo posta geralmente na ilustração dos princípios da modalidade. Na descrição que segue, várias modalidades são descritas com referência aos desenhos que seguem, nos quais: a FIGURA 1 mostra um método exemplar para criação de um modelo de inscrição ocular e periocular, de acordo com uma modalidade.
[0024] As Figuras 2A e 2B mostram um método exemplar para definição de regiões ocular e periocular, e imagens faciais correspondentes, de acordo com uma modalidade.
[0025] A FIGURA 3 mostra um exemplo de processo de padrão binário local modificado (genBP), de acordo com uma modalidade.
[0026] A FIGURA 4 mostra uma técnica exemplar para correspondência progressiva biométrica com fases de inscrição e verificação, de acordo com uma modalidade.
[0027] A FIGURA 5 mostra um sistema exemplar para realização de varredura e análise biométricas de acordo com uma modalidade.
DESCRIÇÃO DETALHADA
[0028] O branco do olho inclui padrões complexos (principalmente devido a estruturas vasculares), que são não apenas prontamente visíveis e escaneáveis, mas são também únicos para cada indivíduo. Em alguns casos, outras formações não vasculares podem ser também visíveis e podem ser levadas em consideração por um algoritmo de correspondência biométrica. Desta maneira, essas estruturas visíveis vistas no branco do olho, principalmente devido à vasculatura da conjuntiva e episclera, podem ser escaneadas e vantajosamente usadas como um biométrico. Este biométrico pode ser usado para autenticar um indivíduo particular ou identificar um indivíduo desconhecido de um conjunto maior de candidatos. Implementações de soluções para imagem e correspondência de padrão dos vasos sanguíneos no branco do olho e para detecção de ponto vascular, extração de característica e correspondência são descritas, por exemplo, na Patente U.S. No. 8.369.595, expedida em 5 de fevereiro de 2013, intitulada “Texture Features for Biometric Authentication” e Patente U.S. No. 9.390.327, expedida em 12 de julho de 2016 e intitulada “Feature Extraction and Matching for Biometric Authentication”, cujas totalidades são aqui incorporadas a título de referência. Para adicionar robustez a essas e outras técnicas de verificação biométrica, são descritos aqui métodos para incluir progressivamente estruturas não-oculares-vasculares visíveis fora do branco do olho, tais como padrões perioculares ou da face parcial ou até mesmo completa ou outros identificáveis visíveis, em um esquema de correspondência biométrica ocular-vascular no caso de, por exemplo, informação adicional ser necessária para formar uma análise mais precisa.
[0029] Características oculares são aquelas que surgem a partir dos padrões vistos externos ao limbo e delimitadas pelas pálpebras, que são principalmente devido a padrões vasculares vistos no branco dos olhos. Daqui em diante, tais características são intercomutavelmente referidas aqui como oculares ou oculares-vasculares. O branco do olho tem várias camadas. A esclera é uma camada opaca, fibrosa, protetora, do olho contendo colágeno e fibra elástica. A esclera é coberta pela episclera, que tem um número particularmente grande de vasos sanguíneos e veias que correm através e sobre ela. A episclera é coberta pela conjuntiva bulbar, que é uma membrana transparente fina que interfaceia a pálpebra ou o ambiente quando a pálpebra é aberta, que também contém estruturas únicas e vasculares ricas. Vasos sanguíneos correm através de todas essas camadas do branco do olho e podem ser detectados em imagens do olho. O olho inclui também cílios e algumas vezes cílios caindo que podem algumas vezes obscurecer porções do branco do olho em uma imagem.
[0030] Periocular refere-se à região imediata da face circundando o olho (externa às, em alguns casos contatando as, bordas da pálpebra), que é texturizada e pode ser usada para aplicações biométricas. A região periocular pode incluir uma ou mais regiões que podem ser, mas não são necessariamente, contíguas e que podem tomar várias formas com relação a formato e tamanho. Enquanto a região periocular não tem quaisquer limites bem definidos, padronização da região de interesse pode minimizar questões de registro, melhorando mais a precisão do sistema biométrico. Tal padronização pode ser obtida usando certo valor mensurável da face do usuário, tal como distância entre os cantos do olho, raio da íris, distância interocular e/ou largura e altura do corte do olho derivado (enquanto usando algoritmos de detecção do olho). Durante autenticação do usuário, uma ou mais imagens digitais do olho e região periocular de um usuário são capturadas, um ou mais modelos de verificação são gerados a partir da imagem ou imagens capturadas e a identidade do usuário pode ser verificada através de correspondência das estruturas oculares e perioculares correspondentes conforme expresso nos modelos de inscrição e verificação.
[0031] Em outras modalidades, regiões adicionais da face se estendendo além da região periocular podem ser usadas em adição a ou ao invés de regiões imediatamente circundando o olho. Por exemplo, quando expressões faciais pesadas são observadas, uma ou mais regiões no e/ou circundando o nariz e/ou ao redor da face podem ser consideradas como regiões perioculares estendidas. Em uma modalidade, características faciais podem complementar características oculares para um dispositivo de correspondência biométrica baseado no olho. Em uma outra modalidade, as características oculares usadas por um dispositivo de correspondência biométrica baseado no olho são complementadas por ambas as características perioculares e faciais estendidas. Em uma outra modalidade, uma face inteira pode ser usada em adição a ou ao invés das regiões circundando imediatamente o olho. A face pode complementar características oculares para um dispositivo de correspondência biométrica baseado no olho. Ambas as regiões periocular e de face podem complementar as características oculares usadas por um dispositivo de correspondência biométrica baseado no olho.
[0032] Em várias outras modalidades, outra informação tal como o tom da pele da região periocular pode ser também medida e usada como um biométrico soft. O tom da pele pode ser estimado usando histogramas dos valores de intensidade das faixas de cor de imagem diferentes, tais como canais de vermelho, verde e azul (RGB) normalizados. Durante a verificação, a informação do histograma do modelo inscrito pode ser usada para parar um processo de verificação quando a distância entre os histogramas de inscrição e imagens de verificação é maior do que um limiar.
[0033] Em uma modalidade, o tom de pele pode ser estimado através de uma técnica de agrupamento que identificar as cores mais proeminentes. Como um exemplo, os pixels de RGB da região periocular são convertidos no espaço de cor Lab e agrupados no número de classes N. O N ótimo pode ser determinado através de AIC (Akaike Information Criterion) ou BIC (Bayesian Information Criterion). Em seguida, esses agrupamentos são classificados em ordem ascendente com base em sua ocorrência, e os três agrupamentos melhores são agrupados com os tons de pele predefinidos. O tom de pele mais próximo pode ser determinado com uma medida de distância e/ou medida de correlação. Em uma modalidade, a medida de distância é distância Euclidiana, embora outras medidas de distância sejam compreendidas. Em seguida, o procedimento de verificação pode ser parado se a distância e/ou correlação entre a imagem de inscrição e verificação for maior do que um limiar. O mesmo processo pode ser aplicado a outras partes coloridas da imagem, tal como a íris.
[0034] A FIGURA 1 mostra um método exemplar para criação de um modelo de inscrição ocular e periocular. Na etapa 102, uma ou mais imagens da região(ões) facial(ais) de um usuário são capturadas usando um sensor de imagem, por exemplo, uma câmera, que pode estar associada com um dispositivo ao qual acesso pelo usuário deve ser autenticado (por exemplo, um smartphone, um smart watch, smart glasses, um computador notebook, um computador de mesa, etc). A título de ilustração, a câmera pode ser uma câmera digital, uma câmera tridimensional (3D), um sensor de campo de luz e/ou um sensor de infravermelho próximo ou outro sensor de imagem monocromática e/ou multiespectral. As imagens podem incluir uma ou mais regiões oculares (regiões definindo uma área do olho do usuário) e/ou uma ou mais regiões perioculares, bem como outras regiões faciais, em alguns casos. As imagens podem ser capturadas ou em modo imóvel ou em modo de vídeo ou uma combinação dos mesmos. As imagens podem ser capturadas em vários comprimentos de onda. Em algumas modalidades, o usuário é induzido (através de feedback visual, auditivo ou tátil) a mover o dispositivo para mais próximo/mais distante para disparar a distância ótima para encontrar os olhos e/ou face.
[0035] Na etapa 104, uma região inicial de interesse (ROI) é identificada, por exemplo, um ou ambos os olhos podem ser localizados. Algoritmos Viola-Jones ou algoritmos de aprendizagem similares treinados em várias imagens de olho olhando para a frente diferentes podem ser usados para este propósito. Em uma outra modalidade, algoritmos Viola-Jones treinados em várias imagens de olho com olhares diferentes podem ser usados. Em seguida, um algoritmo de rastreamento de olhar, tal como um usando filtros Haar, pode ser usado para quantizar a quantidade de olhar para adquirir uma ou mais imagens, uma vez uma direção de olhar selecionada sendo detectada.
[0036] Uma vez a ROI inicial sendo localizada na face mostrada na imagem(ns) capturada(s), computação adicional pode ser realizada para obter a ROI final na imagem. Tipicamente, as ROIs finais são cortadas para obter RGB e/ou imagens de infravermelho próximo de um ou mais olhos. Desta maneira, como aqui usado, “imagem” ou “imagem capturada” pode se referir também a uma imagem cortada de uma ROI final.
[0037] Com referência à FIGURA 1, nos Estágios Ocular e Periocular, uma ou mais imagens médias ou de outra maneira melhoradas ou naturalmente capturadas, que podem ser imagens inscritas ou imagens de verificação, são processadas em subestágio de melhora de imagem 106 e subestágio de qualidade de imagem 108 e características das imagens pré-processadas são extraídas no subestágio de extração de característica110, para gerar um ou mais modelos oculares e perioculares. Os subestágios de pré- processamento 106 e 108 podem incluir técnicas de melhora de imagem e qualidade de imagem, explicadas mais abaixo. O subestágio de extração de característica 110 pode incluir detecção de ponto de interesse e extração de descritor local, que são descritas em detalhes abaixo. As operações realizadas durante os subestágios 106, 108 e 110 nos Estágios Ocular e Periocular não precisam ser iguais. Ao contrário, operações diferentes que dão conta das características particulares de regiões ocular e periocular podem ser usadas nesses respectivos estágios. Os modelos ocular e/ou periocular de inscrição, antes do armazenamento, podem ser criptografados ou de outra maneira protegidos na etapa 112.
Limites Perioculares
[0038] Com referência agora às Figuras 2A e 2B, regiões perioculares podem ser extraídas usando vários métodos. Ao adquirir uma imagem da face de um usuário (etapa 200), uma ou mais regiões do olho são detectadas (etapa 202). Com base no tamanho dos cortes de olho identificados na etapa 202, o tamanho da região do olho pode ser recalculado (etapa 204). Prosseguindo para o estágio ocular, em uma modalidade, um algoritmo integro-diferencial, círculos de Hough ou detector de bolhas Hessian é usado para detectar o limite da íris (segmentação de região de íris na etapa 208). Similarmente, um algoritmo baseado em filtragem em filtro de Gabor pode ser usado para detectar as pálpebras superior e inferior, e mais brancos do olho podem ser separados após remoção da região da íris (segmentação da região escleral na etapa 206). A região periocular pode ser derivada após subtração de ambos o branco do olho e regiões da íris das imagens capturadas (etapa 210). Em algumas modalidades, métodos baseados em cor são usados para segmentar as regiões mencionadas acima.
[0039] Em uma modalidade, como mostrado no estágio de região periocular 212 nas Figuras 2A e 2B, regiões perioculares ao redor da ROI ocular final de tamanho de largura W x altura H (onde W e H são o número de pixels nas direções horizontal e vertical, respectivamente) podem ser definidas como descrito abaixo. A ROI ocular não é necessariamente um formato retangular, ao contrário, a ROI pode tomar uma forma similar ao formato do olho, como mostrado na FIGURA 2B, e a W e a H podem ser definidas como a largura e altura, respectivamente, de uma caixa delimitadora abrangendo a ROI ocular. Pode haver vários números de regiões; no entanto, a modalidade descrita abaixo inclui quatro regiões perioculares (1 a 4) classificadas por capacidade discriminativa, que refere-se essencialmente a quão útil a região é em uma operação de correspondência biométrica. Mais especificamente, a região periocular 1 representa uma região facial com características mais distintivas, ou discriminatórias, do que a região 2, que tem capacidade discriminativa maior comparado com a região 3, e assim por diante. Vários tamanhos de região periocular são compreendidos (aqui, definido por uma caixa delimitação de largura W x altura H). As faixas e os valores das regiões perioculares reveladas aqui foram experimentalmente determinados com base em teste em grande escala de quais regiões perioculares têm capacidade discriminativa suficiente para os propósitos de realização de operações de correspondência biométrica. Como usado abaixo, o termo “substancialmente igual” significa igual a um valor particular ou dentro de +/- 10% do valor.
[0040] Em uma modalidade, as quatro regiões perioculares são definidas como segue, onde W e H referem-se à largura e altura, respectivamente, da região ocular.
[0041] • Região 1:
[0042] o Largura é substancialmente igual a W.
[0043] o Altura na faixa de 0,1*H a 3*H abaixo do corte do olho da região ocular, inclusive. Em uma modalidade, altura é substancialmente igual a 0,3*H.
[0044] • Região 2:
[0045] o Largura está na faixa de 0,1*W a 0,8*W, inclusive. Em uma modalidade, a largura é substancialmente igual a 0,2*W.
[0046] o Altura está na faixa de 1,2*H (0,1*H acima do corte do olho da região ocular e 0,1*H abaixo do corte do olho) a 5,5*H (1,5*H acima do corte do olho e 3*H abaixo do corte do olho), inclusive. Em uma modalidade, altura é substancialmente igual a 1,45*H (0,15* acima do corpo do olho e 0,3*H abaixo do corte do olho).
[0047] • Região 3:
[0048] o Largura está na faixa de 0,1*W a 0,5*W, inclusive. Em uma modalidade, a largura é substancialmente igual a 0,15*W.
[0049] o Altura está na faixa de 1,2*H (0,1*H acima do corte do olho da região ocular e 0,1*H abaixo do corte do olho) a 5,5*H (1,5*H acima do corte do olho e 3*H abaixo do corte do olho), inclusive. Em uma modalidade, altura é substancialmente igual a 1,45*H (0,15*H acima do corte do olho e 0,3*H abaixo do corte do olho).
[0050] • Região 4:
[0051] o Largura é substancialmente igual a W.
[0052] o Altura está na faixa de 0,1*H a 1,5*H acima do corte do olho da região ocular, inclusive. Em uma modalidade, altura é substancialmente igual a 0,15*H.
[0053] Outras sub-regiões não retangulares ou até mesmo perioculares não contíguas (ou outras faciais) podem ser usadas com base na capacidade de diferenciação ou confiabilidade dessa(s) região(ões) por indivíduo, certa população ou todos os usuário(s). Em algumas modalidades, quando pálpebras inclinadas são frequentemente observadas, uma região periocular ótima ao redor do corte justo de tamanho WxH pode ser definida como segue:
[0054] • As larguras das regiões 2 e 3 são substancialmente iguais a 0,2*W e 0,15*W, respectivamente.
[0055] • As alturas das regiões 2 e 3 são substancialmente iguais a 1,45*H cada (que começa da parte superior do corte do olho).
[0056] • As larguras das regiões 1 e 4 são substancialmente iguais a W.
[0057] • As alturas das regiões 1 e 4 são substancialmente iguais a 0,45*H e 0,1*H, respectivamente.
[0058] A faixa de valores para alturas e larguras para várias regiões é igual como explicado acima. Outros tamanhos de região periocular são compreendidos. Os valores de W e H podem variar com base em resolução de sensor de imagem.
Melhora de imagem
[0059] Técnicas de melhora de imagem, tais como aquelas praticadas na etapa 106 da FIGURA 1, serão agora explicadas. As imagens que são capturadas a partir de um sensor de imagem podem ter qualidade variável devido a, por exemplo, artefatos de borrão de exposição e movimento. Na etapa 106, que é opcional, várias imagens podem ser registradas (isto é, espacialmente alinhadas) e tirada a média para reduzir o ruído da imagem. Em algumas modalidades, métodos de correlação de imagem são usados para medir a dissimilaridade entre as imagens obtidas a fim de alinhar as imagens para tirar a média e descartar aquelas que são mais diferentes (por exemplo, devido a borrão por movimento ou piscar de olhos) e, desta maneira, não são adequadas para registro e média. Por exemplo, n estruturas consecutivas com movimento mínimo podem ter a média tirada após registro. O número de estruturas consecutivas (desconsiderando as estruturas arriadas ocasionais explicadas acima) que têm a média tirada pode depender da taxa da estrutura, nível de ruído do sensor de imagem nos dados ambientes, condições ambientais em que as imagens estão sendo capturadas.
[0060] Em um exemplo, se a luz ambiente for maior do que 800 lúmens durante a aquisição das imagens, duas estruturas consecutivas são registradas e têm a média tirada. Se a luz ambiente estiver na faixa de 450-800 lúmens, 3 estruturas consecutivas são registradas e têm a média tirada. Se a luz ambiente estiver na faixa de 0-450 lúmens, 4 estruturas consecutivas são registradas e têm a média tirada. Outras combinações de seleção do número de estruturas com base em luz ambiente são possíveis para branco dos olhos, região periocular e face, incluindo opção de não média se a região de interesse for brilhante o suficiente para o ruído do sensor ser insignificante nos dados ambientes.
[0061] Em uma outra modalidade, o número de estruturas usadas para média também pode ser adaptado para os artefatos de movimento nas consecutivas estruturas. Por exemplo, o movimento pode ser causado devido a expressões que mudam, movimentos do olho e corpo e/ou aberrações ambientais. Movimento pode ser medido usando correlação nas estruturas, informação mútua nas estruturas, etc. Em uma modalidade, o número de estruturas usadas para a média se apoia em ambos luz ambiental e artefatos de movimento observados.
[0062] Em algumas modalidades, algoritmos de melhora de imagem incluem Self Quotient Image ou SQI. Uma versão simples de SQI image (Q) pode ser representada como segue: Q = I/í = I/(F*I)
[0063] onde í é a versão mais suave de I e F é o kernel de suavização. O método SQI é conhecido por sua propriedade de invariância de luz, que é útil para regiões perioculares com iluminação variável devido a sombras e outras condições de luz. Outras melhoras de imagem tais como Weber Linear Descriptors (WLD), Coherence Diffuse Filters, Atrous Wavelet, Retinex (e suas variantes), filtragem bilateral de estrutural única ou múltipla, métodos de aprendizagem profunda e outra melhora de esparso podem ser usadas.
[0064] Em uma modalidade, padrão de Gabor de gradiente local (LGGP) pode ser usado como uma técnica de melhora de imagem para uma imagem ou região de imagem particular, como descrito nas etapas que seguem.
[0065] Etapa 1: calcular a fase de Gabor do canal verde da região de imagem usando respostas de Gabor par e ímpar como segue: Etapa 1a: um kernel de Gabor par 2D, similar a filtros passa-baixa, é uma função de co-seno modulada por envelope Gaugassiano 2D e Gabor ímpar 2D é uma função sinusoidal modulada por envelope Gaugassiano 2D. Os kernels de Gabor par e ímpar podem ser derivados como segue:
[0066] Qualquer escala e orientação de kernel de Gabor pode ser obtida através da transformação de coordenada que segue:
[0067] onde Ox e Gy definem espalhamento do envelope Gaugassiano ao longo dos eixos x e y, respectivamente, f é a frequência do seno e do co-seno de modulação e 0 é orientação do kernel. Em uma modalidade, a frequência é ajustada para 6 e propagação de Gaussiano ao longo dos eixos x e y é ajustada para 2,5. Em uma modalidade a escolha de orientações é suprimida para 6, variando de 0, a 5 π/6, cada uma separada π/6 radianos.
[0068] Etapa 1b: a fase de imagem Gabor é calculada como segue:
[0069] onde ® é o operador de convolução. Em qualquer dada orientação, como um exemplo, Ifase (0 = 0) é uma imagem de tamanho igual ao tamanho do canal verde da região de imagem.
[0070] Etapa 2: a fase de respostas de Gabor (imagens) em várias orientações é agregada para formar uma imagem de saída. Três métodos exemplares para obter esta área são: (1) reter o valor máximo da intensidade de um pixel em uma dada localização (x, y) em todas as orientações; (2) ajustar a intensidade de um pixel em uma dada localização (x, y) para a média ponderada de respostas em todas as orientações em uma localização particular; e (3) multiplicar o valor máximo da intensidade de um pixel em uma dada localização (x, y) em todas as orientações com a imagem original, seguido por normalização.
[0071] Etapa 3: os gradientes locais em quatro direções (0, 45, 90 e 135 graus) são então calculados para as respostas agregadas e o valor de gradiente máximo é retido para formar uma imagem de saída.
[0072] Em uma modalidade, normalização de cor tal como equilíbrio de branco usando um algoritmo gray world pode ser usada antes das técnicas de melhoria mencionadas acima.
[0073] Em uma modalidade, processamento adicional da imagem melhorada inclui histograma de imagem e ajustes de contraste tal como Contrast Limited Adaptive Histogram Equalization (CLAHE). CLAHE geralmente opera em regiões pequenas da imagem referidas como tiles. Tipicamente, cada contraste de tile é melhorado de maneira que o histograma da saída corresponda aproximadamente ao histograma especificado através de uma distribuição particular (por exemplo, distribuição uniforme, exponencial ou Rayleigh). Os tiles vizinhos são então combinados usando uma interpolação (por exemplo, interpolação bilinear) para eliminar quaisquer divisões artificialmente induzidas. Em algumas modalidades, seleção de uma combinação linear ou não linear dos componentes de cor vermelho, verde ou azul que têm o melhor contraste entre os vasos oculares ou características perioculares e o fundo pode aumentar a região de imagem. Por exemplo, o componente verde pode ser preferido em uma imagem RGB do ocular-vascular, porque ele pode prover um melhor contraste entre vasos e o fundo.
Métrica de Qualidade de Imagem e Característica
[0074] Com referência novamente à etapa 108 na FIGURA 1, a qualidade de cada imagem melhorada pode ser medida, e aquelas que satisfazem um certo limiar de qualidade são retidas para processamento adicional. Tal qualidade pode ser medida em conjunto ou separadamente para as regiões ocular e periocular. Uma métrica de qualidade de imagem pode também agir como uma métrica de qualidade preditiva de correspondência (medida da respectiva habilidade da amostra biométrica em corresponder) e, em alguns cenários, pode ser fundida em um score de correspondência final para melhorar o desempenho de sistema biométrico.
[0075] Em uma modalidade, pontos de interesse detectados em uma imagem podem determinar a qualidade da imagem. Uma métrica de qualidade baseada em ponto, que é uma métrica de qualidade de imagem de não referência, será referida aqui como EV_QM. EV_QM pode ser calculada usando três etapas: Detecção de Ponto de Interesse, Cálculo de Valor de Região e Geração de Score de Métrica de Qualidade. Pontos de interesse podem ser detectados usando detecção de ponto vascular (VPD), explicado mais abaixo. Valor de região refere- se à quantidade de textura ao redor de cada ponto de interesse. A textura ao redor de cada ponto de interesse pode ser determinada usando Padrão Ternário Local (LTP). Geração de score de métrica de qualidade é medida usando localização de canto e valor de região.
[0076] Com referência à FIGURA 3, em uma modalidade, valor de região pode ser calculado usando o processo de padrão binário local modificado (LBP) que segue. Três quadrados (com ou sem cantos) com metades de comprimento diferentes correspondentes (vizinhanças) são calculados ao redor de um ponto de interesse, com seus loci de pixel computados (como mostrado na grade de pixel 304). Por exemplo, essas metades de comprimento podem ser 2, 4, 6 ou outro número de pixels. O ponto de interesse pode ser ainda deslocado (mudado de posição) em 8 localizações diferentes (como mostrado na grade de pixel 302), criando mais 3 quadrados (menos seus cantos) ao redor de cada ponto de deslocamento (similar àquele mostrado na grade de pixel 304, com o ponto de deslocamento servindo como o ponto central). LBP para cada ponto de interesse e deslocamento são calculados em cada um dos três quadrados, que são referidos ainda como Padrões Binários (BP). Desta maneira, cada ponto de interesse e pontos de deslocamento correspondentes têm três BPs diferentes associados com eles.
[0077] Os três BPs podem ser reduzidos mais para obter um valor de região final (score de textura) como segue:
[0078] Etapa 1: cada BP é avaliado para determinar o score de uniformidade. Se o BP não for uniforme (por exemplo, mais de 4 bits de mudança ou menos do que 2 bits de mudança), então o BP é descartado e o score (valor de região final) no deslocamento ou ponto de interesse correspondente é ajustado para zero.
[0079] Etapa 2: se todos os BPs forem uniformes, o processo de filtragem, como mostrado graficamente na etapa 306 da FIGURA 3, é realizado. Cada elemento em BP1, BP2 e BP3 é adicionado usando a fórmula que segue: Resultadon = XOR(BP1n, BP2n) + XOR(BP2n, BP3n)
[0080] Há três valores possíveis (1, 0 e 2) que podem ser vistos em cada elemento de Resultadon. Cada um desses bits é mapeado adicionalmente de acordo com os valores correspondentes (-1, 0 e 1, respectivamente) em Valor, como mostrado na etapa 308. Este resultado é ainda referido como Padrão Binário de Ruído (NBP).
[0081] Etapa 3: se houver mais de quatro pixels de ruído, o score para o ponto de interesse correspondente é ajustado para zero. De outro modo, cada pixel de ruído no NBP é substituído com seu vizinho mais próximo.
[0082] Etapa 4: o resultado final é um padrão binário único com comprimento de BP para metade do comprimento 2. Este padrão binário final é ainda referido como genBP.
[0083] Etapa 5: genBP é ainda ponderado com base na fórmula descrita na etapa 310: o resultado é ainda referido como padrão ponderado ou H.
[0084] Etapa 6: calcular o comprimento máximo de zeros contínuos em genBP e permitir que seja referido ainda como L.
[0085] Etapa 7: o valor de região final sn pode ser calculado usando a fórmula descrita na etapa 312:
[0086] Etapa 8: se pelo menos três dos pontos incluindo o ponto de interesse e pontos de deslocamento correspondentes computarem um valor de região, os valores de região do ponto de interesse e aqueles dos pontos correspondentes de deslocamento computando um valor de região têm a média tirada e chamados sn. De outro modo, sn é ajustado para zero.
[0087] Em uma outra modalidade, o valor de região pode ser calculado usando entropia da região circundando os pontos de interesse e os pontos de deslocamento correspondentes ao redor de cada ponto de interesse. A entropia da região ao redor do ponto de interesse é calculada como segue:
[0088] Etapa 1: inicializar um limiar para quantizar a textura na região de interesse ao redor do ponto de interesse e pontos de deslocamento correspondentes.
[0089] Etapa 2: determinar o número de níveis (level_map) na região de interesse ao subtrair a intensidade de pixel do centro com todas as outras intensidades na região de interesse.
[0090] Etapa 3: level_map é quantizado adicionalmente através de agrupamento das intensidades de pixel usando o limiar determinado na Etapa 1.
[0091] Etapa 4: o número de elementos únicos em cada grupo de level_map é calculado.
[0092] Etapa 5: o valor da região com base na entropia ao redor de um ponto de interesse é calculado como segue: onde N é o comprimento de elementos no grupo ‘i’.
[0093] Etapa 6: tirar média de sn no ponto de interesse e pontos de deslocamento correspondentes e atribuir o valor médio a sn.
[0094] Em uma outra modalidade, o valor de região pode ser calculado usando a entropia de informação de gradiente ao redor dos pontos de interesse em direções ‘D’. Em uma modalidade, D inclui 0, 45, 90 e 135 graus. A informação de gradiente pode ser calculada em escalas múltiplas ao redor do ponto de interesse.
[0095] Em uma modalidade, localizações de canto e valores de região correspondentes podem ser usados para determinar a geração de score de métrica de qualidade. Geração de score de métrica de qualidade pode ser implementada como segue:
[0096] Etapa 1: classificar os pontos de interesse com base em seus valores de região em ordem descendente e observar as localizações de ponto de interesse correspondentes.
[0097] Etapa 2: deixar que as distâncias entre pontos de interesse correspondentes após rearranjo deles com base na Etapa 1 sejam d = {d1, d2, d3, ..., dn-2, dn-1, dn}, onde d1 é a distância entre ao primeiro e segundo pontos de interesse. dn será zero.
[0098] Etapa 3: deixar que os pesos das distâncias sejam computados como o logaritmo de distâncias: dwn = log (d).
[0099] Etapa 4: computar o índice ponderado como:
[00100] swn = exp(1/[1,2,3,...,n-2,n-1,n]), onde n é o número de pontos de interesse
[00101] O score de métrica de qualidade final pode ser computado usando a fórmula que segue:, where p is the number of interest points onde p é o número de pontos de interesse
[00102] Outros algoritmos de detecção de ponto de interesse podem ser usados, de modo que podem ser calculados usando algoritmos Accelerated Segment Test (FAST) ou Speeded Up Robust Features (SURF).
[00103] EV_QM pode ser calculado separadamente para regiões ocular e periocular e, ainda, cada ROI pode ser classificada com base em EV_QM calculada. As ROIs podem ser equiparadas na ordem que elas foram classificadas se um dispositivo de correspondência progressiva (descrito abaixo) estiver sendo usado. De nota, as métricas de qualidade descritas aqui podem ser usadas em técnicas de detecção de fraude. Reproduções de características faciais de um olho ou face, tais como fotografias físicas ou cópias impressas ou imagens digitais ou vídeos do usuário genuíno repetidos em uma tela para intenção maliciosa, são frequentemente de qualidade reduzida (por exemplo, resolução menor, distorcida, descoloria, com ruído, borrada, etc) comparado com uma presença física real no momento do escaneamento. Após filtragem de pontos de interesse de qualidade baixa durante o processo de verificação, uma reprodução de baixa qualidade geralmente não terá um número suficiente de pontos de interesse reconhecíveis e, desta maneira, não passará na verificação.
[00104] Técnicas similares podem ser usadas para detectar fraudes parciais também. Por exemplo, uma pessoa pode pôr uma impressão de um olho válido sobre seu olho em uma tentativa de passar no processo de verificação de olho. Na realização da verificação, a qualidade determinada da impressão do olho (por exemplo, pontos de interesse reconhecíveis) pode ser comparada com a qualidade determinada de regiões periocular e outras faciais. Se a diferença em qualidade entre o olho e uma ou mais outras regiões exceder um limiar, isto pode indicar a presença de uma fraude parcial, e a verificação pode ser reprovada. Outras técnicas de detecção de fraude usando as métricas de qualidade reveladas são compreendidas.
Detecção de Ponto de Interesse
[00105] Vários algoritmos de detecção de ponto de interesse podem ser usados dentro de uma região de imagem capturada de ocular-vascular, periocular e face, separadamente. Por exemplo, o algoritmo Speeded Up Robust Features (SURF) é um algoritmo de detecção de característica tipo “bolha” que pode ser usado para identificar áreas dentro de uma região de imagem centrada em um ponto de interesse. O algoritmo Features from Accelerated Segment Test (FAST) é um algoritmo de detecção de canto que pode ser também usado para identificar pontos de interesse dentro de uma região de imagem. O detector de ponto vascular (VPD) pode ser também usado para identificar os pontos que travam na vasculatura dentro de uma região de imagem. Ainda, VPD pode ser também usado para detectar pontos na região periocular e face. Em algumas modalidades, pontos candidatos também podem ser identificados em escalas de imagem múltiplas. Por exemplo, se o tamanho da imagem original for 100x100 (Escala 0), pontos podem ser identificados da imagem original 100x100 e também quando a imagem original é redimensionada para 50x50 (Escala 1) e 25x25 (Escala 2). Outras configurações específicas de região de detectores de ponto podem ser consideradas.
Supressão de Ponto
[00106] O número de pontos candidatos que são produzidos usando um algoritmo de detecção de ponto de interesse pode variar com base na quantidade de textura e qualidade da imagem. Além disso, tais algoritmos podem travar em informação de ruído ou irrelevante (com relação a uma dada aplicação), especialmente com algoritmos não- PVD. Tais pontos candidatos de ruído ou irrelevantes podem ser removidos por algoritmos de supressão de ponto candidato.
[00107] Em uma modalidade, um algoritmo de supressão de ponto não vascular (NVS) é usado para determinar a qualidade de ponto candidato. O algoritmo é explicado nas etapas que seguem:
[00108] Etapa 1: extrair uma Região (R) ao redor de um ponto de interesse. Deixar o tamanho de R ser MxM.
[00109] Etapa 2: extrair Patches locais (LP) dentro de R de tamanho NxN, onde N<M. Designar o LP centrado em R como Patch Central (CP).
[00110] Etapa 3: patches locais dentro da região R são esparsamente populados.
[00111] Etapa 4: calcular as distribuições de histograma de todos os LPs incluídos na região R e subtrair o histograma de CP de cada histograma calculado para LPs.
[00112] Etapa 5: para cada subtração, calcular o score de espalhamento como o número de bins sendo ocupados dividido pelos bins disponíveis totais.
[00113] Etapa 6: derivar uma combinação de filtros de passa banda com base na distribuição de pixels em imagem original (Computação de filtro de Passa Banda). Esses filtros de passa banda são usados para medir a quantidade de pixels falsos tal como brilho intenso contra os pixels de informação vascular.
[00114] Etapa 7: patches subtraídos da Etapa 4 são filtrados com base no filtro de passa banda derivado e uma resposta de canto é calculada.
[00115] Etapa 8: usar score de espalhamento e resposta de canto em estrutura principal de cascata. Score de espalhamento é um classificador binário: ele ou rejeita ou aceita o ponto. Resposta de canto provê um score normalizado entre zero e um. Zero indica não vascularidade enquanto um indica vascularidade.
[00116] Em uma outra modalidade, uma Computação de Filtro de Passa Banda é usada para determinar a resistência de ponto candidato. O filtro de passa banda é dinamicamente gerado com base nos brancos segmentados das estatísticas de região do olho. O filtro de passa banda pode ser gerado como segue:
[00117] Etapa 1: extrair a camada verde da região escleral de uma imagem RGB.
[00118] Etapa 2: derivar um histograma da região. Por exemplo, usar bins “N” para extrair um histograma de uma imagem uint8.
[00119] Etapa 3: calcular o exponencial de histograma normalizado inverso derivado na Etapa 2.
[00120] Etapa 4: suprimir o exponencial por um fator k. O fator k geralmente varia de 0,1 a 0,3 e pode ser ajustado com base na aplicação ou conjunto de dados.
[00121] Etapa 5: calcular a resposta de exponencial inversa com valores inteiros variando de 1 a N.
[00122] Etapa 6: concatenar os primeiros 5 elementos da Etapa 4 e restantes da Etapa 5. Isto provê Filtro de Passa Banda 1.
[00123] Etapa 7: para Filtro de Passa Banda 2, construir uma Gaussiana com distribuição normal de pixels esclerais (canal verde).
[00124] Etapa 8: usar Filtro de Passa Banda 1 e Filtro de Passa Banda 2 em paralelo para estabelecer a resistência do ponto vascular.
[00125] Este processo de construção de filtro é adaptativo para pixels de imagem. Se a imagem for escura, a maioria dos pixels esclerais se encontra próximo da cauda inferior do histograma. Desta maneira, Filtro de Passa Banda 1 teria uma resposta maior em relação ao Filtro de Passa Banda 2. Isto reduz o score do ponto. Similarmente, uma imagem de brilho saturado teria todos os seus pixels na cauda superior e Filtro de Passa Banda 2 terá uma resposta maior, eliminando o ponto com um score baixo.
[00126] Em uma modalidade, a uniformidade do Padrão Binário Local (LBP) pode ser gerada para determinar a qualidade de um ponto candidato. Usando o código LBP de 8 bits, o número de transições em forma de bit de 0 a 1 ou vice-versa determina a uniformidade do código de LBP. Um código de LBP é considerado uniforme se ele tiver menos do que ou igual a ‘n’ transições. A faixa de transições é 0 a 8. Em uma modalidade, n é igual a 3. Como um exemplo, os códigos LBP 00000000 com 0 transição, 01111100 com 2 transições, 01000001 com 3 transições são uniformes. Similarmente, 0,1010000 com 4 transições e 01010010 com 6 transições são não uniformes. Os pontos candidatos que são uniformes são retidos no modelo.
[00127] Os algoritmos de qualidade mencionados acima para pontos candidatos podem ser usados em combinação ou separadamente para um dado processo de inscrição ou verificação.
Descritores de Característica Locais
[00128] Um vetor de característica ao redor de cada ponto de interesse pode ser gerado usando um patch de imagem ao redor do ponto de interesse para as regiões ocular-vascular, periocular e de face, separadamente. Os descritores para um ponto de interesse podem ser gerados usando algoritmos de descritor de característica únicos ou múltiplos. O algoritmo Fast Retina Keypoint (FREAK) é um exemplo de algoritmo de descritor de característica que pode ser usado, por exemplo, para gerar descritores para pontos candidatos identificados pelos algoritmos FASTA. Um descritor FREAK pode ser, por exemplo, uma fileira de números binários que define características visuais circundando um ponto candidato. Padrões Binários Locais (LBP) e suas variantes tais como Padrões Binários Locais Simétricos Centrais (CSLBP) ao redor dos pontos candidatos são exemplos de descritores de característica que podem ser usados para descrever patches de imagem em uma vizinhança de um ponto candidato. Histogramas de Gradientes orientados (HoG), Histogramas de LBP (HLBP), Histogramas de CSLBP (HCSLBP), Histogramas Padronizados de LBP de Raios Múltiplos Estendidos (PH-EMR-LBP), Histogramas Padronizados de CSLBP de Raios Múltiplos Estendidos, Histogramas Padronizados de Padrões Ternários Locais de Raios Múltiplos Estendidos (PH-EMR-LTP) e Histogramas Padronizados de Padrões Binários após Redução de Dimensionalidade (PHBP-DR) são outros exemplos de descritores de característica que podem ser usados para descrever vizinhanças de imagem ao redor de pontos candidatos. Outros algoritmos descritores de característica ou combinações de algoritmos podem ser usados para gerar descritores de imagem locais para pontos candidatos de uma região de imagem.
[00129] Em uma modalidade, as etapas que seguem estão envolvidas em geração de descritores PH-EMR-PBP:
[00130] Etapa 1: calcular ambos os códigos de LBP para quadrados concêntricos de 3x3 pixels e 5x5 pixels ao redor de cada pixel para formar uma imagem de LBP de raios múltiplos (MR-LBP) (notar que, em contraste com LBP regular, a técnica mencionada acima usa uma vizinhança quadrada ou retangular, que pode incluir ou excluir cantos) ao invés de loci circulares de pixels ao redor do pixel central para derivação do código de LBP). Em uma região de pixel 3x3, comparação do pixel central com seus oito pixels vizinhos imediatos gera um código de LBP 3x3. O resultado é um código de 8 bits, cujos valores de bit são ou 0 ou 1 (1 se o valor de intensidade do pixel vizinho for maior do que a intensidade do pixel central, se não 0). Similarmente, em uma região de pixel 5x5, comparação do pixel central com seus oito pixels vizinhos próximos a imediatos (isto é, dezesseis pixels) gera um código LBP 5x5 (resulta em um código de 16 bits). Desta maneira, MR-LBP tem um código de 24 bits (8 de código de LBP 3x3 e 16 de 5x5) para um dado pixel em uma imagem.
[00131] Etapa 2: um patch MxM (fora da etapa 1) ao redor de cada ponto de interesse é segmentado em sub-regiões NxN que podem ter pixels sobrepostos K.
[00132] Etapa 3: os histogramas para cada MR-LBP de 24 bits dentro de cada sub-região são derivados separadamente e concatenados para administrar PH-EMR-LBP (notar que em contraste com LBP regular, este histograma é calculado com base na frequência de localizações de bit de LBP no patch, ao invés daquela do equivalente decimal do código binário).
[00133] Os valores de parâmetro para M, N e K podem ser ajustados com base na frequência espacial, resolução e ruído da imagem.
[00134] Em uma modalidade, as etapas que seguem estão envolvidas em geração de descritores PH-EMR-CSLBP:
[00135] Etapa 1: calcular ambos os códigos de padrões binários locais simétricos centrais (CSLBP) de 3x3 pixels e 5x5 pixels em cada pixel para formar uma imagem CS-LBP de raios múltiplos (MR-CSLBP). Em uma região 3x3, comparação dos valores de intensidade dos pixels na diagonal usando os 8 pixels de limite gera um código de CS-LBP 3x3 de 4 bits (partindo do pixel esquerdo superior, considerar os pixels de limite como numerados de 1-8 em uma direção horária, o código de CS- LBP de 4 bits é gerado comparando os pixels 1, 2, 3 e 4 com 5, 6, 7 e 8, respectivamente). Os valores são 0 ou 1 (1 se o valor de intensidade de 1 for maior do que 5, se não 0 - similarmente, para outras combinações). Da mesma maneira, em uma região 5x5, os 16 pixels diagonais do anel externo são comparados para gerar um código de CS- LBP 5x5 de 8 bits. Desta maneira, uma MR-CS-LBP tem um código de 12 bits (4 de código de CS-LBP de 3x3 e 8 de 5x5) para um dado pixel em uma imagem.
[00136] Etapa 2: um patch MxM (resultado da etapa 1) ao redor de cada ponto de interesse é segmentado em sub-regiões NxN que podem ter pixels sobrepostos K.
[00137] Etapa 3: os histogramas para cada MR-CS-LBP de 12 bits dentro de cada sub-região são derivados separadamente e concatenados para administrar PH-EMR-CS-LBP.
[00138] Similar ao descritor anterior, os valores de parâmetro para M, N e K podem ser ajustados com base na frequência espacial, resolução e ruído da imagem.
[00139] Em uma modalidade, as etapas que seguem estão envolvidas em geração de descritores de PH-EMR-LTP.
[00140] Etapa 1: calcular ambos os códigos de padrões ternários locais de 3x3 pixel e 5x5 pixels em cada pixel para formar uma imagem LTP de raios múltiplos (MR-LTP) com um Tamanho de Passo (SS). Em uma região 3x3, comparar o pixel central com seus oito pixels vizinhos imediatos gera um código de LTP 3x3. O resultado é um código de 16 bits, cujos valores são 0 ou 1 (1 se o valor de intensidade de cada pixel vizinho for maior do que a intensidade do pixel central mais SS, se não 0; e 1 se o valor de intensidade de cada pixel vizinho for menos do que a intensidade do pixel central menos SS, se não 0). Similarmente, em uma região 5x5, comparação do pixel central com seus próximos a imediatos oito pixels vizinhos (isto é, 16 pixels) gera um código de LTP 5x5 (resultado é um código de 32 bits). Desta maneira, um MR-LTP tem um código de 48 bits (16 de código de LBP de 3x3 e 32 de 5x5) para um dado pixel em uma imagem.
[00141] Etapa 2: um patch MxM (resultado da etapa 1) ao redor de cada ponto de interesse é segmentado em sub-regiões NxN que podem ter pixels sobrepostos K.
[00142] Etapa 3: os histogramas para cada MR-LTP de 48 bits dentro de cada sub-região são derivados separadamente e concatenados para administrar PH-EMR-LTP.
[00143] Similar ao descritor anterior, os valores de parâmetro para M, N e K podem ser ajustados com base na frequência espacial, resolução e ruído das imagens.
[00144] Em uma modalidade, um PHBD-DR pode ser derivado usando as etapas que seguem:
[00145] Etapa 1: PH-EMR-LBP para um dado ponto de interesse é derivado ajustando os valores de M, N e K para 9, 3 e 1, respectivamente. Essas configurações administram um vetor de característica de comprimento 384 (24x16; histogramas de cada um dos códigos de 24 bits nas 16 sub-regiões. Notar que sub-16 regiões 3x3 são possíveis em um patch 9x9 com sobreposição de 1 pixel) com valores variando de 0 a 9 (uma vez que há 9 pixels na sub-região 3x3).
[00146] Etapa 2: PH-EMR-CS-LBP para um dado ponto de interesse é derivada ajustando os valores de M, N e K para 7, 3 e 1, respectivamente. Essas configurações administram um vetor de característica de comprimento 108 (12x9; histogramas de cada um dos códigos de 12 bits nas 9 sub-regiões). Notar que 9 sub-regiões 3x3 são possíveis em um patch 7x7 com sobreposição de 1 pixel) com valores variando de 0 a 9 (uma vez que há 9 pixels na sub-região 3x3).
[00147] Etapa 3: PH-EMR-LTP PH-EMR-LBP para um dado ponto de interesse é derivada através do ajuste de valores de M, N e K para 9, 3 e 1, respectivamente. Essas configurações administraram um vetor de característica de comprimento 768 (48x16; histogramas de cada um dos códigos de 48 bits nas 16 sub-regiões. Notar que 16 sub-regiões 3x3 são possíveis em um patch 9x9 com sobreposição de 1 pixel) com valores variando de 0 a 9 (uma vez que há 9 pixels na sub-região 3x3). SS é ajustado para 5 após os valores de intensidade da imagem serem normalizados para 0-255.
[00148] Etapa 4: vetores de característica 1, 2 e 3 são concatenados para formar um vetor de característica de comprimento 1260.
[00149] Etapa 5: uso de uma análise de variância, apenas as 720 melhores características são retidas. Em alguns casos, uma vez que essas características altamente variantes são pré-calculadas, apenas essas 720 característica são geradas durante processo de inscrição e verificação no interesse de reduzir a complexidade computacional.
[00150] Etapa 6: finalmente, um método de redução de dimensionalidade tal como análise de componente principal (PCA) é usado para extrair PHBP-DR. Uma análise PCA separada pode ser realizada para regiões oculares e perioculares para produzir 103 e 98 vetores de característica longos, respectivamente. Para face, quaisquer características perioculares podem ser usadas como são ou uma análise PCA separada pode ser realizada. Outros comprimentos de vetores de característica para ocular, periocular e face são possíveis.
[00151] No final do processo de inscrição biométrico, um modelo de inscrição pode incluir um conjunto de pontos candidatos e os descritores para ROI ocular-vascular e um conjunto de pontos candidatos e os descritos para uma região periocular. Em algumas modalidades, um modelo de inscrição pode também incluir um conjunto de pontos candidatos e os descritores para uma face e/ou um conjunto de pontos candidatos e os descritores para regiões perioculares estendidas. Notar que as ROI ocular-vascular e periocular e modelo para olhos da esquerda e da direita são tratados separadamente. Descritores múltiplos para um conjunto de pontos de interesse são compreendidos. Imagens originais e processadas que são usadas para produzir modelos para face ocular-vascular e região periocular podem ser descartadas por razões de segurança e privacidade.
Dispositivo de correspondência progressiva
[00152] Em uma modalidade de um processo de correspondência biométrica, um score de correspondência final é gerado usando um dispositivo de correspondência progressiva. Como uma etapa inicial, descritores de imagem locais são equiparados para encontrar Pares-de- Ponto-Correspondentes entre modelos de inscrição e verificação para ambas as regiões ocular e periocular usando uma medida de distância. Como um exemplo, uma distância Euclidiana entre descritores de pontos de interesse pode ser calculada entre os vetores de descritor de inscrição e verificação de regiões oculares e perioculares separadamente, e os pares abaixo de um certo limiar de distância podem ser retidos como Pares-de-Ponto-Correspondentes.
[00153] Na presença de ruído ou outras aberrações, os Pares-de- Pontos-Correspondentes podem ter vários outliers ou correspondências extras de outro modo errôneas. Ao supor uma homografia plausível entre as localizações de imagens de inscrição e verificação de Pares- de-Ponto-Correspondentes, outliers (pontos correspondentes espacialmente não sobrepostos após alinhamento sob a homografia suposta) podem ser removidos dos Pares-de-Ponto-Correspondentes.
[00154] Em algumas modalidades, um consenso de amostra aleatório (RANSAC) ou outro método de detecção de outlier pode ser usado para determinar a transformação necessária para alinhar pontos candidatos em uma imagem de verificação com pontos em uma imagem de inscrição, enquanto rejeitando outliers que não se encaixam em uma transformação tomada como hipótese entre correspondências genuínas, em termos de geometrias de regiões oculares de interesse codificadas em modelos de inscrição e verificação. Em algumas modalidades, os RANSACs de ROIs diferentes (tais como ROIs oculares-vasculares e perioculares) podem ser realizados separadamente, e a coleta dos pontos inlier sobreviventes pode ser realizada para um RANSAC final para cálculos de score final e outras computações relacionadas. Em algumas modalidades, um número mínimo de pontos inlier de certas ou todas as sub-regiões de interesse (por exemplo, patches vasculares e pontos vistos na parte superior da ROI escleral) pode ser requerido antes de prosseguir para correspondência final. Eventualmente, o score é gerado combinando o número de inliers que são encontrados após RANSAC (N), escala recuperada da matriz de transformação (RS) e ângulo recuperado da matriz de transformação (RA), usando a homografia ajustada às localizações de Pares-de-Ponto-Correspondentes através de RANSA ou equivalente.
[00155] Em uma modalidade, o score de correspondência é calculado usando a fórmula que segue: MS = {(Cx + Cy)/2 * log(N)} / {(1+ |log2(RS+0,001)|) * (1+ (RA/0,2)A2)}
[00156] onde Cx e Cy são correlações entre vetores de coordenadas x e y de pontos correspondentes inlier entre modelos de inscrição e verificação, respectivamente, N é o número desses pontos alinhados, RA é o ângulo recuperado que representa a mudança em ângulo resultante da transformação das localizações de pontos de verificação correspondentes inlier para os pontos de inscrição para registro e RS é a escala recuperada que representa a mudança em escala resultante da transformação mencionada acima. RA e RS são derivados da similaridade ou matriz de transformação geométrica similar resultante de RANSAC ou operação similar. Outras medidas tal como a distância da matriz de transformação/registro da identidade são compreendidas, especialmente se as regiões de interesse (tais como as ocular-vascular e periocular) forem espacialmente pré-normalizadas.
[00157] Em algumas modalidades, M-SAC, Group-SAC e/ou Optima- RANSAC podem substituir RANSAC.
[00158] Os scores de correspondência podem ser gerados para ambos brancos do olho (SV) e a região periocular (SP) separadamente, combinados (SVP) ou de uma maneira sequencial. Na abordagem progressiva, ROIs diferentes são progressivamente incluídas no dispositivo de correspondência se houver informação ou qualidade insuficiente para uma decisão robusta na região de interesse inicial. Por exemplo, se certa qualidade de fonte ou uma decisão definitiva não puder ser obtida usando a informação vascular nos brancos do olho, o dispositivo de correspondência pode progressivamente adicionar mais informação das localizações pertencentes à periocular (e potencialmente além, tais como nariz e face) conforme necessário para obter a certeza desejada em afirmar uma correspondência biométrica.
[00159] Em uma modalidade, os Pares-de-Ponto-Correspondentes de regiões ocular e periocular são calculados separadamente e então combinados para RANSAC para gerar o score de correspondência final.
[00160] Em uma outra modalidade, os Pares-de-Ponto- Correspondentes de regiões oculares e perioculares são calculados separadamente e então combinados para RANSAC para gerar o score de correspondência final. No entanto, a geração de inliers final é obrigada ter pelo menos N pontos da região ocular.
[00161] Em uma modalidade adicional, os Pares-de-Ponto- Correspondentes de regiões oculares e perioculares são calculados separadamente, seus respectivos inliers são encontrados através de RANSACs específicos de ROI separadamente e então a coleção de elementos de modelo filtrados por RANSAC específicos de região é combinada para um RANSAC final para gerar o score de correspondência final. No entanto, a geração de inliers final é obrigada a ter pelo menos N pontos do RANSAC da região ocular-vascular. Em algumas modalidades, um valor mínimo típico para N é 3.
[00162] Em algumas modalidades, um dispositivo de correspondência progressiva é implementado para tomar uma decisão final com base em comparação de scores de correspondência contra limiares. A título de exemplo:
[00163] Etapa 1: se SV > 3,2, o usuário é autenticado e as etapas 2 e 3 são puladas.
[00164] Etapa 2: se SVP > 3,4, então o usuário é autenticado e a etapa 3 é pulada.
[00165] Etapa 3: se SP > 3,2, o usuário é autenticado.
[00166] Final do processo
[00167] No caso do processo progressivo acima não autenticar o usuário, um outro modelo de inscrição do banco de inscrição pode ser novamente convocado, ou uma nova imagem de verificação pode ser adquirida, até que uma certa condição de saída (tal como um limite de tempo) seja atingida. Outras combinações dos limiares de SV, SVP e SP são compreendidas. Se uma ou mais das regiões de interesse não estiverem disponíveis para varredura devido a aberrações resultantes de, por exemplo, óculos de sol ou artefatos de brilho, os sistemas podem usar outras regiões disponíveis.
[00168] A FIGURA 5 mostra uma modalidade de um método para inscrição e autenticação biométricas usando correspondência progressiva, incluindo uma fase de inscrição em que modelos de inscrição são criados com base em regiões oculares-vasculares e perioculares, e uma fase de verificação em que correspondência progressiva pode ser realizada com base em imagens capturadas e nos modelos de inscrição. As etapas ilustradas na FIGURA 5 podem ser realizadas de acordo com as várias técnicas descritas aqui.
[00169] Em alguns casos, uma característica biométrica única pode ser dividida em ROIs múltiplas, que são então correspondidas progressivamente. Por exemplo, regiões significantes de uma região periocular podem ser divididas em n partes que são então progressivamente correspondidas.
[00170] Em uma modalidade, a qualidade de algumas ou todas as ROIs perioculares pode ser medida e classificada e o processo de correspondência pode adicionar progressivamente cada ROI com base em sua respectiva classificação conforme necessário para atingir a certeza desejada em afirmar a uma correspondência biométrica.
[00171] Em uma outra modalidade, uma métrica de distância baseada em imagem ou similar detecta poses do usuário, condições de luz ou gestos faciais que poderiam distorcer algumas regiões biométricas de interesse tal como periocular. Essas variações podem ser induzidas durante a inscrição ou adicionadas a um banco de modelo de rolante com base em uma política de renovação de modelo. No momento da verificação, o dispositivo de correspondência pode tentar recuperar os modelos mais relevantes do banco com base na métrica de similaridade de imagem mencionada acima.
[00172] Em uma outra modalidade, se o processo de correspondência encontrar uma nova pose ou expressão facial, a expressão mais próxima é usada e um caso especial de dispositivo de correspondência progressiva é aplicado. Por exemplo, um caso especial pode dividir a região periocular em vários segmentos usando um processo de agrupamento, e dentro de cada segmento as matrizes de score e transformação são geradas. O score final pode ser determinado através de uma fusão ponderada de todos os scores de segmento individuais. Esses pesos são determinados pela quantidade de deformação observada em todas as matrizes de transformação. Outras fusões de score são possíveis.
[00173] A FIGURA 5 ilustra uma modalidade de um sistema localizado para geração de modelos biométricos seguros e realização de verificação de usuário de acordo com as técnicas descritas aqui. Um dispositivo de usuário 500 pode incluir um sensor de imagem 530, processador 540, memória 550, hardware e/ou software biométrico 560 e um sistema, mas que acopla vários componentes de sistema, incluindo a memória 550 para o processador 540. O dispositivo de usuário 500 pode incluir, mas não está limitado a, smart phone, smart watch, smart glasses, computador de mesa, computador portátil, televisão, dispositivo de jogo, reprodutor de música, telefone móvel, laptop, palmtop, terminal com capacidade de processamento (smart) ou sem capacidade de processamento (dumb), computador de rede, assistente digital pessoal, dispositivo sem fio, aparelho de informação, estação de trabalho, minicomputador, computador mainframe ou outro dispositivo de computação que seja operado como um computador para propósito geral ou um dispositivo de hardware de propósito especial que pode executar a funcionalidade descrita aqui.
[00174] Hardware e/ou software biométrico 560 inclui um módulo de processamento de imagem 562 para realização de operações em imagens capturadas pelo sensor de imagem 530. Por exemplo, o módulo de processamento de imagem 562 pode realizar segmentação e melhora em imagens do olho e área facial circundante de um usuário 510 para auxiliar no isolamento de estruturas vasculares e outras características de interesse. O módulo de modelo 564 cria modelos biométricos com base na imagem de vasculatura e pode realizar várias operações de obscurecimento e embaralhamento nos modelos. O módulo de verificação 566 valida a identidade de um usuário 510 através da realização de operações de correspondência entre um modelo de verificação biométrico formado quando da captura de uma leitura biométrica e um modelo de inscrição previamente armazenado. Em algumas modalidades, certa funcionalidade pode ser realizada em dispositivos outro que não o dispositivo de usuário 500. Por exemplo, um dispositivo de usuário pode ao contrário incluir apenas um sensor biométrico, tal como uma câmera, e funções de processamento e verificação de imagem podem ser realizadas em um servidor remoto acessível para dispositivo de usuário 500 em uma rede, tal como a internet.
[00175] Mais comumente, os sistemas e técnicas descritos aqui podem ser implementados em um sistema de computador que inclui um componente subordinado (por exemplo, como um servidor de dados) ou que inclui um componente de ponte (por exemplo, um servidor de aplicação) ou que inclui um componente frontal (por exemplo, um computador de cliente tendo uma interface de usuário gráfico ou um Web browser através do qual um usuário pode interagir com uma modalidade dos sistemas e técnicas descritos aqui) ou qualquer combinação de tais componentes subordinado, ponte e frontal. Os componentes do sistema podem ser interconectados através de qualquer forma ou meio de comunicação de dados digitais (por exemplo, uma rede de comunicação). Exemplos de redes de comunicação incluem uma rede de área local (“LAN”), uma rede de área ampla (“WAN”) e a Internet.
[00176] O sistema de computação pode incluir clientes e servidores. Um cliente e um servidor são geralmente remotos um do outro e podem interagir através de uma rede de comunicação. A relação de cliente e servidor surge em virtude de programas de computador rodando nos respectivos computadores e tendo uma relação cliente-servidor um com o outro. Várias modalidades foram descritas. Não obstante, será compreendido que várias modificações podem ser feitas sem se afastar do espírito e escopo da invenção.
[00177] As modalidades da matéria-objeto e as operações descritas no presente pedido podem ser implementadas em circuito eletrônico digital ou em software de computador, firmware ou hardware, incluindo as estruturas reveladas no presente pedido e seus equivalentes estruturais ou em combinação de um ou mais deles. As modalidades da matéria-objeto descritas no presente pedido podem ser implementadas como um ou mais programas de computador, isto é, um ou mais módulos de instruções de programa de computador, codificados em meio de armazenamento de computador para execução por, ou para controlar a operação de, aparelho de processamento de dados. Alternativamente ou em adição, as instruções do programa podem ser codificadas em um sinal propagado artificialmente gerado, por exemplo, um sinal elétrico gerado por máquina, óptico ou eletromagnético, que é gerado para codificar informação para transmissão para aparelho de recepção adequado para execução por um aparelho de processamento de dados. Um meio de armazenamento em computador pode ser, ou ser incluído em, um dispositivo de armazenamento de leitura por computador, um substrato de armazenamento de leitura por computador, um arranjo ou dispositivo de memória de acesso aleatório ou serial ou uma combinação de um ou mais deles. Além disso, embora um meio de leitura por computador não seja um sinal propagado, um meio de armazenamento em computador pode ser uma fonte ou destino de instruções de programa de computador codificadas em um sinal propagado gerado artificialmente. O meio de armazenamento em computador pode ser também, ou ser incluído em, um ou mais componentes ou meios físicos separados (por exemplo, CDs, discos ou outros dispositivos de armazenamento múltiplos).
[00178] As operações descritas no presente pedido podem ser implementadas como operações realizadas por um aparelho de processamento de dados em dados armazenados em um ou mais dispositivos de armazenamento de leitura por computador ou recebidos de outras fontes.
[00179] O termo “aparelho de processamento de dados” compreende todos os tipos de aparelhos, dispositivos e máquinas para processamento de dados, incluindo, a título de exemplo, um processador programável, um computador, um sistema em um chip, ou múltiplos, ou combinações, dos acima. O aparelho pode incluir circuito lógico de propósito especial, por exemplo, um FPGA (arranjo de porta programável em campo) ou um ASIC (circuito integrado específico de aplicação). O aparelho também pode incluir, em adição a hardware, código que cria um ambiente de execução para o programa de computador em questão, por exemplo, código que constitui firmware processador, uma pilha de protocolos, um sistema de gerenciamento de banco de dados, um sistema de operação, um ambiente de execução de plataforma cruzada, uma máquina virtual ou uma combinação de um ou mais dos mesmos. O aparelho e ambiente de execução podem realizar várias estruturas de modelo de computação diferentes, tais como serviços de web, infraestruturas de computação distribuída e computação em grade.
[00180] Um programa de computador (também conhecido como um programa, software, aplicativo de software, script ou código) pode ser escrito em qualquer forma de linguagem de programação, incluindo linguagens compiladas ou interpretadas, linguagens declarativas ou processuais e pode ser implementado em qualquer forma, incluindo um programa sozinho ou como um módulo, componente, sub-rotina, objeto ou outra unidade adequada para uso em um ambiente de computação. Um programa de computador pode, mas não precisa, corresponder a um arquivo em um sistema de arquivo. Um programa pode ser armazenado em uma porção de um arquivo que contém outros programas ou dados (por exemplo, um ou mais scripts armazenados em um recurso de linguagem de marcação), em um campo único dedicado ao programa em questão ou em arquivos coordenados múltiplos (por exemplo, arquivos que armazenam um ou mais módulos, sub- programas ou porções de código). Um programa de computador pode ser implementado para ser executado em um computador ou computadores múltiplos que estão localizados em um sítio ou distribuídos em sítios múltiplos e interconectados por uma rede de comunicação.
[00181] As modalidades da matéria-objeto descrita no presente pedido podem ser implementadas em um sistema de computador que inclui um componente subordinado, por exemplo, como um servidor de dados, ou que inclui um componente ponte, por exemplo, um servidor de aplicação, ou que inclui um componente frontal, por exemplo, um computador de cliente tendo uma interface de usuário gráfico ou um Web browser através do qual um usuário pode interagir com uma modalidade da matéria objeto descrita no presente pedido ou qualquer combinação de um ou mais tais componentes subordinados, ponte ou frontal. Os componentes do sistema podem ser interconectados através de qualquer forma ou meio de comunicação de dados digitais, por exemplo, uma rede de comunicação. Exemplos de redes de comunicação incluem uma rede de área local (“LAN”) e uma rede de área ampla (“WAN”), uma inter-rede (por exemplo, a Internet) e redes pessoa-para-pessoa (por exemplo, redes pessoa-para-pessoa ad hoc).
[00182] O sistema de computação pode incluir clientes e servidores. Um cliente e um servidor são geralmente remotos uns dos outros e podem interagir através de uma rede de comunicação. A relação de cliente e servidor surge em virtude de programas de computador rodando nos respectivos computadores e tendo uma relação cliente- servidor um com o outro. Em algumas modalidades, um servidor transmite dados (por exemplo, uma página HTML) para um dispositivo do cliente (por exemplo, para propósitos de exibição de dados para e recebimento de entrada de usuário de um usuário interagindo com o dispositivo do cliente). Dados gerados no dispositivo do cliente (por exemplo, um resultado da interação do usuário) podem ser recebidos do dispositivo do cliente no servidor.
[00183] Um sistema de um ou mais computadores pode ser configurado para realizar operações ou ações particulares em virtude de ter software, firmware, hardware ou uma combinação dos mesmos instalados no sistema que em operação realiza ou faz com que o sistema realize as ações. Um ou mais programas de computador podem ser configurados para realizar operações ou ações particulares em virtude de inclusão de instruções que, quando executadas por aparelhos de processamento de dados, faz com que o aparelho realize as ações.
[00184] Embora o presente relatório contenha muitos detalhes de modalidade específica, esses não devem ser considerados como limitantes do escopo de quaisquer invenções ou do que pode ser reivindicado, mas ao contrário como descrições de características específicas para modalidades particulares de invenções particulares. Certas características que são descritas no presente pedido no contexto de modalidades separadas podem ser também implementadas em combinação em uma modalidade única. Por outro lado, várias características que são descritas no contexto de uma modalidade única também podem ser implementadas em modalidades múltiplas separadamente ou em qualquer subcombinação adequada. Além disso, embora características possam ser descritas acima como agindo em certas combinações e até mesmo inicialmente reivindicadas como tal, uma ou mais características de uma combinação reivindicada podem em alguns casos ser excisadas da combinação, e a combinação reivindicada pode ser direcionada a uma subcombinação ou variação de uma subcombinação.
[00185] Similarmente, embora operações sejam mostradas nos desenhos em uma ordem particular, isto não deve ser compreendido como requerendo que tais operações sejam realizadas na ordem particular mostrada ou em ordem sequencial, ou que todas as operações ilustradas sejam realizadas, para obter resultados desejados. Em certas circunstâncias, processamento de multitarefa e paralelo pode ser vantajoso. Além disso, a separação de vários componentes do sistema nas modalidades descritas acima não deve ser compreendida como requerendo tal separação em todas as modalidades e deve ser compreendido que os componentes e sistemas de programa descritos podem ser geralmente integrados juntos em um produto de software único ou agrupados em produtos de software múltiplos.
[00186] Desta maneira, modalidades particulares da matéria-objeto foram descritas. Outras modalidades estão dentro do escopo das reivindicações que seguem. Em alguns casos, as ações mencionadas nas reivindicações podem ser realizadas em uma ordem diferente e ainda obter resultados desejáveis. Ainda, os processos mostrados nas figuras acompanhantes não requerem necessariamente a ordem particular mostrada, ou ordem sequencial, para obter resultados desejáveis. Em certas modalidades, processamento em multitarefa e paralelo pode ser vantajoso.

Claims (27)

1. Método implementado por computador, caracterizado pelo fato de que compreende: receber uma imagem de uma região facial de um usuário, a região facial incluindo um olho e uma área circundando o olho; definir uma região de imagem ocular incluindo pelo menos uma porção do olho na imagem da região facial; definir uma ou mais regiões de imagem periocular, cada uma incluindo pelo menos uma porção da área circundando o olho na imagem da região facial; identificar uma pluralidade de pontos de interesse em pelo menos uma da região de imagem ocular e na uma ou mais regiões de imagem periocular; calcular, para cada ponto de interesse, um valor de região para textura circundando o ponto de interesse; determinar pelo menos uma métrica de qualidade para pelo menos uma porção da imagem da região facial com base nos pontos de interesse e nos respectivos valores de região calculados; e classificar as regiões de imagem periocular com base na respectiva métrica de qualidade separadamente calculada para cada uma das regiões de imagem periocular.
2. Método de acordo com a reivindicação 1, caracterizado pelo fato de que calcular o valor de região para um ponto de interesse específico compreende: calcular pelo menos um padrão binário local em uma vizinhança de formato quadrado (BP) para o ponto de interesse específico; e calcular pelo menos uma BP para um ou mais pontos de compensação a partir do ponto de interesse específico.
3. Método de acordo com qualquer uma das reivindicações 1 ou 2, caracterizado pelo fato de que calcular o valor de região para o ponto de interesse específico compreende ainda ajustar o valor de região para uma média de valores de região calculados para o ponto de interesse específico e uma pluralidade de pontos de compensação.
4. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de calcular pelo menos um BP para o ponto de interesse específico compreende calcular uma pluralidade de BPs, cada um tendo uma vizinhança diferente, para o ponto de interesse específico, e em que calcular pelo menos um BP para os pontos de compensação compreende calcular uma pluralidade de BPs, cada um tendo uma vizinhança diferente, para cada ponto de compensação.
5. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que calcular a pluralidade de BPs para um ponto de interesse específico ou ponto de compensação compreende: reduzir a pluralidade de BPs para um Padrão Binário de Ruído (NBP); e criar um padrão binário geral (genBP) a partir do NPB.
6. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que calcular a pluralidade de BPs para um ponto de interesse específico ou ponto de compensação compreende ainda: criar um padrão ponderado H a partir do genBP; e calcular um valor de região para o ponto de interesse específico ou ponto de compensação como: em que L compreende um comprimento máximo de zeros contínuos no genBP.
7. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que os pontos de compensação compreendem uma pluralidade de localizações de pixel uniformemente deslocadas em direções diferentes a partir do ponto de interesse específico.
8. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que determinar a métrica de qualidade compreende: criar uma lista ordenada dos pontos de interesse com base nos respectivos valores de região dos pontos de interesse; e calcular as distâncias entre pontos de interesse consecutivos na lista ordenada.
9. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que determinar a métrica de qualidade compreende ainda calcular a métrica de qualidade como: em que p compreende o número de pontos de interesse, sn compreende o valor de região calculado para ponto de interesse n, swn compreende um índice ponderado para ponto de interesse n, e dwn compreende um peso para a distância correspondendo ao ponto n na lista ordenada.
10. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que pelo menos uma porção da imagem da região facial compreende a região ocular ou pelo menos uma das regiões perioculares.
11. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que compreende ainda a classificação das regiões de imagem periocular com base em pelo menos uma de uma respectiva capacidade discriminativa de cada região de imagem periocular.
12. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que compreende ainda o uso das regiões de imagem periocular em um aparelho de correspondência biométrica progressivo com base, pelo menos em parte, nas respectivas métricas de qualidade e/ou nas classificações de capacidade discriminativa das regiões de imagem periocular.
13. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que compreende ainda: determinar que uma diferença em métrica de qualidade calculada entre uma primeira das regiões de imagem ocular ou periocular e uma segunda das regiões de imagem ocular ou periocular excede um limiar; e indicar uma provável presença de uma fraude com base na diferença determinada em métrica de qualidade calculada.
14. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que pelo menos uma porção da imagem da região facial compreende a região ocular ou pelo menos uma das regiões perioculares.
15. Sistema caracterizado pelo fato de que compreende: pelo menos uma memória para armazenamento de instruções executáveis por computador; e pelo menos uma unidade de processamento para executar as instruções armazenadas na pelo menos uma memória, em que a execução das instruções programa a pelo menos uma unidade de processamento para realizar operações compreendendo: receber uma imagem de uma região facial de um usuário, a região facial incluindo um olho e uma área circundando o olho; definir uma região de imagem ocular incluindo pelo menos uma porção do olho na imagem da região facial; definir uma ou mais regiões de imagem periocular, cada uma incluindo pelo menos uma porção da área circundando o olho na imagem da região facial; identificar uma pluralidade de pontos de interesse em pelo menos uma da região de imagem ocular e uma ou mais regiões de imagem periocular; calcular, para cada ponto de interesse, um valor de região para textura circundando o ponto de interesse; determinar pelo menos uma métrica de qualidade para pelo menos uma porção da imagem da região facial com base nos pontos de interesse e nos respectivos valores de região calculada; e classificar as regiões de imagem periocular com base na respectiva métrica de qualidade separadamente calculada para cada uma das regiões de imagem periocular.
16. Sistema de acordo com a reivindicação 15, caracterizado pelo fato de que calcular o valor de região para um ponto de interesse específico compreende: calcular pelo menos um padrão binário local em uma vizinhança em formato quadrado (BP) para o ponto de interesse específico; e calcular pelo menos um BP para um ou mais pontos de compensação do ponto de interesse específico.
17. Sistema de acordo com qualquer uma das reivindicações 15 a 16, caracterizado pelo fato de que calcular o valor de região para o ponto de interesse específico compreende ainda ajustar o valor de região para uma média de valores de região calculados para o ponto de interesse específico e uma pluralidade de pontos de compensação.
18. Sistema de acordo com qualquer uma das reivindicações 15 a 17, caracterizado pelo fato de que calcular pelo menos um BP para o ponto de interesse específico compreende calcular uma pluralidade de BPs, cada um tendo uma vizinhança diferente, para o ponto de interesse específico, e em que calcular pelo menos um BP para os pontos de compensação compreende calcular uma pluralidade de BPs, cada um tendo uma vizinhança diferente, para cada ponto de compensação.
19. Sistema de acordo com qualquer uma das reivindicações 15 a 18, caracterizado pelo fato de que calcular a pluralidade de BPs para um ponto de interesse específico ou ponto de compensação compreende: reduzir a pluralidade de BPs para um Padrão Binário de Ruído (NBP); e criar um padrão binário geral (genBP) a partir do NPB.
20. Sistema de acordo com qualquer uma das reivindicações 15 a 19, caracterizado pelo fato de que calcular a pluralidade de BPs para um ponto de interesse específico ou ponto de compensação compreende ainda: criar um padrão ponderado H a partir do genBP; e calcular um valor de região para o ponto de interesse específico ou ponto de compensação como: em que L compreende um comprimento máximo de zeros contínuos no genBP.
21. Sistema de acordo com qualquer uma das reivindicações 15 a 20, caracterizado pelo fato de que os pontos de compensação compreendem uma pluralidade de localizações de pixel uniformemente deslocadas em direções diferentes a partir do ponto de interesse específico.
22. Sistema de acordo com qualquer uma das reivindicações 15 a 21, caracterizado pelo fato de que determinar a métrica de qualidade compreende: criar uma lista ordenada dos pontos de interesse com base nos respectivos valores de região dos pontos de interesse; e calcular as distâncias entre pontos de interesse consecutivos na lista ordenada.
23. Sistema de acordo com qualquer uma das reivindicações 15 a 22, caracterizado pelo fato de que determinar a métrica de qualidade compreende ainda calcular a métrica de qualidade como: em que p compreende o número de pontos de interesse, sn compreende o valor de região calculado para ponto de interesse n, swn compreende um índice ponderado para ponto de interesse n, e dwn compreende um peso para a distância correspondendo ao ponto n na lista ordenada.
24. Sistema de acordo com qualquer uma das reivindicações 15 a 23, caracterizado pelo fato de que pelo menos uma porção da imagem da região facial compreende a região ocular ou pelo menos uma das regiões perioculares.
25. Sistema de acordo com qualquer uma das reivindicações 15 a 24, caracterizado pelo fato de que as operações compreendem ainda classificar as regiões de imagem periocular com base em pelo menos uma de uma respectiva capacidade discriminativa de cada região de imagem periocular.
26. Sistema de acordo com qualquer uma das reivindicações 15 a 25, caracterizado pelo fato de que as operações compreendem ainda usar as regiões de imagem periocular em um aparelho de correspondência biométrica progressivo com base pelo menos em parte nas respectivas métricas de qualidade e/ou na classificação da capacidade discriminativa das regiões de imagem periocular.
27. Sistema de acordo com qualquer uma das reivindicações 15 a 26, caracterizado pelo fato de que as operações compreendem ainda: determinar que uma diferença em métrica de qualidade calculada entre uma primeira das regiões de imagem ocular ou periocular e uma segunda das regiões de imagem ocular ou periocular excede um limiar; e indicar uma provável presença de uma fraude com base na diferença determinada em métrica de qualidade calculada.
BR122018007961-4A 2015-09-11 2016-09-09 Método implementado por computador e sistema BR122018007961B1 (pt)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562217660P 2015-09-11 2015-09-11
US62/217,660 2015-09-11
BR112018004755-4A BR112018004755A2 (pt) 2015-09-11 2016-09-09 qualidade de imagem e característica, melhoria de imagem e extração de característica para reconhecimento ocular-vascular e facial e fusão de informação ocular-vascular e/ou subfacial para sistemas biométricos
PCT/US2016/050999 WO2017044782A1 (en) 2015-09-11 2016-09-09 Image and feature quality, image enhancement and feature extraction for ocular-vascular and facial recognition, and fusing ocular-vascular with facial and/or sub-facial information for biometric systems

Publications (2)

Publication Number Publication Date
BR122018007961A2 BR122018007961A2 (pt) 2019-09-10
BR122018007961B1 true BR122018007961B1 (pt) 2024-04-30

Family

ID=56940461

Family Applications (2)

Application Number Title Priority Date Filing Date
BR122018007961-4A BR122018007961B1 (pt) 2015-09-11 2016-09-09 Método implementado por computador e sistema
BR112018004755-4A BR112018004755A2 (pt) 2015-09-11 2016-09-09 qualidade de imagem e característica, melhoria de imagem e extração de característica para reconhecimento ocular-vascular e facial e fusão de informação ocular-vascular e/ou subfacial para sistemas biométricos

Family Applications After (1)

Application Number Title Priority Date Filing Date
BR112018004755-4A BR112018004755A2 (pt) 2015-09-11 2016-09-09 qualidade de imagem e característica, melhoria de imagem e extração de característica para reconhecimento ocular-vascular e facial e fusão de informação ocular-vascular e/ou subfacial para sistemas biométricos

Country Status (14)

Country Link
US (3) US9836643B2 (pt)
EP (1) EP3347853A1 (pt)
JP (3) JP6416438B2 (pt)
KR (3) KR101967123B1 (pt)
CN (2) CN108351961B (pt)
AU (3) AU2016319775B2 (pt)
BR (2) BR122018007961B1 (pt)
HK (1) HK1251933A1 (pt)
MX (1) MX2018003051A (pt)
PH (1) PH12018500541A1 (pt)
RU (2) RU2691195C1 (pt)
SG (2) SG10202001382XA (pt)
TW (3) TWI687832B (pt)
WO (1) WO2017044782A1 (pt)

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6879938B2 (ja) * 2015-05-11 2021-06-02 マジック リープ, インコーポレイテッドMagic Leap,Inc. ニューラルネットワークを利用するバイオメトリックユーザ認識のためのデバイス、方法、およびシステム
US10043071B1 (en) * 2015-07-30 2018-08-07 Morphotrust Usa, Llc Automated document classification
US10255040B2 (en) * 2017-05-11 2019-04-09 Veridium Ip Limited System and method for biometric identification
US11329980B2 (en) 2015-08-21 2022-05-10 Veridium Ip Limited System and method for biometric protocol standards
US9830708B1 (en) 2015-10-15 2017-11-28 Snap Inc. Image segmentation of a video stream
FR3046691B1 (fr) * 2016-01-13 2019-03-29 Commissariat A L'energie Atomique Et Aux Energies Alternatives Dispositif de selection et description de points d'interets dans une sequence d'images, par exemple pour l'appariement de points d'interets
CN115345278A (zh) 2016-03-11 2022-11-15 奇跃公司 卷积神经网络的结构学习
US10733275B1 (en) * 2016-04-01 2020-08-04 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
US10956544B1 (en) 2016-04-01 2021-03-23 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
CH712399A2 (fr) * 2016-04-27 2017-10-31 Bron Christophe Système d'identification biométrique basé sur les réseaux veineux et des codages uniques et non falsifiables de structures arborescentes et procédé associé.
FR3054905B1 (fr) * 2016-08-04 2019-10-18 Safran Identity & Security Procede de generation de cle et procede de controle d'acces
US10262187B1 (en) * 2016-11-10 2019-04-16 Synaptics Incorporated Systems and methods for spoof detection based on local binary patterns
US10565433B2 (en) * 2017-03-30 2020-02-18 George Mason University Age invariant face recognition using convolutional neural networks and set distances
US10762335B2 (en) 2017-05-16 2020-09-01 Apple Inc. Attention detection
CN107169535B (zh) * 2017-07-06 2023-11-03 谈宜勇 生物多光谱图像的深度学习分类方法及装置
CN107480488B (zh) * 2017-07-18 2020-01-14 Oppo广东移动通信有限公司 解锁控制方法及相关产品
CN107492075B (zh) * 2017-07-28 2019-12-10 浙江大学 一种基于细节增强的单张ldr图像曝光校正的方法
US10210381B1 (en) 2017-08-01 2019-02-19 Apple Inc. Multiple enrollments in facial recognition
CN109325394B (zh) 2017-08-01 2022-06-21 苹果公司 确定稀疏图案照明与密集图案照明
CN212846789U (zh) 2017-08-01 2021-03-30 苹果公司 电子设备
CN109325393B (zh) 2017-08-01 2022-12-09 苹果公司 使用单一网络的面部检测、姿态估计和距相机距离的估计
US10719692B2 (en) 2017-09-09 2020-07-21 Apple Inc. Vein matching for difficult biometric authentication cases
US10552671B2 (en) * 2017-11-22 2020-02-04 King Fahd University Of Petroleum And Minerals Multi-kernel fuzzy local Gabor feature extraction method for automatic gait recognition
US10579908B2 (en) * 2017-12-15 2020-03-03 Google Llc Machine-learning based technique for fast image enhancement
US10510145B2 (en) 2017-12-27 2019-12-17 Industrial Technology Research Institute Medical image comparison method and system thereof
CN108734085A (zh) * 2018-03-27 2018-11-02 中国银联股份有限公司 虹膜识别方法及虹膜识别系统
JP2019204288A (ja) * 2018-05-23 2019-11-28 富士通株式会社 生体認証装置、生体認証方法及び生体認証プログラム
US10303866B1 (en) 2018-06-03 2019-05-28 Apple Inc. Automatic retries for facial recognition
US10769414B2 (en) 2018-06-03 2020-09-08 Apple Inc. Robust face detection
TWI674557B (zh) * 2018-07-31 2019-10-11 瑞昱半導體股份有限公司 影像處理裝置及其方法
CN109389031B (zh) * 2018-08-27 2021-12-03 浙江大丰实业股份有限公司 演出人员自动定位机构
US11163981B2 (en) 2018-09-11 2021-11-02 Apple Inc. Periocular facial recognition switching
US11568681B2 (en) 2018-09-27 2023-01-31 Nec Corporation Iris authentication device, iris authentication method and recording medium
EP3863503A1 (en) * 2018-10-09 2021-08-18 Essilor International A method for adapting ophthalmic equipment according to a wearer's visual exploration strategy
EP3651057B1 (fr) * 2018-11-09 2023-06-14 Tissot S.A. Procede d'authentification faciale d'un porteur d'une montre
CN109766925B (zh) * 2018-12-20 2021-05-11 深圳云天励飞技术有限公司 特征融合方法、装置、电子设备及存储介质
CN109766809B (zh) * 2018-12-29 2021-01-29 山东财经大学 一种改进的人眼检测及跟踪方法
US10803343B2 (en) * 2019-01-23 2020-10-13 Ncku Research And Development Foundation Motion-aware keypoint selection system adaptable to iterative closest point
US10796194B2 (en) * 2019-01-23 2020-10-06 Ncku Research And Development Foundation Motion-aware keypoint selection system adaptable to iterative closest point
CN111666796B (zh) * 2019-03-08 2023-04-07 财团法人成大研究发展基金会 适用于迭代最近点法的可察觉移动的关键点选择系统
US10599934B1 (en) * 2019-03-21 2020-03-24 Alibaba Group Hoding Limited Spoof detection using optokinetic response
US10853642B2 (en) * 2019-03-22 2020-12-01 Advanced New Technologies Co., Ltd. Fusing multi-spectral images for identity authentication
FR3094122A1 (fr) * 2019-03-22 2020-09-25 Stmicroelectronics (Grenoble 2) Sas Dispositif électronique de traitement d’images
CN110070037B (zh) * 2019-04-22 2022-11-01 深圳力维智联技术有限公司 人脸识别模型的平滑升级方法、装置和可读存储介质
CN110110637A (zh) * 2019-04-25 2019-08-09 深圳市华嘉生物智能科技有限公司 一种人脸皮肤皱纹自动识别和皱纹严重程度自动分级的方法
EP3973468A4 (en) 2019-05-21 2022-09-14 Magic Leap, Inc. HANDPOSITION ESTIMATING
CN112102543A (zh) * 2019-05-31 2020-12-18 杭州海康威视数字技术股份有限公司 一种安检系统和方法
CN110472479B (zh) * 2019-06-28 2022-11-22 广州中国科学院先进技术研究所 一种基于surf特征点提取和局部lbp编码的指静脉识别方法
JP7237768B2 (ja) * 2019-08-02 2023-03-13 株式会社日立製作所 生体情報検出装置
US11087444B2 (en) * 2019-08-09 2021-08-10 The Boeing Company Field programmable gate array (FPGA) implementation and optimization of augmented contrast limited adaptive histogram equalization
US11916612B2 (en) * 2019-10-01 2024-02-27 Nippon Telegraph And Telephone Corporation Mobile terminal and communication quality prediction method
US11348375B2 (en) 2019-10-15 2022-05-31 Assa Abloy Ab Systems and methods for using focal stacks for image-based spoof detection
US11294996B2 (en) 2019-10-15 2022-04-05 Assa Abloy Ab Systems and methods for using machine learning for image-based spoof detection
US11304645B2 (en) * 2019-10-15 2022-04-19 Biosense Webster (Israel) Ltd. Local rendering based detail subset presentation
US10607077B1 (en) * 2019-10-28 2020-03-31 EyeVerify Inc. Identity authentication using an inlier neural network
KR20210071410A (ko) 2019-12-06 2021-06-16 삼성전자주식회사 센서 특화 이미지 인식 장치 및 방법
US11276153B2 (en) * 2020-01-14 2022-03-15 Adobe Inc. Auto-complete image suggestions for image editing
KR102409790B1 (ko) * 2020-01-30 2022-06-17 주식회사 알체라 생체정보 분산관리 시스템 및 이를 이용한 생체인식 방법
DE102020202946A1 (de) 2020-03-08 2021-09-09 Volkswagen Aktiengesellschaft Verfahren zum Bereitstellen des Zugangs zu einem Gerät sowie Kraftfahrzeug
CN111415397B (zh) * 2020-03-20 2024-03-08 广州虎牙科技有限公司 一种人脸重构、直播方法、装置、设备及存储介质
CN111507208B (zh) * 2020-03-30 2021-06-25 中国科学院上海微系统与信息技术研究所 一种基于巩膜识别的身份验证方法、装置、设备和介质
DE102020109171A1 (de) 2020-04-02 2021-10-07 Bundesdruckerei Gmbh Integritätsprüfung eines Dokuments mit personenbezogenen Daten
JP7363675B2 (ja) * 2020-06-15 2023-10-18 株式会社島津製作所 イメージング質量分析装置、及びイメージング質量分析方法
US11275959B2 (en) * 2020-07-07 2022-03-15 Assa Abloy Ab Systems and methods for enrollment in a multispectral stereo facial recognition system
US11689822B2 (en) 2020-09-04 2023-06-27 Altek Semiconductor Corp. Dual sensor imaging system and privacy protection imaging method thereof
WO2022051775A1 (en) 2020-09-04 2022-03-10 Abova, Inc. Method for x-ray dental image enhancement
CN112329674B (zh) * 2020-11-12 2024-03-12 北京环境特性研究所 基于多纹理特征融合的结冰湖泊检测方法和装置
JP2024503217A (ja) * 2020-12-17 2024-01-25 アヴェドロ・インコーポレーテッド 眼感染症の処置
US11921831B2 (en) 2021-03-12 2024-03-05 Intellivision Technologies Corp Enrollment system with continuous learning and confirmation
TWI775356B (zh) * 2021-03-19 2022-08-21 宏碁智醫股份有限公司 用於眼底圖的影像前處理方法及影像處理裝置
TWI758162B (zh) * 2021-04-15 2022-03-11 和碩聯合科技股份有限公司 生物形體的追蹤系統及方法
AU2021240278A1 (en) * 2021-09-20 2023-04-06 Sensetime International Pte. Ltd. Face identification methods and apparatuses
WO2023041963A1 (en) * 2021-09-20 2023-03-23 Sensetime International Pte. Ltd. Face identification methods and apparatuses
EP4160548A1 (en) * 2021-10-01 2023-04-05 Amadeus S.A.S. System and method for processing biometric characteristics
WO2023133072A2 (en) 2022-01-07 2023-07-13 Jumio Corporation Biometric authentication using head-mounted devices
CN114936361A (zh) * 2022-01-28 2022-08-23 中国银联股份有限公司 生物特征识别方法、服务器以及客户端
CN115442021A (zh) * 2022-08-09 2022-12-06 中国银联股份有限公司 一种数据匹配方法、装置、系统、设备及介质
US11762969B1 (en) * 2023-01-12 2023-09-19 King Saud University Systems and methods for facilitating biometric recognition
CN115984952B (zh) * 2023-03-20 2023-11-24 杭州叶蓁科技有限公司 基于球结膜血管图像识别的眼动跟踪系统及其方法
CN117392225A (zh) * 2023-12-06 2024-01-12 中导光电设备股份有限公司 一种显示屏检测区域位置校正的方法和系统

Family Cites Families (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US5303709A (en) 1991-12-16 1994-04-19 Dreher Andreas W Retinal eye disease diagnostic system
US6095989A (en) 1993-07-20 2000-08-01 Hay; Sam H. Optical recognition methods for locating eyes
US5632282A (en) 1993-07-20 1997-05-27 Hay; S. Hutson Ocular disease detection apparatus
US6707484B1 (en) 1994-07-28 2004-03-16 Semiconductor Energy Laboratory Co., Ltd. Information processing system
US6714665B1 (en) * 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
JPH1063858A (ja) * 1996-08-21 1998-03-06 Oki Electric Ind Co Ltd 個人識別方法及び個人識別装置
AU5114498A (en) 1996-12-04 1998-06-29 Dew Engineering And Development Limited Biometric security encryption system
JPH10340343A (ja) * 1997-06-06 1998-12-22 Oki Electric Ind Co Ltd 個体識別装置
JPH10340344A (ja) * 1997-06-06 1998-12-22 Oki Electric Ind Co Ltd 個体識別装置
US6185316B1 (en) 1997-11-12 2001-02-06 Unisys Corporation Self-authentication apparatus and method
JP3315648B2 (ja) 1998-07-17 2002-08-19 沖電気工業株式会社 アイリスコード生成装置およびアイリス認識システム
KR100320188B1 (ko) 1999-03-23 2002-01-10 구자홍 홍채인식 시스템의 위조 판별방법
JP4519963B2 (ja) 1999-06-21 2010-08-04 富士通株式会社 生体情報の暗号化・復号化方法および装置並びに、生体情報を利用した本人認証システム
US6839151B1 (en) 2000-02-02 2005-01-04 Zoran Corporation System and method for color copy image processing
DE50010319D1 (de) 2000-05-16 2005-06-16 Swisscom Mobile Ag Biometrisches identifizierungs- und authentifizierungsverfahren
US7536557B2 (en) 2001-03-22 2009-05-19 Ensign Holdings Method for biometric authentication through layering biometric traits
US6836554B1 (en) 2000-06-16 2004-12-28 International Business Machines Corporation System and method for distorting a biometric for transactions with enhanced security and privacy
JP2002236666A (ja) * 2001-02-09 2002-08-23 Matsushita Electric Ind Co Ltd 個人認証装置
US7103200B2 (en) 2001-03-05 2006-09-05 Robert Hillhouse Method and system for adaptively varying templates to accommodate changes in biometric information
US8284025B2 (en) 2001-07-10 2012-10-09 Xatra Fund Mx, Llc Method and system for auditory recognition biometrics on a FOB
FR2831302A1 (fr) 2001-10-19 2003-04-25 St Microelectronics Sa Codage d'informations concentriques
WO2003105678A2 (en) 2002-06-12 2003-12-24 Advanced Research And Technology Institute, Inc. Method and apparatus for improving both lateral and axial resolution in ophthalmoscopy
JP2004023733A (ja) 2002-06-20 2004-01-22 Canon Inc 画像撮影装置及びその制御方法
US7668351B1 (en) 2003-01-17 2010-02-23 Kestrel Corporation System and method for automation of morphological segmentation of bio-images
WO2004073501A2 (en) 2003-02-20 2004-09-02 Gutin Mikhail Optical coherence tomography with 3d coherence scanning
US7599524B2 (en) * 2003-04-04 2009-10-06 Sarnoff Corporation Method and apparatus for providing a robust object finder
KR20050025927A (ko) * 2003-09-08 2005-03-14 유웅덕 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법
JP3945474B2 (ja) 2003-11-28 2007-07-18 松下電器産業株式会社 眼画像入力装置および認証装置ならびに画像処理方法
US7336806B2 (en) 2004-03-22 2008-02-26 Microsoft Corporation Iris-based biometric identification
US7542590B1 (en) 2004-05-07 2009-06-02 Yt Acquisition Corporation System and method for upgrading biometric data
US20050281440A1 (en) 2004-06-18 2005-12-22 Pemer Frederick A Iris feature detection and sensor-based edge detection
US7155040B2 (en) 2004-06-29 2006-12-26 Bio-Key International, Inc. Generation of quality field information in the context of image processing
US20060122939A1 (en) 2004-11-19 2006-06-08 Cohen Mark S System and method for generating and verifying application licenses
US20060120571A1 (en) * 2004-12-03 2006-06-08 Tu Peter H System and method for passive face recognition
GB0427205D0 (en) 2004-12-11 2005-01-12 Ncr Int Inc Biometric system
WO2006069158A2 (en) 2004-12-22 2006-06-29 Merkatum Corporation Self-adaptive multimodal biometric authentication system and method
CA2594592A1 (en) 2005-01-14 2006-07-27 Ultra-Scan Corporation Multimodal fusion decision logic system
JP4767971B2 (ja) * 2005-01-26 2011-09-07 ハネウェル・インターナショナル・インコーポレーテッド 距離虹彩認識システム
RU2365995C2 (ru) * 2005-01-31 2009-08-27 Самсунг Электроникс Ко., Лтд. Система и способ регистрации двухмерных изображений
US7327860B2 (en) 2005-05-04 2008-02-05 West Virginia University Conjunctival scans for personal identification
US8370639B2 (en) 2005-06-16 2013-02-05 Sensible Vision, Inc. System and method for providing secure access to an electronic device using continuous facial biometrics
JP4686284B2 (ja) 2005-07-13 2011-05-25 日立オムロンターミナルソリューションズ株式会社 生体情報登録装置
CN100336071C (zh) * 2005-08-19 2007-09-05 清华大学 复杂背景图像中鲁棒的眼睛精确定位方法
US7801335B2 (en) 2005-11-11 2010-09-21 Global Rainmakers Inc. Apparatus and methods for detecting the presence of a human eye
US8260008B2 (en) 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
US8005277B2 (en) 2006-03-03 2011-08-23 Research Foundation-State University of NY Secure fingerprint matching by hashing localized information
US20070217708A1 (en) 2006-03-20 2007-09-20 International Business Machines Corporation Method, system, and program product for transforming a biometric image
RU2304307C1 (ru) * 2006-03-29 2007-08-10 Юрий Витальевич Морзеев Способ идентификации человека по изображению его лица
JP4961214B2 (ja) 2006-03-29 2012-06-27 株式会社日立情報制御ソリューションズ 生体認証方法およびシステム
WO2007124450A2 (en) 2006-04-21 2007-11-01 The Trustees Of The University Of Pennsylvania Motion artifact compensation
WO2007127157A2 (en) 2006-04-28 2007-11-08 Retica Systems, Inc. System and method for biometric retinal identification
KR100852629B1 (ko) 2006-06-02 2008-08-18 연세대학교 산학협력단 다초점 영상 시퀀스를 이용한 홍채인식 시스템 및 방법
US20070291277A1 (en) 2006-06-20 2007-12-20 Everett Matthew J Spectral domain optical coherence tomography system
US8417960B2 (en) 2006-09-06 2013-04-09 Hitachi, Ltd. Method for generating an encryption key using biometrics authentication and restoring the encryption key and personal authentication system
PL380581A1 (pl) 2006-09-07 2008-03-17 Naukowa I Akademicka Sieć Komputerowa Sposób testowania żywotności oka i urządzenie do testowania żywotności oka
US7496174B2 (en) * 2006-10-16 2009-02-24 Oraya Therapeutics, Inc. Portable orthovoltage radiotherapy
US20080298642A1 (en) 2006-11-03 2008-12-04 Snowflake Technologies Corporation Method and apparatus for extraction and matching of biometric detail
KR100855631B1 (ko) * 2006-12-26 2008-09-01 (주)엔토시스 특징벡터 검출장치 및 방법, 그리고, 이를 이용한얼굴인식장치 및 방법
JP4309926B2 (ja) 2007-03-13 2009-08-05 アイシン精機株式会社 顔特徴点検出装置、顔特徴点検出方法及びプログラム
US8279329B2 (en) 2007-04-10 2012-10-02 University Of Rochester Structured illumination for imaging of stationary and non-stationary, fluorescent and non-fluorescent, objects
US8831299B2 (en) * 2007-05-22 2014-09-09 Intellectual Ventures Fund 83 Llc Capturing data for individual physiological monitoring
FI20070501A0 (fi) 2007-06-21 2007-06-21 Timo Tapani Lehto Menetelmä ja järjestelmä ihmisen tunnistamiseksi
JP5110983B2 (ja) 2007-06-29 2012-12-26 日立オムロンターミナルソリューションズ株式会社 生体認証処理システム
US8553948B2 (en) 2007-09-01 2013-10-08 Eyelock, Inc. System and method for iris data acquisition for biometric identification
RU2382408C2 (ru) * 2007-09-13 2010-02-20 Институт прикладной физики РАН Способ и система для идентификации человека по изображению лица
RU2390844C2 (ru) * 2007-10-22 2010-05-27 Государственное образовательное учреждение высшего профессионального образования Курский государственный технический университет Способ распознавания глаз на изображении и устройство для его реализации
JP5080944B2 (ja) 2007-11-08 2012-11-21 興和株式会社 パノラマ眼底画像合成装置及び方法
ES2326205B1 (es) 2007-11-27 2010-06-29 Universidad Complutense De Madrid Metodo y dispositivo para el reconocimiento de individuos basado en la imagen de la retina que incorpora como constante biometrica el area imagen del punto de fijacion.
US8532344B2 (en) 2008-01-09 2013-09-10 International Business Machines Corporation Methods and apparatus for generation of cancelable face template
JP5277365B2 (ja) * 2008-04-06 2013-08-28 国立大学法人九州工業大学 個人認証方法及びそれに使用する個人認証装置
US8238639B2 (en) 2008-04-09 2012-08-07 Cognex Corporation Method and system for dynamic feature detection
KR100949801B1 (ko) 2008-04-17 2010-03-30 한국전자통신연구원 퍼지볼트 시스템에서의 다항식 복원장치 및 그 방법
US8079711B2 (en) 2008-04-24 2011-12-20 Carl Zeiss Meditec, Inc. Method for finding the lateral position of the fovea in an SDOCT image volume
CN102105901B (zh) 2008-06-06 2013-03-06 谷歌公司 注释图像
JP4569670B2 (ja) * 2008-06-11 2010-10-27 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8249314B2 (en) 2008-06-16 2012-08-21 International Business Machines Corporation Anonymous and revocable fingerprint recognition
JP2010020594A (ja) * 2008-07-11 2010-01-28 Kddi Corp 瞳画像認識装置
ES2337866B2 (es) 2008-07-24 2011-02-14 Universidad Complutense De Madrid Reconocimiento biometrico mediante estudio del mapa de superficie delsegundo dioptrio ocular.
US8090246B2 (en) 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
KR100996466B1 (ko) 2008-10-09 2010-11-25 조선대학교산학협력단 비밀분산 기법을 이용한 지문정보 저장 장치, 비밀분산 기법을 이용한 지문 인증 시스템 및 비밀분산 기법을 이용한 지문 인증 방법
US9226798B2 (en) 2008-10-10 2016-01-05 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for surgical applications
US8514277B2 (en) 2008-11-05 2013-08-20 Dyer Holdings, Llc Video infrared retinal image scanner
US20100142766A1 (en) 2008-12-04 2010-06-10 Alan Duncan Fleming Image Analysis
US8280119B2 (en) 2008-12-05 2012-10-02 Honeywell International Inc. Iris recognition system using quality metrics
KR20100073191A (ko) 2008-12-22 2010-07-01 한국전자통신연구원 거리 정보를 이용한 위조 얼굴 검출 방법 및 장치
US8768014B2 (en) 2009-01-14 2014-07-01 Indiana University Research And Technology Corp. System and method for identifying a person with reference to a sclera image
US20100232659A1 (en) 2009-03-12 2010-09-16 Harris Corporation Method for fingerprint template synthesis and fingerprint mosaicing using a point matching algorithm
US8472681B2 (en) * 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
GB2471192B (en) 2009-06-15 2011-08-17 Honeywell Int Inc An iris and ocular recognition system using trace transforms
JP5287550B2 (ja) 2009-07-01 2013-09-11 富士通株式会社 生体認証システム,生体認証方法,生体認証装置,生体情報処理装置,生体認証プログラムおよび生体情報処理プログラム
EP2477157A4 (en) 2009-09-09 2015-08-12 Nec Corp BIOMETRIC AUTHENTICATION SYSTEM AND METHOD AND PROGRAM THEREFOR
KR101255555B1 (ko) 2009-11-24 2013-04-17 한국전자통신연구원 보안성이 강화된 지문인식 방법 및 장치
JP5218991B2 (ja) 2009-12-08 2013-06-26 株式会社日立製作所 複数種類のテンプレートを用いた生体認証システム及び生体認証方法
US8818048B2 (en) 2010-01-22 2014-08-26 Indiana University Research And Technology Corp. System and method for cancelable iris recognition
WO2011111102A1 (ja) 2010-03-10 2011-09-15 富士通株式会社 生体認証装置及び生体認証方法
US8948467B2 (en) 2010-08-06 2015-02-03 Honeywell International Inc. Ocular and iris processing system and method
EP2651072A3 (en) 2010-09-20 2013-10-23 Security First Corp. Systems and methods for secure data sharing
US8457370B2 (en) 2011-01-20 2013-06-04 Daon Holdings Limited Methods and systems for authenticating users with captured palm biometric data
US8355544B2 (en) 2011-02-01 2013-01-15 Universidade Da Coruna-Otri Method, apparatus, and system for automatic retinal image analysis
US9064145B2 (en) * 2011-04-20 2015-06-23 Institute Of Automation, Chinese Academy Of Sciences Identity recognition based on multiple feature fusion for an eye image
US9323980B2 (en) 2011-05-13 2016-04-26 Microsoft Technology Licensing, Llc Pose-robust recognition
US8385685B2 (en) * 2011-06-08 2013-02-26 Honeywell International Inc. System and method for ocular recognition
WO2013059333A2 (en) * 2011-10-17 2013-04-25 Eyedeal Scanning, Llc Method and apparatus for determining eye topography
US8235529B1 (en) 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
CN102496007B (zh) 2011-12-02 2014-06-11 陈中山 人体身份识别仪
US9082011B2 (en) * 2012-03-28 2015-07-14 Texas State University—San Marcos Person identification using ocular biometrics with liveness detection
US8457367B1 (en) 2012-06-26 2013-06-04 Google Inc. Facial recognition
US8768049B2 (en) 2012-07-13 2014-07-01 Seiko Epson Corporation Small vein image recognition and authorization using constrained geometrical matching and weighted voting under generic tree model
US8483450B1 (en) * 2012-08-10 2013-07-09 EyeVerify LLC Quality metrics for biometric authentication
US8437513B1 (en) * 2012-08-10 2013-05-07 EyeVerify LLC Spoof detection for biometric authentication
US8369595B1 (en) 2012-08-10 2013-02-05 EyeVerify LLC Texture features for biometric authentication
JP6005750B2 (ja) * 2012-08-28 2016-10-12 株式会社日立製作所 認証装置、及び認証方法
CN103679118B (zh) * 2012-09-07 2017-06-16 汉王科技股份有限公司 一种人脸活体检测方法及系统
US9171226B2 (en) * 2012-09-26 2015-10-27 Carnegie Mellon University Image matching using subspace-based discrete transform encoded local binary patterns
CN104143078B (zh) * 2013-05-09 2016-08-24 腾讯科技(深圳)有限公司 活体人脸识别方法、装置和设备
US9076238B2 (en) 2013-08-21 2015-07-07 Seiko Epson Corporation Intelligent weighted blending for ultrasound image stitching
US9053365B2 (en) * 2013-09-16 2015-06-09 EyeVerify, Inc. Template update for biometric authentication
US8965066B1 (en) 2013-09-16 2015-02-24 Eye Verify LLC Biometric template security and key generation
TWI557004B (zh) * 2014-01-10 2016-11-11 Utechzone Co Ltd Identity authentication system and its method
KR101950562B1 (ko) * 2014-02-25 2019-02-20 아이베리파이 인크. 시선 추적
US9922238B2 (en) * 2015-06-25 2018-03-20 West Virginia University Apparatuses, systems, and methods for confirming identity

Also Published As

Publication number Publication date
US20170076146A1 (en) 2017-03-16
TW202029031A (zh) 2020-08-01
BR112018004755A2 (pt) 2018-09-25
AU2016319775A1 (en) 2018-04-12
AU2016319775B2 (en) 2018-10-04
MX2018003051A (es) 2018-06-08
PH12018500541A1 (en) 2018-09-24
SG10202001382XA (en) 2020-04-29
BR122018007961A2 (pt) 2019-09-10
WO2017044782A1 (en) 2017-03-16
TWI706266B (zh) 2020-10-01
JP2018206442A (ja) 2018-12-27
TWI706272B (zh) 2020-10-01
US9721150B2 (en) 2017-08-01
HK1251933A1 (zh) 2019-05-03
SG10202001380RA (en) 2020-04-29
JP6416438B2 (ja) 2018-10-31
EP3347853A1 (en) 2018-07-18
RU2691195C1 (ru) 2019-06-11
KR102131104B1 (ko) 2020-07-07
CN108351961B (zh) 2019-11-01
AU2018256555A1 (en) 2018-11-22
KR20200007085A (ko) 2020-01-21
BR122018007964A2 (pt) 2019-09-10
TWI687832B (zh) 2020-03-11
US20170076145A1 (en) 2017-03-16
TW202029035A (zh) 2020-08-01
US9836643B2 (en) 2017-12-05
KR101967123B1 (ko) 2019-04-08
CN110852160B (zh) 2023-05-09
JP6778247B2 (ja) 2020-10-28
AU2019204639B2 (en) 2019-12-19
JP2019079546A (ja) 2019-05-23
RU2711050C2 (ru) 2020-01-14
RU2019116007A (ru) 2019-06-11
CN110852160A (zh) 2020-02-28
KR20190038685A (ko) 2019-04-08
KR102067947B1 (ko) 2020-01-17
AU2019204639A1 (en) 2019-07-18
JP6449516B2 (ja) 2019-01-09
AU2018256555B2 (en) 2019-05-02
US20170206404A1 (en) 2017-07-20
RU2019116007A3 (pt) 2019-07-17
TW201712580A (zh) 2017-04-01
CN108351961A (zh) 2018-07-31
US10311286B2 (en) 2019-06-04
KR20180057646A (ko) 2018-05-30
JP2018528543A (ja) 2018-09-27

Similar Documents

Publication Publication Date Title
BR122018007961B1 (pt) Método implementado por computador e sistema
US10789465B2 (en) Feature extraction and matching for biometric authentication
BR122018007964B1 (pt) Método implementado por computador e sistema

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B06A Patent application procedure suspended [chapter 6.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B25D Requested change of name of applicant approved

Owner name: MATRIX TWO INC. (US)

B25G Requested change of headquarter approved

Owner name: MATRIX TWO INC. (US)

B25A Requested transfer of rights approved

Owner name: JUMIO CORPORATION (US)

B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 09/09/2016, OBSERVADAS AS CONDICOES LEGAIS