BR122017019640B1 - Método implementado por computador e sistema para autenticação biométrica - Google Patents

Método implementado por computador e sistema para autenticação biométrica Download PDF

Info

Publication number
BR122017019640B1
BR122017019640B1 BR122017019640-5A BR122017019640A BR122017019640B1 BR 122017019640 B1 BR122017019640 B1 BR 122017019640B1 BR 122017019640 A BR122017019640 A BR 122017019640A BR 122017019640 B1 BR122017019640 B1 BR 122017019640B1
Authority
BR
Brazil
Prior art keywords
point
image
verification
points
match
Prior art date
Application number
BR122017019640-5A
Other languages
English (en)
Inventor
Vikas Gottemukkula
Reza R. Derakhshani
Sashi Kanth Saripalle
Original Assignee
Eyeverify Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=51656090&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=BR122017019640(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Eyeverify Inc filed Critical Eyeverify Inc
Publication of BR122017019640B1 publication Critical patent/BR122017019640B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • G06K9/6215
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Vascular Medicine (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

MÉTODO IMPLEMENTADO POR COMPUTADOR E SISTEMA PARA AUTENTICAÇÃO BIOMÉTRICA. Sistema de extração de característica e correspondência de padrão, a redefinição da imagem pode permitir a detecção vascular de ponto (VPD) para detectar os pontos de interesse da vascularização visível do olho. Histogramas de Padrão de Padrões Binários Locais de Múltiplos Raios Estendidos e/ou Histogramas de Padrão de Padrões Binários Locais Simétricos Centralizados de Múltiplos Raios Estendidos podem fornecer descrição das partes das imagens que circunda um ponto de interesse e modelos de registro e verificação podem ser gerados usando os pontos detectados através de VPD e dos descritores correspondentes. Partes de ponto inlier podem ser selecionados a partir de modelos de registro e verificação e uma primeira pontuação de correspondência indicando a similaridade dos dois modelos pode ser calculada com base no número de pares de ponto inlier e um ou mais parâmetros de uma transformada selecionada pela detecção inlier. Uma segunda pontuação de correspondência pode ser calculada por meio da aplicação da transformada selecionada e qualquer uma ou ambas as pontuações podem ser usadas para autenticar o usuário.

Description

[001] Dividido do BR112016005674-4, depositado em 16 de setembro de 2014.
REFERÊNCIA CRUZADA AOS PEDIDOS RELACIONADOS
[002] Esse pedido está relacionado e reivindica o benefício de prioridade ao Pedido Provisório Norte-Americano No. serial 61/878,588, intitulado "Image feature Detection, Authentication, and Information Hiding", depositado em 16 de setembro de 2013, que está aqui incorporado por referência em sua totalidade.
CAMPO TÉCNICO
[003] A presente invenção refere-se, de modo geral, a técnicas de comparação de imagem para determinar a similaridade entre duas imagens e, em particular, a autenticação biométrica com base nas imagens do olho.
ANTECEDENTES DA INVENÇÃO
[004] É geralmente desejável restringir o acesso à propriedade ou recursos às pessoas específicas. Os sistemas biométricos podem ser utilizados para autenticar a identidade de uma pessoa a qualquer concessão ou negar acesso a um recurso. Por exemplo, scanners de íris podem ser usados por um sistema de segurança biométrica para identificar uma pessoa com base nas estruturas únicas na íris do indivíduo.
[005] Em um sistema de autenticação biométrica com base na imagem típica, uma ou mais imagens são obtidas a partir de uma pessoa que reivindica ser um usuário autorizado. Essas imagens são comparadas com uma ou mais imagens de referência que são conhecidas como fornecidas por um ou mais usuários autorizados. Apenas se as imagens fornecidas pelo requerente corresponderem bem com uma ou mais imagens de referência, o requerente pode ser determinado como um usuário autorizado. Uma correspondência entre as duas imagens, ou seja, uma medida de similaridade entre as duas imagens, pode ser baseada nas características dessas imagens. As características podem incluir uma coleção de um ou mais pontos de interesse na imagem, e descrições das partes da imagem que circunda tais pontos de interesse.
SUMÁRIO
[006] Esse relatório descritivo descreve as tecnologias que são bem adequadas para autenticação biométrica com base nas imagens do olho. Em particular, uma técnica de redefinição da imagem pode ajudar na detecção eficiente de característica. Uma técnica de Detecção de Ponto Vascular (VPD, Vascular Point Detection) pode detectar os pontos de interesse da vascularização visível do olho e Histogramas de Padrão de Padrões Binários Locais de Múltiplos Raios Estendidos (PH- EMR-LBP) e/ou Histogramas de Padrão de Padrões Binários Locais Simétricos Centralizados de Múltiplos Raios Estendidos (PH-EMR-CS- LBP) podem eficientemente fornecer a descrição das imagens que circundam um ponto de interesse da vascularização. A vascularização visível pode ser obtida usando uma máscara escleral, que pode ser uma máscara de imagem binária que inclui o branco do olho e exclui uma parte da imagem que circunda o branco do olho a partir de uma imagem ocular. As técnicas de correspondência descritas aqui podem melhorar a eficiência e/ou precisão da distância ou correspondência com base na correlação usando detecção outlier. As técnicas descritas também permitem atualizar os modelos que são derivados das imagens de referência e são usados para autenticação (geralmente referidos como modelos de registro na discussão abaixo), de modo que a melhor qualidade e imagens diversas sejam usadas na autenticação, por exemplo, para reduzir as variâncias que ocorrem naturalmente nas imagens capturadas em diferentes localizações e tempos.
[007] Em um sistema de extração de característica e correspondência de padrão, a redefinição da imagem pode permitir a detecção vascular de ponto (VPD) para detectar pontos de interesse da vascularização visível do olho. Histogramas de Padrão de Padrões Binários Locais de Múltiplos Raios Estendidos e/ou Histogramas de Padrão de Padrões Binários Locais Simétricos Centralizados de Múltiplos Raios Estendidos podem fornecer a descrição de partes de imagens que circundam um ponto de interesse e modelos de registro e verificação podem ser gerados usando os pontos detectados através da VPD e os descritores correspondentes. Partes de ponto inlier podem ser selecionadas a partir dos modelos de registro e verificação, e uma primeira pontuação de correspondência indicando a similaridade dos dois modelos pode ser calculada com base no número de pares de ponto inlier e um ou mais parâmetros de uma transformada selecionada pela detecção inlier. Uma segunda pontuação de correspondência pode ser calculada por meio da aplicação da transformada selecionada, e qualquer uma ou ambas as pontuações podem ser usadas para autenticar o usuário.
[008] Um modelo de registro pode ser uma coleção de pontos de interesse como pontos vasculares (VPD) e características correspondentes como Padrões Binários Locais de Múltiplos Raios Acentuados (EMR-LBP), Histogramas de Padrão de Padrões Binários Locais de Múltiplos Raios Acentuados (PH-EMR-LBP), Histogramas de Padrão de Padrões Binários Locais Simétricos Centralizados de Múltiplos Raios Acentuados (PH-EMR-CS-LBP) e Padrões Binários Locais Simétricos Centralizados de Múltiplos Raios Acentuados (EMR- CS-LBP). Em algumas implementações, um modelo de registro pode ser criado apenas se a imagem adquirida exceder um certo limite com base no índice dos pontos de VPD para essa de tamanho da região escleral segmentada. Mais de um registro é possível para um único usuário. Modelos de registro podem ser atualizados para acomodar as variações comportamentais e/ou ambientais que afetam as varreduras adquiridas. A atualização dos modelos de registro usando a verificação pode ser com base na qualidade de um modelo de verificação do candidato, pontuação de correspondência, e/ou outra imagem e medições de similaridade de exposição.
[009] Certamente, em um aspecto, um método implementado por computador inclui obter uma imagem intensificada com base em um número de imagens capturadas. Uma ou mais imagens capturadas podem incluir imagens de uma estrutura vascular. Além disso, o método inclui detectar vários pontos vasculares na imagem intensificada e, para cada um de um número de pontos vasculares detectados, gerar um ou mais diferentes descritores de imagem local. O método ainda inclui gerar um modelo que inclui um ou mais dos pontos vasculares detectados e seus respectivos descritores de imagem local. Outras modalidades desse aspecto incluem os sistemas, aparelho e programas de computador correspondentes.
[0010] Em uma implementação, obter uma imagem intensificada específica inclui selecionar uma ou mais imagens de várias imagens capturadas e calcular uma média das imagens selecionadas para gerar uma imagem média. O método ainda inclui correlacionar a imagem média com um kernel de Laplaciano de Gaussiano para obter uma imagem correlacionada e subtrair cada pixel da imagem correlacionada de um valor de pixel máximo, para obter uma imagem de diferença. Além disso, essa implementação do método inclui multiplicar, em uma forma por pixel, a imagem de diferença e a imagem média, para obter uma imagem intensificada específica. Em algumas implementações, ao invés de usar um kernel LoG, calcular a imagem de diferença e multiplicar a imagem de diferença e a imagem média, um número de kernels de Gabor orientado em diferentes ângulos pode ser usado para correlacionar a imagem média, para obter uma imagem intensificada diretamente.
[0011] Em outra implementação, a imagem média pode ser correlacionada com um conjunto de kernels de Gabor iguais para obter uma imagem intensificada. O conjunto de kernels de Gabor iguais que são orientados pelos vários ângulos pode ser sintonizado com base nos vários parâmetros, como a resolução e escala da imagem de entrada e largura média de vascularização visível. Essa imagem correlacionada pode ser usada ao invés da, ou além da imagem intensificada com base no LoG mencionada acima.
[0012] Em uma implementação, a detecção de um número de pontos vasculares inclui selecionar um ponto na imagem intensificada como um ponto vascular do candidato. Então, vários (por exemplo, N onde N é maior do que um) primeiros pontos de proximidade de acordo com a primeira janela centralizada no ponto vascular do candidato podem ser identificados. Além disso, vários (por exemplo, N) outros segundos pontos de proximidade de acordo com a segunda janela centralizada, diferente, no ponto vascular do candidato podem ainda ser identificados. Nessa implementação, o método ainda inclui determinar estados N onde N é maior do que um. Cada um dos estados N corresponde a um ponto de proximidade nos pontos N da primeira proximidade de pontos. Um estado pode ser determinado por meio da realização de uma comparação com base em, pelo menos em parte, respectivas intensidades de um dos primeiros pontos de proximidade, ou seja, um dos pontos N de acordo com a primeira janela, um ponto correspondente da segunda proximidade, ou seja, um dos pontos N de acordo com a segunda janela e o ponto vascular do candidato. O método pode ainda incluir agregar os estados N e designar o ponto vascular do candidato como um ponto vascular com base, pelo menos em parte, em um valor dos estados agregados.
[0013] Em algumas implementações, uma distância geométrica entre o ponto vascular do candidato e um primeiro ponto de proximidade na primeira janela é menor do que uma distância geométrica entre o ponto vascular do candidato e um primeiro ponto de proximidade na segunda janela, onde o primeiro ponto de proximidade na segunda janela corresponde ao primeiro ponto de proximidade na primeira janela. A comparação pode incluir testar se uma intensidade do ponto na primeira proximidade de pontos N é maior por um primeiro limiar do que uma intensidade do ponto vascular do candidato. De modo alternativo ou adicional, a comparação pode incluir testar se uma intensidade do ponto correspondente na segunda proximidade de pontos N é maior pelo primeiro limiar do que a intensidade do ponto vascular do candidato. Determinar um estado correspondente pode incluir definir o estado em um primeiro valor (por exemplo, um valor lógico alto ou "1") se qualquer um dos dois testes for verdadeiro e definir o estado em um segundo valor (por exemplo, um valor lógico baixo ou "0"), de outro modo. Em uma implementação, agregar os estados N inclui somar os estados N e designar inclui testar se um valor somado dos estados agregados excede uma conta selecionada. A conta selecionada pode ser N ou, em algumas implementações, pode ser menos do que N.
[0014] Outra comparação pode incluir testar se a intensidade de qualquer ponto na primeira proximidade de pontos N é maior do que um segundo limiar, e/ou testar se a intensidade do ponto correspondente na segunda proximidade de pontos N é maior do que o segundo limiar. Determinar o estado correspondente pode incluir definir o estado em um segundo valor (por exemplo, um valor lógico baixo ou "0") se qualquer um dos dois testes for verdadeiro.
[0015] Em algumas implementações, o método inclui realizar a seleção, identificação, determinação, agregação e designação para um número de pontos na imagem intensificada e definir cada ponto de interesse vascular do candidato designado como um ponto vascular em um primeiro valor (por exemplo, um valor lógico alto ou "1") e definir outro ponto de interesse vascular dos candidatos em um segundo valor (por exemplo, um valor lógico baixo ou "0"), para obter um mapa vascular binário (BVM) que representa as veias. O BVM pode ser reduzido por meio da exclusão de pelo menos um ponto vascular que: (i) corresponde aos limiares pela largura de uma vascularização, e (ii) foi definido ao primeiro valor. O método pode ainda incluir suprimir localmente um ou mais pontos vasculares que foram definidos ao primeiro valor. A supressão local pode ser com base, pelo menos em parte, em um mapa de magnitude de gradiente referente a uma parte da imagem intensificada ou referente a toda imagem intensificada.
[0016] Em algumas implementações, gerar os respectivos um ou mais descritores de imagem local inclui calcular pelo menos um de: (i) um histograma padrão de padrões binários locais de raios múltiplos estendidos (PH-EMR-LBP) de uma região da imagem que circunda o ponto vascular detectado, e (ii) um histograma padrão de padrões binários locais simétricos centralizados com múltiplos raios estendidos (PH-EMR-CS-LBP) de uma região da imagem que circunda o ponto vascular detectado.
[0017] Em outro aspecto, um método implementado por computador para corresponde um ou mais modelo de verificação com um ou mais modelos de registro inclui identificar um número de pares de ponto de correspondência. Cada par de ponto de correspondência inclui um primeiro ponto de um modelo específico de verificação e um segundo ponto correspondente de um modelo de registro. Cada primeiro ponto inclui: (i) uma localização de um ponto de interesse em uma imagem de verificação correspondente ao modelo de verificação, e (ii) um número de diferentes tipos de descritores, cada um descrevendo uma localidade que circunda o ponto de interesse na imagem de verificação. Cada segundo ponto inclui: (i) uma localização de um ponto de interesse de uma imagem de registro correspondente ao modelo de registro, e (ii) um número de diferentes tipos de descritores, cada um descrevendo uma localidade que circunda o ponto de interesse na imagem de registro.
[0018] O método ainda inclui obter vários pares de ponto inlier selecionados de um número de pares de ponto de correspondência por meio da realização de detecção outlier pelos modelos de verificação e registro. Além disso, o método inclui calcular uma pontuação de correspondência com base nos vários pares de ponto inlier (por exemplo, uma pontuação de correspondência de estágio 1), usando uma transformação geométrica identificada durante a detecção outlier como parte do pré-processamento (por exemplo, ao calcular uma pontuação de correspondência de estágio 2), ou ambas. Outras modalidades desse aspecto incluem sistemas, aparelho e programas de computador correspondentes.
[0019] Em uma implementação, identificar os vários pares de ponto compatível inclui, para cada primeiro ponto no modelo de verificação, calcular as respectivas distâncias entre os descritores associados com o primeiro ponto e os descritores associados com um ou mais dos segundos pontos do modelo de registro. Um dos segundos pontos pode ser designado como correspondente ao primeiro ponto com base nas respectivas distâncias e, assim, um par de ponto de correspondência que inclui o primeiro ponto e o segundo ponto correspondente é identificado.
[0020] Calcular uma respectiva distância entre os descritores associados com um primeiro ponto específico no modelo de verificação e descritores associados com um segundo ponto do modelo de registro pode incluir calcular uma distância entre cada descritor associado com o primeiro ponto específico e cada descritor correspondente do segundo ponto do modelo de registro. As distâncias calculadas podem ser combinadas como uma média ponderada para obter a distância entre os descritores associados com o primeiro ponto específico e os descritores associados com o segundo ponto do modelo de registro.
[0021] Em uma implementação, identificar os vários pares de ponto de correspondência de acordo com um método de votação inclui, para cada primeiro ponto no modelo de verificação, calcular as respectivas distâncias entre cada um dos descritores associados com o primeiro ponto e um descritor correspondente associado com um ou mais segundos pontos do modelo de registro. Um número de distâncias que não excedem os respectivos limites de distância pode ser contado e um dos segundos pontos pode ser designado como correspondente ao primeiro ponto com base na contagem do número de distâncias. Assim, um par de ponto de correspondência que inclui o primeiro ponto e o segundo ponto correspondente é gerado.
[0022] Em várias implementações, o cálculo das respectivas distâncias pode ser calculado como uma distância de Hamming, uma distância Euclidiana, uma distância de Manhattan, uma correlação, ou uma distância de Mahalanobis. Em algumas implementações, os descritores locais (não binários) podem ser encurtados usando a análise de componente principal (PCA) para eliminar as dimensões que não contribuem para as variâncias do descritor local. Um descritor específico pode ser derivado usando os Padrões Binários Locais de Múltiplos Raios Estendidos (EMR-LBP), os Histogramas de Padrões Binários Locais de Múltiplos Raios Estendidos (H-EMR-LBP), os Histogramas Padronizados de Padrões Binários Locais de Múltiplos Raios Estendidos (PH-EMR-LBP), Padrões Binários Locais Simétricos Centralizados de Múltiplos Raios Estendidos (EMR-CS-LBP),Histogramas de EMR-CS-LBPs (HCS-LBP), Histogramas de Padrão de EMR-CS-LBPs (PH-EMR-CS-LBP), Histogramas de Gradientes Orientados (HoG), Características Robustas Aceleradas, (SURF) ou Fast Retina Keypoint (FREAK). Obter os vários pares de ponto inlier pode incluir usar o consensor de amostra aleatória (RANSAC), a amostra e consenso do estimador M (MSAC), ou GROUPSAC, para alinhar os primeiros pontos aos segundos pontos correspondentes.
[0023] Em algumas implementações, o cálculo da pontuação de correspondência inclui calcular a correlação das localizações dos pontos inlier detectados dos primeiros pontos compatíveis e segundos pontos correspondentes. Calcular a primeira pontuação de correspondência ainda inclui parâmetros e procedimento adicionais além da correlação de localização como número de pares de ponto inlier e um ou mais parâmetros da transformação geométrica de alinhamento. Um parâmetro da transformação geométrica pode ser uma mudança na escala da imagem de verificação como um resultado da transformação geométrica calculada dos pares de ponto inlier ou uma mudança no ângulo da imagem de verificação como um resultado da transformação geométrica dos pares de ponto inlier. Em uma implementação, ambos os parâmetros são usados ao calcular a primeira pontuação de correspondência. Em outras implementações, dependendo do tipo de transformação, parâmetros adicionais como cisalhamento podem ser usados. Outras medidas calculadas da transformação geométrica que mostra seu desvio da distribuição verdadeira são ainda aceitáveis. Em algumas implementações, o método inclui, antes de identificar os pontos do candidato (inlier), modificar a imagem de verificação média através da Filtração de Gabor. O modelo de registro pode ainda ser modificado através da Filtração de Gabor.
[0024] Em algumas implementações, calcular a pontuação de correspondência inclui calcular uma segunda pontuação de correspondência por meio da aplicação da transformação geométrica à imagem de verificação para criar uma imagem transformada. O método ainda inclui filtração da imagem transformada e codificação das versões de padrão binário local orientado da imagem transformada e aplicação do mesmo processo à imagem usada para o modelo de registro. Cada versão pode incluir um número de camadas em que cada camada corresponde a uma dimensão distinta da codificação. O método pode ainda incluir comparar um ou mais blocos correspondentes em cada camada da imagem transformada codificada e da imagem codificada correspondente ao modelo de registro, para obter uma respectiva medição da camada para cada camada. As medições da camada podem ser agregadas para obter uma segunda pontuação de correspondência. A filtração pode incluir Filtração de Gabor ou logaritmo de Filtração de Gabor e a codificação pode incluir a Codificação de Gray.
[0025] Em algumas implementações, o método inclui excluir, antes de comparar, um ou mais blocos correspondentes a uma região substancialmente que não possui vascularização visível. Comparar os blocos correspondentes pode incluir calcular uma distância de Hamming, uma distância de Hamming normalizada ou uma correlação da janela deslizante entre os blocos correspondentes. O método pode ainda incluir calcular uma primeira pontuação de correspondência além da segunda pontuação de correspondência. A primeira pontuação de correspondência pode ser calculada por meio do cálculo de uma correlação entre coordenadas dos dois pontos correspondentes, dos modelos de verificação e registro, respectivamente, dos pares de ponto inlier, e pode ser com base nos parâmetros como um número de pares de ponto inlier e um ou mais parâmetros da transformação geométrica, e/ou ser com base em uma função do número de pares de ponto inlier. A pontuação de correspondência pode então ser calculada como uma soma ponderada da primeira pontuação de correspondência e a segunda pontuação de correspondência.
[0026] Em uma implementação, a correlação para a primeira pontuação de correspondência inclui calcular
Figure img0001
, onde as coordenadas dos pontos inlier pelos modelos de verificação e registro incluem as Coordenadas de X e Y de cada ponto nos pares, e Cx e Cy são correlações das Coordenadas de X e Y, respectivamente, dos pontos inlier compatíveis pelos modelos de verificação e registro. A pontuação de correspondência de Estágio 1 pode ser calculada como:
Figure img0002
[0027] Nesse cálculo, N é o número de pares de ponto inlier, RS é uma mudança na escala da imagem de verificação como um resultado da transformação geométrica de registro calculada e RA é uma mudança no ângulo da imagem de verificação como um resultado da transformação geométrica de registro calculada. O método pode ainda incluir excluir a primeira pontuação de correspondência da pontuação de correspondência se pelo menos um parâmetro da transformação geométrica ficar fora de uma faixa nominal desse parâmetro. RS e RA podem ser aumentados por cisalhamento quando a transformação afim é assumida. A pontuação de correspondência de primeiro estágio, em termos de uma função de Cx, Cy, N e os parâmetros derivados da matriz de transformação, podem inda ser diretamente aprendidos usando o conjunto de dados identificado do impostor e comparações verdadeiras para treinar um classificador como uma rede neural artificial ou análise discriminante linear. Opcionalmente, um estágio de pré-processamento de PCA pode ser aplicado antes da classificação.
[0028] Em algumas implementações, ao invés de parâmetros derivados da matriz por transformação RS e RA, outra função da transformação pode ser diretamente calculada de seus elementos da matriz. Considerando as matrizes de transformação derivadas das comparações verdadeiras e impostoras, é desejado criar uma função de elementos da matriz da transformação correspondente que produz a separação máxima entre verdadeiro-impostor em sua distribuição. Uma forma de atingir essa finalidade é usar as matrizes de transformação de um conjunto de dados identificado de comparações verdadeiras e impostoras para treinar uma função de regressão e aumentar uma medição de capacidade de classificação, como razão discriminante Fisher.
[0029] Em outro aspecto, um método implementado por computador para atualizar modelos de registro inclui receber um modelo de verificação que inclui vários pontos de interesse. Cada ponto de interesse é associado com um número de diferentes respectivos descritores que cada descreve uma ou mais localidades que circundam o ponto correspondente de interesse. O método ainda inclui calcular uma pontuação de correspondência para o modelo de verificação por meio da comparação do modelo de verificação com um ou mais modelos de registro em uma coleção de modelos de registro. O modelo de verificação pode ser adicionado à coleção de modelos de registro com base, pelo menos, na pontuação de correspondência correspondendo ou excedendo um limiar de registro.
[0030] Em algumas implementações, o método inclui, para cada modelo na coleção de modelos de registro, gerar uma respectiva pontuação de correspondência com um ou mais outros modelos na coleção de modelos de registro. Uma respectiva pontuação de correspondência mediana é calculada para o modelo e um modelo tendo uma pontuação de correspondência mediana mínima pode ser removida da coleção de modelos de registro. Outras modalidades desse aspecto incluem sistemas, aparelho e programas de computador correspondentes.
[0031] Em algumas implementações, o método pode incluir gerar a pontuação de qualidade para registros usando o BVM reduzido e a máscara escleral. A máscara escleral pode ser uma máscara de imagem binária que inclui branco do olho e exclui uma parte da imagem que circunda o branco do olho de uma imagem ocular. A avaliação de qualidade poder a razão do número de pontos vasculares detectados no BVM reduzido para o número de pixels verdadeiros (1's) na máscara escleral. O método ainda inclui remover os modelos de registro que não passam por uma certa pontuação de qualidade.
[0032] Em algumas implementações, o método inclui ajustar a pontuação de correspondência de acordo com uma diferença de exposição, um limite de influência ou ambos. A diferença de exposição pode incluir uma diferença entre um modelo de exposição de verificação associado com o modelo de verificação e um modelo de exposição de registro associado com o modelo de registro. O método pode ainda incluir gerar o modelo de exposição de verificação e/ou o modelo de exposição de registro.
[0033] Em algumas implementações, gerar modelos de exposição (para registro e/ou verificação) inclui dividir uma região de interesse (ROI) ocular correspondente às imagens de registro e/ou verificação em duas ou mais seções, e gerar para cada seção um histograma de intensidades que representa para cada intensidade no histograma, um número de pixels na seção da ROI tendo substancialmente essa intensidade. A ROI pode ser uma área da imagem centralizada no olho. Em algumas implementações, essa área é encontrada por um localizador de olho. Em algumas implementações, a ROI é encontrada por meio do corte de uma imagem de um olho de acordo com uma caixa de delimitação de uma máscara escleral e por meio do enchimento da imagem cortada com um número específico de pixels (por exemplo, 50 pixels). Em uma implementação, a ROI é dividida em quatro quadrantes. Em algumas implementações, uma imagem de um olho pode ser cortada usando uma caixa de delimitação de um canto do olho a um outro canto do olho e de uma pálpebra do olho a uma outra pálpebra do olho. A imagem cortada pode ser enchida com um número específico de pixels.
[0034] Em uma implementação, a diferença de exposição é -1 vez uma similaridade de exposição. O método inclui determinar para cada quadrante j: um ou mais dentre (i) um valor absoluto normalizado de uma diferença de histograma (ABSNdist_j), (ii) uma similaridade de intersecção do histograma (INTRsim_j), (iii) uma similaridade de coeficiente de correlação de Histogramas (CORRsim_j) e (iv) uma distância Bhattacharyya (BHATdist_j). A similaridade de exposição pode ser calculada como:
Figure img0003
[0035] Outras combinações lineares ou não lineares das quarto métricas acima são possíveis.
[0036] Em uma implementação, gerar um ou mais modelos de exposição inclui gerar um número de medidas de exposição. Cada uma das medidas de exposição pode ser uma medição da exposição da ROI incluída no arquivo EXIF da imagem (medição EXIF), um parâmetro estatístico de um componente Y de uma imagem YUV e um parâmetro estatístico de um componente G de uma imagem RGB.
[0037] Em algumas implementações, uma diferença de exposição e/ou uma similaridade de exposição é calculada com base em uma ou mais medições de histograma. As diferentes medições de histograma podem ser qualquer um dentre: um valor absoluto normalizado de uma diferença de histograma (ABSNdist), uma similaridade de intersecção do histograma (INTRsim), uma similaridade de coeficiente de correlação de Histogramas (CORRsim) e uma distância Bhattacharyya (BHATdist).
[0038] Em algumas implementações, o método pode incluir, antes de calcular a pontuação de correspondência, organizar a coleção de modelos de registro de acordo com as respectivas diferenças de exposição entre um modelo de exposição de verificação associado com o modelo de verificação e cada modelo de exposição de registro associado com cada modelo de registro na coleção de modelos de registro. Como tal, a verificação do modelo de verificação pode ser rápida, pois, geralmente, a verificação procede por meio da comparação de um modelo de verificação com vários modelos de registro, mas começando com esses que têm diferença de exposição mais baixa e, assim, mais provavelmente de corresponder corretamente o modelo de verificação.
BREVE DESCRIÇÃO DOS DESENHOS
[0039] A patente ou depósito do pedido contém pelo menos um desenho executado em cores. Cópias dessa patente ou publicação do pedido de patente com desenhos coloridos serão fornecidas pelo Instituto sob solicitação e pagamento das taxas necessárias.
[0040] A figura 1A retrata esquematicamente um sistema exemplar de dois estágios para gerar modelos de registro.
[0041] A figura 1B retrata esquematicamente um sistema exemplar de dois estágios para gerar um modelo de verificação e comparar o modelo com um modelo de registro, determinando assim a similaridade entre as duas imagens correspondentes aos dois modelos.
[0042] As figuras 2A-2D ilustram uma redefinição da imagem exemplar para ajudar a detecção vascular de ponto e geração do descritor de imagem local.
[0043] As figuras 2E e 2F ilustram um procedimento exemplar da detecção vascular de ponto.
[0044] As figuras 3A-3C retratam, respectivamente, uma imagem binária exemplar de pontos vasculares detectados de um olho, uma imagem binária reduzida correspondente e uma sobreposição das imagens reduzidas e binárias originais.
[0045] As figuras 4A e 4B retratam máscaras exemplares usadas para imagem esparsa e binária reduzida que representa os pontos vasculares detectados.
[0046] A figura 4C retrata uma imagem binária esparsa correspondente à imagem binária reduzida retratada na figura 3C.
[0047] As figuras 5A-5C respectivamente retratam uma imagem original exemplar de um olho, uma máscara da região de interesse (ROI) exemplar e a ROI da imagem original.
[0048] As figuras 5D-5F respectivamente retratam um mapa vascular binário (BVM) correspondente à ROI retratada na figura 5C, um BVM reduzido correspondente e um BVM esparso correspondente, cada um é sobreposto na imagem original retratada na figura 5A.
[0049] A figura 6 retrata uma imagem de padrões binários locais orientados filtrados de Gabor (OLPB) correspondente a uma vascularização ocular exemplar.
[0050] As figuras 7A-7C ilustram a geração dos padrões OLBP codificados por Gray correspondentes a uma janela de pixel exemplar.
[0051] A figura 8 ilustra um processe exemplar para atualizar os modelos de registro em uma base de rolagem.
[0052] Números e designações de referência similares nos vários desenhos indicam elementos semelhantes.
DESCRIÇÃO DETALHADA
[0053] As figuras 1A e 1B esquematicamente retratam um exemplo do sistema biométrico de estágios múltiplos para gerar e armazenar os modelos de registro de vascularização visível que podem ser usados para autenticação do usuário. Em uma implementação, a vascularização visível corresponde à vascularização vista no branco do olho. O branco do olho tem um número de camadas. A esclera é uma camada opaca, fibrosa, protetora do olho que contém colágeno e fibra elástica. A esclera é coberta pela conjuntiva, que tem um número particularmente grande de vasos sanguíneos e veias que percorrem por ela. A esclera é coberta pela conjuntiva bulbar, que é uma membrana fina e clara que interliga com a pálpebra ou o ambiente quando a pálpebra está aberta. Vasos sanguíneos (vascularização, no geral) percorrem por todas essas camadas do branco do olho e podem ser detectados nas imagens do olho. Durante a autenticação do usuário, uma ou mais imagens de um olho do usuário são capturadas, um ou mais modelos de verificação são gerados a partir das imagens capturadas ou imagens, e a identidade do usuário pode ser verificada pela correspondência das estruturas vasculares correspondentes conforme expresso nos modelos de registro e verificação.
[0054] Deve-se entender que os sistemas e métodos descritos com referências às figuras 1A e 1B não são limitados à vascularização ocular. Por exemplo, a autenticação biométrica pode ser realizada usando a vascularização da orelha. Em particular, usar uma câmera infravermelha próxima (por exemplo, se é implementado próximo ao fone de ouvido de um telefone) e uma fonte de luz infravermelha, imagens da vascularização do ouvido pode ser obtida e a autenticação do usuário usando essas imagens podem ser realizadas conforme aqui descrito.
[0055] Na etapa 102, as imagens de um olho do usuário são capturadas usando um sensor de imagem, por exemplo, uma câmera, que é associada com um dispositivo no qual o acesso pelo usuário deve ser autenticado (por exemplo, um smart phone, um smart watch, smart glasses, um notebook, um tablet, etc.). Em forma de ilustração, a câmera pode ser uma câmera digital, uma câmera tridimensional (3D) ou um sensor de campo de luz. Em algumas implementações, a câmera pode ser um módulo voltado para dentro em um dispositivo usável com um fator de forma de espetáculo e usado para capturar as imagens do branco do olho do usuário para autenticação biométrica. As imagens podem ser capturadas tanto em modo estático quanto em modo de vídeo. Em algumas implementações, o usuário pode ser requerido (por feedback visual ou sonoro, ou tátil) para olhar à esquerda ou direita ou para cima ou reto enquanto a imagem for capturada. Olhar à esquerda ou direita pode expor uma área maior do branco do olho à direita ou à esquerda da íris para captura de dados, enquanto olhar reto pode fornecer dois segmentos menores do branco do olho à esquerda ou direita da íris em cada olho. Na etapa 104, uma região de interesse geral é identificada, por exemplo, um ou ambos os olhos podem estar localizados. Para essa finalidade, algoritmos de Viola-Jones treinados em diferentes imagens rápidas do olho podem ser usadas. Depois, um algoritmo de rastreamento de olhar como esse usando filtros Haar pode ser usado para quantizar a quantidade de olhar para adquirir uma ou mais imagens, uma vez que uma direção de olhar selecionada é detectada. Tipicamente, as imagens adquiridas são cortadas para obter as imagens RGB de um ou mais olhos. Depois, a "imagem" ou a "imagem capturada" geralmente se refere a uma imagem RGB cortada de um olho.
[0056] As imagens que são capturadas de um sensor de imagem podem ter qualidade variável devido a, por exemplo, artefatos de desfoque de exposição e movimento. Na etapa opcional 106, várias imagens podem ser registradas (ou seja, espacialmente alinhadas) e calculadas a média para reduzir o ruído da imagem. Em algumas implementações, os métodos de correlação da imagem são usados para medir a dissimilaridade entre as imagens obtidas a fim de alinhar as imagens para calcular uma média e descartar essas que são as mais diferentes (por exemplo, devido ao desfoque por movimento ou piscada de olho) e, assim, não são adequadas para registro e cálculo da média. Por exemplo, quatro imagens capturadas na sequência podem ter sua média calculada após o registro se as imagens não forem muito diferentes. O número de imagens que têm sua média calculada depende da taxa de quadro e nível de ruído do sensor de imagem. Quando várias imagens médias são geradas, uma métrica de qualidade pode ser usada para selecionar a qualidade mais alta para uso nas etapas subsequentes. Em algumas implementações, o desvio padrão dos valores de pixel do canal verde de uma imagem intensificada (derivada conforme descrito abaixo) pode ser usado como uma métrica de qualidade. Outras métricas de qualidade são possíveis.
[0057] As imagens produzidas pela etapa de verificação de qualidade 106 são usadas para produzir os modelos para um combinador de dois estágios, depois do quem as imagens originais são geralmente descartadas por razões de segurança e privacidade. Um modelo do estágio 1 pode incluir um número de (ponto de interesse, vetores de característica) elementos. Um modelo do estágio 2 pode incluir padrões binários locais orientados (OLBP) codificados (por exemplo, codificados por Gray) correspondentes às imagens originais. Em um modo de registro (descrito abaixo), uma ou mais imagens capturadas são designadas como imagens de registro e modelos de registro são gerados delas. Em algumas implementações, modelos de exposição correspondentes com base nos histogramas locais dos perfis de exposição das imagens capturadas são gerados e armazenados. Em um modo de autenticação/verificação (também descrito abaixo), uma ou mais imagens capturadas são designadas como imagens de verificação e modelos de verificação são gerados delas para corresponder contra o modelo de registro.
[0058] Com referência à figura 1A, no Estágio 1, uma ou mais imagens com média calculada, que podem ser imagens de registro ou imagens de verificação, são processadas na etapa 108 e características das imagens pré-processadas são extraídas na etapa 110, para gerar um ou mais modelos de Estágio 1. No Estágio 1, o pré-processamento pode incluir redefinição da imagem ou filtração de Gabor, e a extração de característica pode incluir detecção vascular de ponto (VPD) e descritores de característica (PH-EMR-LBP, PH-EMR-CS-LBP, SURF, EMR-LBP, HoG e FREAK), e seu pré-processamento de PCA, todos são descritos em detalhes abaixo. No Estágio 2, uma ou mais imagens com média calculada são pré-processadas na etapa 112, e características das imagens pré-processadas são extraídas na etapa 114, para gerar um ou mais modelos de Estágio 2. No Estágio 2, o pré- processamento pode incluir filtração de Gabor e a extração de característica pode incluir a detecção dos padrões binários locais orientados (OLBP), por exemplo. Os modelos de registro, antes de armazenar, podem ser criptografados na etapa 116.
[0059] No modo de verificação, ou seja, quando as imagens de verificação são processadas, o Estágio 1 na etapa 110 inclui identificar pontos de interesse do candidato e descritores de característica que são compatíveis com o modelo de registro para derivar uma transformada geométrica (por exemplo, uma transformação afim, ou transformada de autossimilaridade) de inliers detectados e calcular uma primeiras pontuações de correspondência com base em um ou mais parâmetros da transformada identificada e coordenadas de inlier. No Estágio 2 na etapa 114 inclui transformar a imagem de verificação pré-processada usando a transformação geométrica identificação, filtração de Gabor e limitação de fase, e codificação do resultado com OLBP para obter o modelo do estágio 2 de verificação e calcular uma segunda pontuação de correspondência usando correlação das camadas de verificação OLBP agrupadas e modelos registrados. Mais do que uma primeira pontuação de correspondência pode ser calculada por meio da repetição da etapa 110, cada repetição correspondente a uma transformada geométrica diferente que é identificada nessa repetição. Uma ou mais primeiras pontuações de correspondência e segundas pontuações de correspondência podem ser combinadas na etapa 118 (figura 1B) e a imagem de verificação ou imagens podem ser determinadas para serem autênticas com base na pontuação combinada. Em algumas implementações, apenas as primeiras pontuações de correspondência ou pontuações são usadas ao determinar autenticidade enquanto em outras implementações, as primeiras pontuações de correspondência podem ser descartadas com base em um ou mais parâmetros da transformação geométrica correspondente. Em algumas implementações, mais do que uma da primeira e da segunda pontuação de correspondência podem ser calculadas por meio da repetição das etapas 110 e 114. Uma ou mais primeira e segunda pontuações de correspondência podem ser combinadas na etapa 118 (figura 1B) e a imagem de verificação ou imagens podem ser determinadas para ser autênticas com base na pontuação combinada. Em algumas implementações, a regra de combinação pode ser a regra máxima, a regra de produto ou a regra da soma. Em algumas implementações, a regra de combinação pode ser uma mistura linear determinada pela análise discriminante linear.
[0060] Especificamente, conforme retratado na figura 1B, Estágio 1 processamento e análise inclui determinar a correlação entre as localizações correspondentes nos modelos de registro e verificação, comparar os descritores da imagem dos modelos de registro e verificação que descrevem as localidades que circundam os pontos de interesse detectados nas imagens correspondentes a esses modelos para localizar a correspondência espacial dos pontos de interesse e rejeitar os pontos de interesse outlier. Nesse estágio, uma matriz de transformação de matriz, mais uma pontuação de correspondência é produzida. A matriz de transformação pode ser usada para registrar as imagens de verificação de entrada para o combinador do Estágio 2. Em algumas implementações, a pontuação de correspondência de Estágio 1 é usada para tomar uma decisão como se a imagem de verificação é autêntica sem continuar o Estágio 2. Em algumas implementações, se o estágio 1 falhar ao calcular ou falhar ao fornecer uma matriz de registro dentro da escala aceitável, limites de rotação e/ou cisalhamento, o estágio 2 pode proceder para produzir uma pontuação de correspondência sozinho usando nenhuma ou uma matriz de registro auxiliar fornecida, por exemplo, pela etapa 104, com base nos limiares da íris dentro da ROI.
REDEFINIÇÃO DA IMAGEM
[0061] Em algumas implementações, o pré-processamento (etapa 108) pode ser usado para acentuar a visibilidade da vascularização nas imagens capturadas. Um deste método é selecionar um componente de cor dos dados da imagem RGB que podem aumentar o contraste entre a vascularização e que circunda o branco do olho. Em algumas implementações, essa imagem pode incluir uma combinação linear de camadas azul e verde. Especificamente, em uma implementação, cada imagem média é redefinida para obter uma imagem intensificada correspondente usando um processo de 3 etapas. A primeira etapa inclui correlacionar os valores de pixel do canal verde ou parte dos canais azul e verde de uma imagem com média derivada de uma ou mais imagens capturadas com um kernel de Laplaciano de Gaussiano, para obter uma imagem correlacionada. A segunda etapa inclui subtrair a imagem filtrada por LoG do valor máximo alcançável na imagem.
[0062] Finalmente, na terceira etapa cada pixel da imagem processada obtida da segunda etapa é multiplicado com o pixel correspondente da imagem com média, para obter uma imagem intensificada. A figura 2A, por exemplo, retrata uma imagem com média de um olho obtida de uma ou mais imagens capturadas. A figura 2B retrata o canal verde correspondente e a figura 2C retrata a imagem filtrada por LoG correspondente. O desvio padrão da imagem intensificada obtida na terceira etapa pode ser a métrica de qualidade da imagem usada ao classificar uma sequência de imagens com média calculada e ao selecionar uma imagem com média para processamento adicional. Em uma implementação, um kernel LoG usado para redefinir pode ser expresso como:
Figure img0004
[0063] onde o tamanho do kernel do filtro é 5x5 pixels com um desvio padrão Gaussiano (α) de 0,4.
[0064] Os parâmetros da filtração de LoG podem ser otimizados com base na resolução da imagem adquirida. Os parâmetros exemplares acima foram selecionados para uma imagem ocular cortada tendo dimensões aproximadas de 100 x 110 pixels (± 20 pixels). O número de imagens com média calculada redefinidas classificadas por qualidade retida pode variar de acordo com a aplicação. Por exemplo, se a aplicação for gerar e armazenar modelos de registro, as quatro imagens com média calculada melhor redefinidas podem ser retidas. Um número diferente de imagens, como dois, pode ser retido se a aplicação estiver no estágio de verificação.
[0065] Em algumas implementações, além da redefinição da imagem com base no LoG, uma outra cópia acentuada da imagem com média pode ser obtida por meio da convolução com o banco de filtros Gabor definem
Figure img0005
[0066] onde
Figure img0006
[0067] αx e αy definem o desvio padrão do envelope Gaussiano ao longo do eixo-x e eixo-y respectivamente, f é a frequência do seno modulador ou cosseno e θ é o ângulo de orientação do kernel, variou 6 vezes, de 0 a 5π/6, cada π/6 radianos distantes. Os seis filtros resultantes são usados para a melhoria da imagem previamente mencionada. Em algumas implementações, apenas a magnitude da parte par ou ímpar do banco de filtro Gaussiano pode ser usada. Em algumas implementações, f é 0,22 e αx=αy=1,9. Esses valores podem mudar com a resolução da ROI. Em uma implementação, apenas filtros de Gabor pares são usados para acentuar a imagem com média.
[0068] Em algumas implementações, o pré-processamento adicional das imagens com média calculada redefinidas inclui histograma da imagem e ajustes de contraste como Equalização de Histograma Adaptiva Limitada por Contraste (CLAHE, Contrast Limited Adaptive Histogram Equalization). A CLAHE geralmente opera em pequenas regiões da imagem chamada blocos. Tipicamente, cada contraste de bloco é acentuado de modo que o histograma da saída corresponda aproximadamente com o histograma especificado por uma distribuição específica (por exemplo, uniforme, exponencial ou distribuição de Rayleigh). Os blocos de proximidade são então combinados usando uma interpolação (por exemplo, interpolação bilinear) para eliminar quaisquer limiares artificialmente induzidos. Em algumas implementações, a região da imagem pode ser acentuada por meio da seleção de uma combinação não linear ou linear do componente com cor vermelha, verde ou azul que tem o melhor contraste entre os vasos e o fundo. Por exemplo, o componente verde pode ser preferido em uma imagem RGB do olho, pois pode fornecer o melhor contraste entre os vasos e o fundo. Em algumas implementações, valores parciais de verde e azul podem ser usados. Em algumas implementações, o pré-processamento CLAHE não é usado. Uma região de interesse (ROI) pode ser selecionada da imagem com média antes da redefinição de 3 etapas, por exemplo, por meio da aplicação de uma máscara escleral. Uma verificação pode ser usada para garantir a solidez da seleção da ROI. Por exemplo, se a área selecionada por meio da aplicação da máscara escleral não tiver pelo menos uma certa porcentagem especificada (por exemplo, sobre vinte e cinco por cento do tamanho da imagem com média), a imagem correspondente é removida do processamento adicional.
DETECÇÃO DE PONTO VASCULAR
[0069] Vários algoritmos da detecção de ponto podem ser usados para identificar saliência ou pontos de interesse dentro de uma região de interesse (etapa 104). A saliência ou pontos de interesse são tipicamente onde padrões vasculares potencialmente identificáveis ou de outro modo padrões específicos de interesse geralmente conhecidos. Algumas técnicas conhecidas que podem ser utilizadas para a detecção do ponto de interesse incluem o algoritmo de Características Robustas Aceleradas (SURF), algoritmo de Teste de Segmento Acelerado (FAST) e algoritmo de Harris e Stephens (HS). Essas técnicas genéricas geralmente não detectam a maioria/todos os pontos nos padrões vasculares dentro de uma região da imagem. Assim, em algumas implementações, um algoritmo de Detecção de Ponto Vascular (VPD) é usado. A VPD é um localizador do ponto que tende a encontrar os pontos que são centralizados/localizados nos objetos do tipo vaso. O algoritmo de VPD considera as proximidades distais de um ponto de interesse potencial (pixel) de uma imagem de intensidade para determinar se esse ponto está localizado em um objeto de interesse, por exemplo, um vaso em um padrão vascular. O algoritmo de VPD pode ser ajustado com base, por exemplo, na escala e resolução de uma imagem, dinâmica de intensidade de pixel e uma detecção especificada de sensibilidade de ponto, entre outros fatores.
[0070] Em uma implementação do algoritmo de VPD, uma região de uma imagem é selecionada, conforme retratado na figura 2D. Vários pontos de proximidade distais, conforme retratado na figura 2E são considerados para cálculos de VPD. Com referência à figura 2F, em um exemplo de proximidade de pixel centralizada em um candidato do ponto de interesse P0 duas janelas padrão 202, 204 são identificadas. Em algumas implementações, as janelas padrão adicionais podem ser embutidas dentro de cada proximidade de pixel. Cada proximidade de pixel é colocada no ponto de interesse potencial (por exemplo, P0). Os tamanhos das duas janelas padrão 202, 204 são diferentes. Em uma implementação, mostrada na figura 2F, a primeira janela padrão é um kernel de 5x5 pixel que inclui pontos P1 a P8, enquanto a segunda janela padrão é um kernel de 7x7 pixel que inclui pontos P1’ a P8’. Cada janela padrão inclui oito pixels periféricos que são usados para cálculos descritos abaixo.
[0071] Para determinar se o ponto central P0 é um ponto de interesse, o VPD calcula a diferença nas intensidades entre o pixel do candidato (P0) e 16 outros pixels (ou seja, P1 - P8 e P1- P8) na proximidade do pixel P0. Cada comparação é considerada ser um estado e cada estado é definido como:
Figure img0007
[0072] Especificamente, a intensidade de P0 é comparada com as intensidades de pixels limite correspondentes Pi e Pi’. Se a diferença entre as intensidades de P0 e Pi exceder um limite de intensidade t, ou se a diferença entre as intensidades de P0 e Pi' exceder a limite de intensidade t, o estado é definido um valor lógico alto (por exemplo, "1"). Caso contrário, o estado definido como um valor lógico baixo (por exemplo, "0"). O limite de intensidade t pode ser alterado com base na qualidade das imagens e na quantidade de ruído nas imagens. Nesse exemplo, um valor máximo do contador é oito, pois há oito comparações. Se a soma de todos os oito estados exceder uma certa conta, por exemplo, 6, o ponto do candidato é identificado ou designado como um ponto vascular.
[0073] Em algumas implementações, se um valor de intensidade de qualquer pixel em uma janela for maior do que um segundo limite de intensidade, o ponto central pode ser descartado da análise adicional. Nessa situação, o pixel pode representar uma área da imagem onde aberrações, brilho ou outras perturbações da imagem podem levar a uma identificação com falha de um ponto do candidato. Por exemplo, se um segundo limite de intensidade for 240, onde a intensidade máxima de 256 e se a intensidade de um pixel limite exceder 240, o pixel central correspondente é descartado de um conjunto de pontos do candidato de VPC potencial.
[0074] Os valores fornecidos acima são valores exemplos e outros valores podem ser usados. Por exemplo, mais do que duas janelas podem ser usadas, os tamanhos de qualquer ou ambas as janelas podem ser diferentes do que às nesse exemplo e os valores limite e a escala de intensidade pode ainda ser ajustada com base nos vários fatores. Por exemplo, uma imagem com resolução relativamente baixa pode usar duas pequenas de janela pixel, como uma janela de 3x3 e uma janela de 5x5, enquanto uma imagem de resolução relativamente alta pode usar três janelas de pixel maiores, como uma janela de 7x7, uma janela de 9x9 e uma janela de 11 x 11. O processo de VPD pode ser usado em todos os pixels de uma região da imagem ou um subconjunto de pixels, como cada pixel dentro de uma distância específica da borda da região da imagem. No geral, a VPD é uma operação de proximidade local e uma técnica de janela deslizante pode ser empregada ao determinar os estados conforme descrito acima e ao decidir se um ponto do candidato é um ponto vascular. Como tal, a VPD binariza a ROI de um olho por meio de atribuição a todos os pontos determinados como pontos vasculares de um valor lógico alto (por exemplo, "1"), e por meio da atribuição a todos os outros pontos do candidato de um valor lógico baixo (por exemplo, "0"). A máscara binária resultante é referida como Mapa Vascular Binário (BVM) conforme retratado na figura 3A.
[0075] Em um BVM, todos os blobs que são menos do que um número predefinido de pixels no tamanho podem ser removidos considerando-os como pontos não vasculares. Em algumas implementações, cada estrutura vascular conectada ao indivíduo (blob) obtida de um BVM pode ser reduzida, resultando em um Mapa Vascular Binário reduzido ou BVM reduzido, conforme retratado na figura 3B. O processo de desbaste cria um traço vascular que atravessa o centro da vascularização. Uma sobreposição de um exemplo de BVM reduzido em um BVM correspondente é mostrada na figura 3C.
[0076] Em algumas implementações, a fim de reduzir mais o número de pontos vasculares, uma supressão do ponto local pode ser aplicada. No geral, a supressão local é com base no mapa de magnitude de gradiente obtido de uma imagem intensificada em escala de cinza de uma ROI. O mapa de magnitude de gradiente pode ser obtido pela convolação de um filtro de Sobel com a imagem em escala de cinza para enfatizar os limites. O operador de Sobel geralmente correlaciona a imagem de ROI com 3x3 kernels de gradiente horizontal e vertical para produzir a máscara da magnitude do gradiente. Kernels de gradiente exemplares são mostrados nas figuras 4A e 4B.
[0077] Em uma implementação, um BVM reduzido é dividido em proximidades de 5x5 blocos sem sobreposição. Em cada bloco, se quaisquer pontos de BVM reduzido estiverem presentes, apenas um ponto vascular que mapeia o valor de gradiente mais alto na máscara da magnitude do gradiente correspondente é escolhido. Esse processo de supressão local reduz o número de pontos vasculares em quase metade, assim reduzindo o tamanho do modelo e ajudando o processo de correspondência. O conjunto de pontos de interesse reduzido é referido como "pontos de VPD esparsos" a seguir. Um exemplo de conjunto de pontos de VPD esparsos correspondente ao exemplo de BVM retratado nas figuras 3B é mostrado na figura 4C. A 5x5 proximidade é apenas ilustrativa e pode ser alterada com base na resolução de imagem e escala. As figuras 5A-5F retratam uma imagem original exemplar, um exemplo de máscara de ROI, a ROI da imagem original, um BVM correspondente à ROI sobreposta na imagem original, um BVM reduzido correspondente sobreposto na imagem original e um BVM esparso correspondente (também referido como VPD esparsa) sobreposto na imagem original.
[0078] Em uma implementação, os pontos do candidato de outros localizadores de ponto como FAST, HS e SURF podem ser adicionados ao conjunto de pontos de VPD esparsa, pois satisfazem uma distância limite mínima. Por exemplo, em uma implementação, pontos FAST são adicionados aos pontos de VPD esparsa se os pontos de FAST estão a pelo menos 3 pixels dos pontos de VPD. Em algumas implementações, pontos de interesse podem ser derivados de todos ou um subconjunto de localizadores de ponto de interesse descritos acima. Em algumas implementações, os pontos de interesse podem ser identificados em múltiplas escalas. Por exemplo, os pontos de interesse podem ser detectados de uma pirâmide da imagem Gaussiana de três estágios. Outras decomposições da imagem de escala múltipla são possíveis.
DESCRITORES DE IMAGEM LOCAL
[0079] Após os pontos de interesse serem identificados usando um ou mais algoritmos de detecção de ponto descritos acima, um conjunto de um ou mais descritores de imagem local pode ser obtido das localidades de ROI que circundam cada ponto do candidato (etapa 110). Esses descritores de correção de imagem local podem ser gerados usando uma variedade de algoritmos como Histogramas de Gradientes Orientados (HoG) e Características Robustas Aceleradas (SURF) que incorpora nos descritores SIFT, mas com melhor eficiência computacional usando wavelets de Haar e imagens integrais. Descritores de imagem local podem ainda ser calculados usando um algoritmo do descritor de imagem local binário chamado Fast Retina Keypoint (FREAK). Padrão Binário Local de Múltiplos Raios Estendidos (EMR-LBP) e Padrões Binários Simétricos Centralizados de Múltiplos Raios Estendidos de Padrão (PEMR-CS-LBP) são dois outros extratores de característica de imagem binária. No geral, essas técnicas não são otimizadas para correspondência da veia do olho.
[0080] Histogramas de Padrão de EMR-LBP (PH-EMR-LBP) e Histogramas de Padrão de EMR-CS-LBP (PH-EMR-CS-LBP) como algoritmos do descritor de característica, descritos em mais detalhes abaixo, são padronizados para correspondência olho-veia. Cada uma dessas técnicas pode ser utilizada individualmente, em combinação e/ou em combinação com outros algoritmos do descritor de característica descritos acima para gerar vários descritores da imagem ao redor de cada ponto de interesse de uma ROI.
[0081] Geralmente, os descritores de LBP são calculados ao redor dos pontos de interesse como segue: assume-se que o ponto de interesse atual está na localização do pixel (x0,y0). Os valores de intensidade dos 8 vizinhos imediatos do ponto central (x0,y0), {(xi,yi)}, i = 1, 2, ... 8}, são compactados a esse ponto central e os resultados são armazenados em %. A intensidade de um vizinho pode ser menor ou a mesma que a intensidade do ponto central e o resultado correspondente pode ser um valor lógico baixo como "0". Se a intensidade for maior, o resultado pode ser um valor lógico alto como "1". Após as comparações e código com 8 bits chamado LBP8 para (x0,y0) é obtido como
Figure img0008
[0082] Em uma implementação, o processo descrito acima pode ser repetido para os pixels no quadrado externo de LBP8, assim gerando um código de 16 bits (2 bytes) LBP16 para um ponto de interesse específico. Assim, um total de 3 bytes do código LBP para cada ponto de interesse pode ser gerado. O processo pode ser repetido para 5x5 proximidade de pixel de (x0,y0), produzindo um total de 5x5=25 repetições dos cálculos acima LB8(1 byte)+LBP16(2 bytes) que circundam um ponto central específico, resultando em um descritor binário de 3x25=75 bytes para cada ponto central de interesse como (x0,y0). Esse descritor binário de 75 bytes é designado como Padrões Binários Locais de Múltiplos Raios Estendidos (EMR-LBP). Janelas não são confinadas a dois; outros tamanhos são possíveis com base na resolução de imagem.
[0083] Em uma implementação com base em EMR-CS-LBP, o ponto de referência para cada comparação por pixels inclui o pixel diagonalmente oposto em uma proximidade de 8 ou 16 pixels do ponto central de interesse, ao invés do valor de intensidade do ponto central, levando assim à metade do número de bits comparado às características de EMR-LBP. Ambos os descritores de EMR-LBP e EMR-CS-LBP são números binários.
[0084] HoG é tipicamente calculado usando uma proximidade de um determinado tamanho (em pixels) definido ao redor de um ponto de interesse. Essa proximidade pode ser dividia em um número predefinido de sub-regiões, dentro das quais os Histogramas das orientações limite em certos ângulos podem ser criados e coletivamente usados como o descritor local para esse ponto de interesse. Esses descritores com base em histograma são vetores de número real. Em uma implementação, a proximidade dos pixels de tamanho 4x4 é agrupada em 2x2 sub-regiões com Histogramas de orientações armazenados em 6, a cada 30 graus de distância e são usados como descritores de característica. Em uma implementação, uma proximidade dos pixels de tamanho 4x4 agrupados em 3x3 sub-regiões com Histogramas de orientações armazenadas em 6 compartimentos (a cada 30 graus de distância) podem ser usados como descritores de característica.
[0085] Descritores de HEMR-LBP ainda podem ser calculados usando uma proximidade de um certo tamanho (em pixels) ao redor do ponto de interesse. Códigos de EMR-LBP (conforme descrito acima) para cada pixel da proximidade são derivados. Essa proximidade dos códigos de EMR-LBP é dividida em um número predefinido de sub- regiões. Depois, para criar Histogramas, contas para ocorrência de cada localização de bit dentro de uma sub-região são geradas. As concatenações desses Histogramas do código de EMR-LBP por todas as sub-regiões podem ser designadas como características de PH- EMR-LBP. Esses descritores são vetores de número real. Em várias implementações, uma proximidade de pixels com tamanho mxm (m = 4, 5, ..., 11, etc.) é agrupada em nxn (n = 2, 3, ..., 7, etc.) sobrepondo as sub-regiões (blocos) e a concatenação de Histogramas de ocorrência de cada localização de bit de EMR-LBP dentro de uma proximidade ou uma sub-região pode ser usada como descritores de característica. A escolha de m e n pode ser feita com base na resolução de imagem obtida. HEMR-LBP e PH-EMR-LBP são similares, mas não têm sub- regiões como os Histogramas que são calculados em toda a proximidade. HLBP são similares a HEMRLBP, mas usa apenas um LBP.
[0086] Em uma implementação, uma proximidade com tamanho de 9x9 pixels (cujos códigos LBP8 e LBP16 já estão gerados, conforme descrito acima) são agrupados em dezesseis 3x3 sub-regiões, cada com uma sobreposição de pixel. Cada sub-região de 3x3 sub-região de códigos LBP8 é convertida em uma série de nove números de 8 bits não assinados, semelhantemente LBP16 são convertidos em 9 números de 16 bits não assinados. Os números de 8 bits não assinados das séries de LBP8 são convertidos em séries de número de 16 bits não assinados. Histogramas de ocorrência de cada localização de bit de 9 séries de 16 bits não assinados são calculados, cada um pode entregar um vetor de 16 bits de comprimento. Assim, cada sub-região pode ter dois vetores com 16 de comprimento dos códigos LBP8 e LBP16 que são concatenados para entregar um comprimento final de 512 números de 16 bits não assinados usando 16 sub-regiões (descritos PH-EMR-LBP de correção da imagem).
[0087] PH-EMR-CS-LBP pode ser calculado usando uma proximidade de um certo tamanho (em pixels) ao redor do ponto do candidato. Após gerar os códigos de EMR-CS-LBP para cada pixel na proximidade, essa proximidade é dividida em um número predefinido de sub-regiões. Depois, as contagens para a ocorrência de cada localização de bit dentro de uma sub-região são geradas. As concatenações desses Histogramas dos códigos de EMR-CS-LBP podem fornecer as características de PH-EMR-CS-LBP. Esses descritores são números reais. Uma proximidade de pixels com tamanho mxm (m = 4, 5, 6, 7, 8, 9, 10, 11, etc.) pode ser agrupada em nxn sub-regiões (n = 2, 3, 4, 5, 6, 7, etc.), que podem ter blocos de sobreposição. Os Histogramas de ocorrência de cada localização de bit dentro de uma proximidade ou uma sub-região podem ser usados como os descritores de característica. A escolha de m e n pode ser feita com base na resolução de imagem obtida. HEMR-CS-LBP é similar a PH- EMR-CS-LBP, mas não tem sub-regiões, pois os Histogramas são derivados de toda a proximidade.
[0088] Em uma implementação, a proximidade do tamanho de 7x7 pixels (cujos códigos de CS-LBP8 e CS-LBP 16 também já estão gerados conforme descrito acima) são agrupados em nove 3x3 sub- regiões, cada uma com sobreposição de pixel. Cada 3x3 sub-região dos códigos CS-LBP8 e CS-LBP16 é convertida em série de nove números de 8 bits não assinados para cada código CS-LBP8 e CS-LBP16. Histogramas de ocorrência de cada localização de bit são calculados podendo produzir 8 posições para CS-LBP8 e 8 posições para CS- LBP16. Concatenar todas as nove sub-regiões pode produzir um comprimento do vetor de 144 números de 16 bits não assinados (descritos PH-EMR-CS-LBP da correção da imagem).
[0089] Em algumas implementações, descritores de característica para a correção da imagem ao redor de um ponto de interesse podem ser derivados de um único algoritmo descritor de característica, ou usando um número de diferentes algoritmos do descritor de característica descrito acima. Por exemplo, um ou mais dos seguintes descritores podem ser usados para caracterizar a correção da imagem ao redor de cada ponto de interesse para as finalidades de criar um modelo do estágio 1: EMR-LBP, CS-LBP, HoG, SURF, PH-EMR-LBP, e PH-EMR-CS-LBP. Em algumas implementações, descritores de característica podem ser derivados ao redor dos pontos do candidato em múltiplas escalas de imagem (produzindo extração de característica de escala múltipla). Por exemplo, pode-se detectar pontos de interesse e seus descritores correspondentes de imagem local usando uma pirâmide da imagem Gaussiana de três estágios. Outras decomposições de imagem de escala múltipla são possíveis.
VERIFICAÇÃO OU AUTENTICAÇÃO ATRAVÉS DA CORRESPONDÊNCIA
[0090] No geral, a correspondência é um processo para localizar a similaridade entre um ou mais modelos de registro salvos associados com um usuário contra um ou mais modelos de verificação de um requerente dessa identidade. Se a similaridade, de acordo com um modelo de verificação do requerente com o modelo de registro (que pode ser expresso como pontuação de correspondência) exceder um limite especificado, o requerente pode ser verificado como um usuário autenticado. Caso contrário, o requerente pode ser rejeitado.
ESTÁGIO 1 CORRESPONDÊNCIA DO PADRÃO
[0091] Um modelo do estágio 1, criado no momento do registro ou verificação (etapa 110), pode incluir pontos de interesse derivados e os descritores da imagem de característica correspondentes ao redor deles. Uma distância de Hamming é calculada para descritores binários (FREAK, EMR-LBP e PEMR-CS-LBP) para localizar os melhores pares de ponto compatível entre os modelos de registro e verificação. Quanto menor a distância de Hamming mais similar os pontos comparados. Para os vetores do descritor de valor real, Euclideano, Manhattan, correlação, ou distância de Mahalanobis entre descritores SURF, HoG, PH-EMR-LBP e PH-EMR-CS-LBP de um modelo de registro e os respectivos descritores SURF, HoG, PH-EMR-LBP e PH-EMR-CS-LBP do modelo de verificação podem ser calculados para determinar se uma ou mais dessas distâncias atendem os limites correspondentes especificados. Outras medidas de distância podem ainda ser usados ao determinar pares de ponto de correspondência. Em particular, um ou mais dentro a seguinte distância do histograma ou métricas de similaridade podem ser usados para descritores correspondentes com base no histograma da imagem como PH-EMR-LBP e PH-EMR-CS- LBP: (i) um valor absoluto normalizado de uma diferença de histograma (ABSNdist_j), (ii) uma similaridade de intersecção do histograma (INTRsim_j), (iii) uma similaridade de coeficiente de correlação de Histogramas (CORRsim_j), e (iv) uma distância Bhattacharyya (BHATdist_j).
[0092] Geralmente, um modelo do estágio 1 inclui um conjunto de ti (ponto de interesse, vetores de característica) elementos no seguinte formato:
Figure img0009
[0093] onde (xi, y,) é a localização de interesse ponto i, e
Figure img0010
é a coleção de diferentes tipos de vetores do descritos d que descrevem as correções locais da imagem ao redor do ponto de interesse na coordenada do pixel (xi yi).
[0094] Em algumas implementações, o combinador realizar uma pesquisa exaustiva (etapa 110), calculando as distâncias entre cadavetor de característica
Figure img0011
associado com um ponto de interesse i, para todos os pontos de interesse no modelo de registro e todos os vetores de característica correspondentes de todos os pontos de interesse no modelo de verificação, para selecionar um ou mais pares de ponto de correspondência. Em algumas implementações, um teste de razão é implementado de modo que vagas correspondências, com uma primeira para a segunda razão de distância correspondente mais próxima seja maior do que um certo limite, sejam descartadas como katches ambíguos. Em outras implementações, uma técnica com base na árvore kd pode ser usada para combinar características usando os algoritmos vizinhos mais próximos implementados pelo combinador de Fast Library for Approximate Nearest Neighbors (FLANN). Isso pode permitir as buscas mais rápidas de vizinhos mais próximos entre os pontos de dados dimensionais altos.
[0095] Em algumas implementações, um método de votação por todos ou um subconjunto de descritores
Figure img0012
, pode ser usado para selecionar os pontos de correspondência correspondentes a partir dos modelos de registro e verificação. Por exemplo, um ou mais pontos de um modelo são pareados com um ou mais pontos correspondentes de outro modelo apenas se uma maioria de descritores correspondentes de imagem local atender a distância limite. O método de votação pode ser usado quando cada tipo de descritor, sozinho, não pode revelar o mesmo conjunto de pares de ponto compatível. Assim, em um exemplo, se os pontos nos dois modelos são compatíveis usando qualquer um dos três (pelo menos) de um total de cinco tipos diferentes descritores, os pontos correspondentes no modelo de verificação são considerados como compatíveis com os pontos correspondentes em um modelo de registro. Especificamente, em um exemplo, para cada ponto de interesse se os modelos usam cinco tipos de descritores, a saber, descritores EMR-LBP, PH-EMR-LBP, PH-EMR-CS-LBP, HoG e SURF, um ponto de interesse pode ser considerado um candidato para um par de ponto compatível se os descritores PH-EMR-LBP, PH-EMR-CS-LBP, e SURF passarem a distância limite, mas não outros, indicam uma correspondência.
[0096] Em algumas implementações que empregam a fusão do descritor, um único vetor do descritor para um ponto identificado pode ser obtido por meio da combinação de todos ou um subconjunto de diferentes tipos de descritores usados, por exemplo, descritores SURF, HoG, EMR-LBP, EMR-CS-LBP, PH-EMR-LBP e PH-EMR-CS-LBP, após normalizar os descritores serem combinados.
[0097] Em algumas implementações, empregar a fusão com base na métrica de correspondência, pontuações de distância normalizada de comparações individuais de diferentes descritores entre modelos de registro e verificação podem ser combinadas usando uma média ponderada antes de comparar a uma distância limite para localizar os pares de pontos de interesse compatíveis correspondentes entre os dois modelos. Na correspondência de múltipla camada, os pontos de modo identificados e seus descritores de diferentes escalas (por exemplo, escala 0, escala 1 e escala 2 de uma pirâmide da imagem) de um modelo podem ser compatíveis separadamente com às escalas correspondentes de outro modelo, ou coordenadas de pontos de escalas inferiores podem ser escaladas acima de 0 antes da correspondência.
[0098] No geral, os pontos entre dois modelos cujos descritores não atendem a distância limite podem ser descartados do processamento subsequente. Depois, as localizações não descartadas podem ser usadas para localizar o subconjunto de pares de ponto inlier entre imagens de verificação e registro ajustando uma ou mais transformação afim ou transformações geométricas similares conforme descrito abaixo. Um derivado do número de pares de ponto inlier, suas correlações de localização e a escala de transformada necessária e a rotação pode então ser usado para gerar a pontuação de correspondência de primeiro estágio. Outros métodos de geração de pontuação de correspondência, que incluem aqueles que consideram as pontuações de similaridade do descritor da conta, podem ainda ser usados.
[0099] Em algumas implementações, um consensor de amostra aleatória (RANSAC) ou outros métodos de detecção outlier podem ser usados para determinar a transformação necessária para alinhar os pontos do candidato no modelo de verificação com pontos de interesse no primeiro registro, onde os pontos previamente mencionados são os pares de ponto encontrados no processo de correspondência do descrito. Um método de detecção outlier RANSAC pode rejeitar outliers que não se encaixam em uma transformação geométrica suposta entre os pontos correspondentes em um par de ponto compatível, por exemplo, em termos de geometrias de regiões de interesse oculares codificadas em modelos de registro e verificação através de padrões vasculares. Por exemplo, uma ou mais matrizes de transformação podem ser aplicadas aos pontos do modelo de verificação nos pares compatíveis, gerar um conjunto de pontos transformados que são alinhados com os pontos correspondentes do modelo de registro em termos de suas coordenadas, se houver correspondência verdadeira. A transformação envolvida pode ser derivada do subconjunto de consenso mais amplo (inlier) de pares de ponto compatível com base em suas correspondências do descritos. Os métodos de registro de imagem e detecção outlier com base na hipótese, como RANSAC, podem ser usados para identificar uma ou mais transformações afim ou transformações similares que produzem as localizações do modelo transformado com ta maioria dos pares de ponto inlier. Um par de ponto inlier pode incluir um ponto em um modelo de verificação que pode ser alinhado a um ponto no modelo de registro usando uma matriz de transformação derivada de modo que a métrica da distância Euclidiana ou outra métrica de distância entre as localizações dos pontos alinhados não exceda uma distância limite. Um par de ponto inlier pode ainda ser um par de pontos que representa a distância mais próxima no espaço descritos comparado a outros pares de ponto de verificação por registro e com sucesso sobrevive o processo de detecção outlier RANSAC ou similar. O processo de detecção outlier assume uma transformada geométrica ou elástica limitada entre as comparações de localizações de registro - modelo de verificação do par de ponto inlier. No geral, pontos de modelo de verificação transformados que são inliers são referidos como pontos alinhados. A transformação da imagem de verificação não é realizada no estágio 1.
[00100] Uma pontuação de correspondência de estágio 1 pode ser gerada com base em uma função da pontuação de correlação dos pontos inlier pelos modelos de registro e verificação, mais uma função do número de inliers e fatores de rotação e escala recuperados da matriz de transformação detectada. Em algumas implantações, outras funções caracterizantes da matriz de transformação ou matrizes podem ser usadas. Em algumas implementações, as métricas de similaridade diferentes da correlação podem ser usadas. Por exemplo, o número de pares de ponto inlier, N, pode ser usado para medir a similaridade entre os modelos de registro e verificação. Um alto número de pares de ponto inlier, por exemplo, pode indicar uma pontuação de correspondência mais alta de primeiro estágio do que um número de pares de ponto inlier relativamente baixo. Em algumas implementações, a pontuação de correlação é com base, por exemplo, em uma distância entre as localizações registradas do ponto inlier pelos modelos de registro e verificação, as distâncias entre os descritores de pontos correspondentes compatíveis dos modelos de registro e verificação, uma correlação entre as localizações da constelação compatível de pontos entre os pontos do modelo de verificação e registro, uma escala e/ou rotação de registro recuperada entre os dois modelos, que podem ser necessários para o alinhamento geométrico ou uma combinação de uma ou mais dessas e/ou outras medidas. A pontuação de correlação pode ser usada sozinha ou em combinação com um outra métrica para determinar a pontuação de correspondência de estágio 1.
[00101] Em um exemplo, a pontuação de correspondência pode ser determinada pelo cálculo da correlação da coordenada x, y entre os pontos de interesse inlier no modelo de verificação e os pontos correspondentes no modelo de registro e multiplicar o coeficiente da correlação por N, ou seja, o número de pares de ponto inlier.
[00102] Em algumas implementações, a pontuação de correspondência de estágio 1 é uma pontuação de correlação da localização dos pares inlier normalizadas. Em outras implementações, a pontuação de correspondência de estágio 1 (FMS) pode ser calculada como:
Figure img0013
[00103] onde Cx e Cy são as pontuações de correlação entre as coordenadas de X e Y, respectivamente, dos pontos inliers dos modelos de registro e verificação correspondentes. N é o número desses pares de ponto inlier, RA é o ângulo recuperado que representa uma mudança no ângulo resultante da transformação dos pontos inlier de verificação compatíveis aos pontos de registro, para registro e RS é a escala recuperada que representa uma mudança na escala resultante dessa transformação. RA e RS podem ser derivados da matriz de transformação afim ou similar resultando de RAN SAC ou operação similar que é usada para identificar os pares de ponto inlier.
[00104] A pontuação de correspondência de primeiro estágio, em termos de uma função de Cx, Cy, N e os parâmetros derivados da matriz de transformação, pode ainda ser diretamente aprendida usando conjunto de dados identificados de comparações verdadeiras e impostoras para treinar um classificador como rede neural artificial ou análise discriminante linear. Opcionalmente, um estágio de pré- processamento da análise de componente principal (PCA) pode ser aplicado antes da classificação. Em algumas implementações, os descritores locais (não binários) podem ser encurtados usando uma projeção de PCA para eliminar as dimensões pós-PCA que não contribuem para as variâncias do descritor local. Isso pode melhorar a precisão da classificação enquanto reduz a dimensionalidade da característica. A porcentagem da variância total retida para cada família de conjunto de descritor pode variar. Por exemplo, em uma implementação da projeção e encurtamento de PCA, a dimensionalidade dos padrões de histograma de características do padrão binário local de múltiplos raios estendido pode ser reduzido para reter aproximadamente 86% de seu encurtamento pós-PCA de variância. De modo similar, características com base em SURF podem ter sua dimensionalidade reduzida para reter aproximadamente 85% da variância original através de PCA e padrões de histograma de padrões binários locais simétricos centralizados de múltiplos raios estendidos podem ser encurtados para reter aproximadamente 95% de sua projeção e encurtamento pós-PCA de variância. As cargas de PCA podem ser pré-calculadas usando uma base de dados de treinamento de modelos oculares. Outras porcentagens de encurtamento de variância são possíveis; elas dependem dos métodos de redefinição e níveis de ruído em uma imagem.
[00105] Em algumas implementações, ao invés de parâmetros derivados da matriz por transformação RS e RA, uma outra função da transformação pode ser diretamente calculada de seus elementos da matriz. Considerando as matrizes de transformação derivadas das comparações verdadeiras e impostoras, é desejado criar uma função de elementos da matriz da transformação correspondente produzindo a separação máxima entre verdadeiro-impostor em sua distribuição. Uma forma de atingir essa finalidade é usar as matrizes de transformação de um conjunto de dados identificados das comparações verdadeiras e impostoras para treinar uma função de regressão e aumentar uma medição da capacidade de classificação, como razão discriminante Fisher.
[00106] Em algumas implementações, quando múltiplas escalas de imagem são usadas para gerar um modelo de escala múltipla de uma região da imagem, as coordenadas do ponto (mas não os descritores correspondentes) que não são da escala original podem ser multiplicadas por um fator de escala para projetar à escala original, combinando os pontos inlier (ou seja, os pontos correspondentes nos pares de ponto inlier) de todas as escalas por meio da projeção à escala original. Em algumas implementações, a pontuação de correspondência de estágio 1 pode ser uma soma ponderada de várias pontuações de correlação de diferentes transformações RANSAC geradas de diferentes combinações de localizadores de ponto de interesse e tipos de descritor de característica. Em algumas implementações, os pontos inlier do modelo de verificação podem ser substituídos pelos pontos alinhados do modelo geometricamente transformado para gerar a pontuação de correspondência de estágio 1 descrito acima.
[00107] A pontuação de correspondência de estágio 1 pode ser usada, tanto individualmente como em combinação, com uma ou mais outras medidas para determinar se um modelo de verificação é similar o suficiente a um modelo de registro, para autenticar um usuário. Em algumas implementações, se a escala RS recuperada estiver abaixo ou acima de certos valores, e/ou se o ângulo RA recuperado estiver acima de um certo limite, uma decisão de não autenticar o usuário pode ser tomada usando a pontuação de correspondência de estágio 1, e uma pontuação de correspondência de estágio 2 não é calculada. Em algumas implementações, se tal falha para registrar ocorrer, um algoritmo diferente ou sem registro pode ser usado para ainda permitir a correspondência de estágio 2 descrita abaixo.
ESTÁGIO 2 CORRESPONDÊNCIA DE PADRÃO
[00108] A região da imagem de verificação é transformada (registrada) para o combinador de estágio 2 usando uma matriz de transformação do processo de detecção outlier (por exemplo, processo RANSAC) que pode alinhar os pontos da região da imagem de verificação com os pontos do registro região da imagem representado pelo modelo de registro (etapa 114). Em algumas implementações, a transformação inclui uma ou mais transformações afins similares que são aplicadas à região da imagem de verificação. Por exemplo, a região da imagem de verificação pode ser movida, escalada, distorcida e/ou girada para gerar uma transformada região da imagem em que os pontos da transformada região da imagem estão nas posições similares às posições dos pontos correspondentes no registro região da imagem.
[00109] Uma pontuação de correspondência de estágio 2 pode ser gerada, por exemplo, pela correspondência de padrões binários locais orientados das imagens de verificação e registro filtradas de Gabor. Em algumas implementações, a região da imagem de verificação transformada, após a filtração, é usada para derivar a imagem dos padrões binários locais orientados (OLBP) (etapa 114).
[00110] Em algumas implementações, o processo de filtração inclui aplicar vários filtros de convolução à região da imagem de verificação transformada para gerar uma região da imagem de verificação filtrada. Por exemplo, um conjunto de filtros complexos Gabor, ou um conjunto de logaritmo complexo de filtros de Gabor, em vários ângulos pode ser aplicado na região da imagem de verificação transformada (etapa 112). Os parâmetros de um filtro de Gabor podem ser determinados empiricamente para contar as variações no espaçamento, orientação e perímetro dos vasos sanguíneos retratados em uma região da imagem. A fase de uma imagem complexa filtrada de Gabor geralmente reflete os padrões vasculares em diferentes ângulos. A fase das imagens filtradas de Gabor pode variar de - π a + π radianos. Por exemplo, na fase da imagem filtrada por um conjunto de kernels de Gabor (por exemplo, comprimento de onda = 6 pixels; dispersos (desvio padrão) em x = 2,5 pixels; dispersos em (desvio padrão) y = 2,5 pixels; ângulos = 0°, 30°, 60°, 90°, 120°, 150°) os valores de fase acima de 0,25 e abaixo de -0,25 radianos podem corresponder às estruturas vasculares. Limitar a imagem de fase não é restrita a 0,25 ou -0,25 e isso pode ser alterado com base na aplicação e conjunto de kernels de Gabor usado.
[00111] Em algumas implementações, para limitar a imagem de fase, todos os valores de fase acima de 0,25 ou abaixo de -0,25 são mantidos e os valores restantes são definidos a zero para derivar uma imagem limitada. Isso pode resultar em uma descrição mais redefinida da estrutura da vascularização que é substancialmente livre de ruído na imagem de fase correspondente. Essa operação pode ser realizada para imagens resultantes das aplicações de vários kernels de Gabor em diferentes ângulos. Em algumas implementações, as imagens limitadas resultantes podem ser adicionadas, resultantes em uma imagem filtrada desenhada para revelar uma estrutura vascular fina e nítida, como a retratada na figura 6.
[00112] Em algumas implementações, ao gerar a pontuação de correspondência de estágio 1, as regiões da imagem nas quais o localizador do ponto de interesse (SURF, FAST, HS, e VPD) e/ou algoritmos do descritor de imagem local (por exemplo, HoG, SURF, EMR-LBP, PH-EMR-LBP, EMR-CS-LBP e PH-EMR-CS-LBP) são aplicados conforme descrito acima podem ser a magnitude da região da imagem do filtrada de Gabor ou a magnitude da soma de todas as regiões da imagem iguais filtradas de Gabor em diferentes ângulos ou região da imagem de fase ou soma das regiões de fase em diferentes ângulos ou regiões de fase limitadas ou soma de todas as regiões da imagem de fase limitada em diferentes ângulos. Em algumas implementações, um kernel de Gabor de registro pode substituir o kernel de Gabor.
[00113] No geral, a região da imagem filtrada pode ser usada para derivar um modelo OLBP (etapa 114). Em algumas implementações, a região da imagem filtrada é uma soma de imagens de fase limitada em diferentes ângulos. Para gerar a imagem OLBP, janelas de pixel, como um exemplo da janela de pixel 3x3 retratada na figura 7A, são criadas para cada pixel sem margem na região da imagem filtrada. Uma janela de pixel 3x3 geralmente inclui um valor para um pixel central e os valores para oito pixels circundantes. Janelas de pixel de outros tamanhos (por exemplo, 5x5, 7x7, etc.) podem ainda ser usadas. Os valores para cada pixel podem indicar, por exemplo, uma intensidade do pixel correspondente ou das informações de fase para o pixel. Em algumas implementações, as janelas de pixel não são criadas para os pixels de margem da imagem, por exemplo, pixels na margem externa da região da imagem filtrada, pois os pixels da margem não têm oito pixels circundantes. Janelas de pixel binárias podem ser criadas tendo, para cada um dos oito pixels circundantes para um pixel central, um valor binário que indica se o pixel circundante tem um valor maior ou igual ao do pixel central, ou menor que o valor (ou seja, intensidade ou fase) do pixel central. Por exemplo, a janela do pixel na figura 7A é binarizada para criar uma janela binária do pixel, conforme retratado na figura 7B, que inclui valores altos locais, ou seja, "1"s e valores lógicos baixos, ou seja, "0"s para indicar quais valores de pixel circundante estavam maiores ou iguais, ou de modo alternativo, menores do que o valor do pixel central. Por exemplo, com referência à figura 7B, um valor de "1" indica que o pixel associado tem um valor de intensidade do pixel maior ou igual ao valor de intensidade do pixel do pixel central e um valor de "0" indica que o pixel associado tem um valor de intensidade do pixel menor que o valor de intensidade do pixel do pixel central.
[00114] Para cada janela binária do pixel, uma posição que corresponde ao centro da série mais longa dos "1"s circundantes (ou, em algumas implementações, "0"s) é identificada (etapa 114). No exemplo da janela binária do pixel mostrado na Figura 7B, os números que circundam a janela indicam as posições do pixel e a série mais longa dos "1"s circundantes é de posição 0 a posição 3. O centro dessa série de "1"s está entre as posições 1 e 2, e, nessa implementação, a menor posição (ou seja, posição 1) é identificada como o centro da série mais longa de "1"s circundantes. Em algumas implementações, a maior posição (por exemplo, posição 2 nesse exemplo) pode ser identificada como o centro da série mais longa de 1s.
[00115] Outra identificação da posição do centro da série mais longa de "1"s circundantes, um código de Gray binário de 4 bits pode ser gerado (etapa 114). Um código de Gray binário é a série de "1"s e "0"s onde cada valor sucessivo difere apenas por um bit. Um exemplo de posição de mapeamento para o código de Gray para o exemplo mostrado na figura 4B é "0001" (conforme mostrado na figura 7C). Nesse exemplo, a posição do pixel 1 foi identificada como o centro da série mais longa de "1"s circundantes, e posição 1 corresponde ao valor do código de Gray "0001". Esse código de Gray é gerado para o pixel no qual a janela do pixel 3x3 foi criada (ou seja, o pixel no centro da janela retratada nas figuras 7A e 7B). Como os códigos OLBP e Gray são identificados para cada pixel sem margem na região da imagem de registro filtrado, cada pixel pode ter um código de Gray de 4 bits que indica uma orientação de intensidade para esse pixel.
[00116] Após gerar um código de Gray para cada pixel sem margem da região da imagem filtrada de registro, quatro camadas binárias podem ser geradas para a região da imagem filtrada de registro. Cada camada binária (por exemplo, em uma terceira dimensão) corresponde a um bit do código de Gray de 4 bits. Por exemplo, se um pixel na posição (10, 10) tem um Valor de Código de Gray de "1100", o valor binário na posição (10, 10) da primeira camada binária é "1," o valor binário na posição (10, 10) da segunda camada binária é "1," o valor binário na posição (10, 10) da terceira camada binária é "0" e o valor binário na posição (10, 10) da quarta camada binária é "0". Para gerar a pontuação de correspondência de estágio 2, um procedimento similar é aplicado à imagem transformada de verificação para gerar uma segunda imagem com código de Gray, ou seja, o modelo do estágio 2 de verificação, que pode ser comparado com a primeira imagem com código de Gray, ou seja, o modelo do estágio 2 de registro.
[00117] Em algumas implementações, cada camada binária pode ser agrupada para comparação do modelo de verificação-registro (etapa 114). Em uma implementação exemplar, as camadas binárias são agrupadas em uma grade de 4x6 de 24 blocos. O agrupamento pode evitar ou minimizar as regiões que não incluem a vascularização visível e, como tal, não são significantes para autenticação. O agrupamento pode ainda minimizar as perturbações de registro. Em algumas implementações, blocos inválidos são identificados e descartados da análise adicional. Por exemplo, se a área correspondente a um bloco específico não inclui muita vascularização ocular visível, ou inclui uma grande parte da pele ou íris, o bloco pode ser determinado como inválido. Essa determinação de validade pode ser feita, por exemplo, por meio da comparação de uma soma de valores binários da área incluída em um bloco em um valor limite, usando algoritmos de detecção de pestana, e/ou usando detecção de brilho. Em algumas implementações, uma coleção de pixels de aberração (por exemplo, brilho e pestanas detectadas) que estão dentro do branco do olho, que por sua vez é determinada pelo processo de segmentação, pode ser gerada. Se um ou mais blocos são inválidos, pode-se determinar com base na razão do número de contagens de pixel de aberração ao número de pixels do branco do olho nos blocos correspondentes.
[00118] A área de um bloco dentro do branco de um olho dividido pela área total do bloco pode refletir a extensão de esclera dentro do bloco. Como tal, em uma implementação, os blocos com menos do que 80% de cobertura dentro da máscara de esclera pode ser considerado inválido e ser, assim, desconsiderado. Em alguns casos, partes de uma área do bloco podem ser omitidas por brilho ou pestana ou pálpebra ou outras perturbações e oclusões, que se graves o suficiente, podem resultar no bloco sendo invalidado. A máscara de esclera é tipicamente uma máscara de imagem binária que exclui pixels de imagem que não pertencem ao branco do olho. Em algumas implementações, uma medição da presença de vascularização pode ser usada para descartar os blocos não vasculares. Por exemplo, a área do bloco que tem a fase limitada de valores de Gabor maiores do que zero dividido pela área total do bloco pode detectar a quantidade de vascularização visível.
[00119] Em várias implementações, para determinar uma pontuação de correspondência de estágio 2, cada bit em cada camada binária do modelo com Código de Gray do estágio 2 de verificação é comparado com um bit correspondente na camada correspondente da imagem de registro de estágio 2 com código de Gray (etapa 114). Por exemplo, quatro camadas binárias de um modelo do estágio 2 de verificação podem ser comparadas em uma forma de camada por camada contra as quatro camadas correspondentes de um modelo do estágio 2 de registro. Em algumas implementações, uma pontuação de correspondência de estágio 2 é com base em uma distância de Hamming entre as camadas binárias correspondentes dos modos de registro e de verificação do estágio 2 com código de Gray, respectivamente. Em algumas implementações, uma pontuação de correspondência de estágio 2 é com base em uma correlação entre camadas binárias dos modelos de verificação e registro com Código de Gray do estágio 2. A correlação da janela deslizante pode ser usada para determinar uma pontuação de correlação para blocos de uma camada binária. Nas implementações onde camadas binárias são agrupadas, apenas a distância ou a correlação entre os blocos válidos pode ser usada para determinar a pontuação de correspondência de estágio 2. Em algumas implementações, a distância de Hamming pode ser normalizada, por exemplo, a um valor entre 0 e 1, para toda a região da imagem, ou para cada camada. Por exemplo, a distância de Hamming normalizada para cada camada pode ser um número entre 0 e 1, onde "1" indica uma correspondência exata (sem diferença) entre os valores binários de uma camada do modelo de verificação com código de Gray do estágio 2 e valores binários da camada correspondente do modelo de registro com código de Gray do estágio 2 e "0" indica sem correspondências. Em algumas implementações, a correlação pode ser normalizada, por exemplo, a um valor entre -1 e 1, para toda a região da imagem, ou para cada camada.
[00120] A pontuação de correspondência de estágio 2 pode ser gerada, por exemplo, adicionando a distância de Hamming normalizada calculada para cada par de camada binária correspondente dos modelos de verificação e registro com código de Gray do estágio 2, resultando em uma pontuação de correspondência de estágio 2 entre 0 e 4. A pontuação de correspondência de estágio 2 pode, em algumas implementações, ainda ser normalizada a um valor entre 0 e 1. Em algumas implementações, a pontuação de correspondência de estágio 2 pode ser gerada com base em uma distância de Hamming normalizada entre blocos, por exemplo, multiplicando o número de blocos válidos com uma média de distância de Hamming normalizada calculada por todos os blocos válidos. Por exemplo, com quatro camadas e 10 blocos válidos em cada camada, uma pontuação de correspondência de estágio 2 pode ser entre 0 e 40, ou seja, a soma da distância de Hamming normalizada para cada um dos blocos.
[00121] Em algumas implementações, a pontuação de correspondência de estágio 2 pode ser gerada, por exemplo, adicionando a pontuação de correlação normalizada calculada para cada camada binária pelos modelos de verificação e registro com código de Gray do estágio 2, resultando em uma pontuação de correspondência de estágio 2 entre -4 e 4. A pontuação de correspondência de estágio 2 pode, em algumas implementações, ainda ser normalizada a um valor entre - 1 e 1. Como um outro exemplo, a pontuação de correspondência de estágio 2 pode ser gerada com base em uma correlação normalizada entre os blocos, por exemplo, multiplicando o número de blocos válidos com a média da correlação normalizada calculada por todos os blocos válidos. Em algumas implementações, a pontuação de correspondência de estágio 2 gerada pela pontuação de correlação pode ser comparada a um limite para determinar se um usuário que fornece a imagem de verificação pode ser autenticado. Por exemplo, se a pontuação de correspondência de estágio 2 for menor do que 1,0 (em uma escala de - 4 a 4), a tentativa de verificação pode ser rejeitada e o usuário ser determinado como não autorizado.
FUSÃO
[00122] Na fusão de dois estágios, a pontuação de correspondência de estágio 2 pode ser combinada com a pontuação de correspondência de estágio 1, para gerar uma terceira (final) pontuação de correspondência (etapa 118). Como tal, em algumas implementações, a pontuação de correspondência de estágio 1 e a pontuação de correspondência de estágio 2 pode ser multiplicada e/ou somada para gerar a terceira pontuação de correspondência. Em algumas implementações, a terceira pontuação de correspondência pode ser a soma ponderada da pontuação de correspondência de estágio 1 e da pontuação de correspondência de estágio 2. Pesos podem ser determinados empiricamente baseados nos registros de correspondência históricos. Por exemplo, exemplos históricos de falha e de sucesso de autenticação podem ser analisados para determinar se a pontuação de correspondência de estágio 1 é mais indicativa de uma correspondência real do que a pontuação de correspondência de estágio 2, ou certos valores de pontuação de correspondência são mais ou menos indicativos de uma correspondência real, e os dados correspondentes podem ser utilizados para formar um ou mais pesos para a pontuação de correspondência de estágio 1 e de estágio 2. A terceira pontuação de correspondência pode ser comparada a uma pontuação limiar para determinar se uma imagem de verificação corresponde a uma imagem de registro de um olho. Em algumas implementações, a regra de fusão mínima ou máxima ou um discriminante linear poderia ser utilizado para combinar as pontuações de correspondência de estágio 1 e estágio 2 para gerar uma terceira pontuação de correspondência.
[00123] Em uma implementação, várias pontuações de estágio 1 são obtidas, cada uma baseada em um tipo diferente de nitidez de imagem, um tipo diferente de descritor e um funcionamento diferente de RANSAC. Uma adição ponderada pode ser utilizada para gerar uma pontuação de correspondência de fusão baseada nas várias pontuações de correspondência de estágio 1 e em uma pontuação de correspondência de estágio 2. Em um exemplo, as seguintes pontuações são obtidas combinando os modelos de verificação e de registro de estágio 1:
[00124] Score1 = Estágio 1 (Localizador de Pontos = FAST e VPD na Escala 0 e na Escala 1; Descritores de Recursos = EMR-LBP)
[00125] Score2 = Estágio 1 (Localizador de Pontos = FAST e VPD na Escala 0 e na Escala 1; Descritores de Recursos = PH-EMR-LBP)
[00126] Score3 = Estágio 1 (Localizador de Pontos = FAST e VPD na Escala 0 e na Escala 1; Descritores de Recursos = PH-EMR-CS- LBP)
[00127] Score4 = Estágio 1 (Localizador de Pontos = FAST e VPD na Escala 0 e na Escala 1; Descritores de Recursos = SURF)
[00128] Score5 = Pontuação de estágio 2 utilizando a matriz de transformação correspondente ao Score2.
[00129] A pontuação de fusão pode ser uma soma ponderada de todas as pontuações escritas acima, dada por:
[00130] Pontuação de Fusão = 0,1*Score1 + 0,2*Score2 + 0,2*Score3 + 0,2*Score4 + 0,1*Score5
[00131] Os pesos e combinações no exemplo acima são para uma implementação. Outras combinações de escalas de pirâmide, tipos de pirâmide, localizadores de ponto, e descritores de recursos podem ser empregados. Em algumas implementações, duas ou mais pontuações de correspondência de estágio 2 podem também ser incluídas na pontuação de fusão.
[00132] Em outra implementação, as seguintes pontuações são obtidas combinando modelos de registro e de verificação de estágio 1:
[00133] Score1 = Estágio 1 (Localizador de Pontos = FAST e VPD na Escala 0 e na Escala 1; Descritores de Recursos = PH-EMR-LBP)
[00134] Score2 = Estágio 1 (Localizador de Pontos = FAST e VPD na Escala 0 e na Escala 1; Descritores de Recursos = PH-EMR-CS LBP)
[00135] A pontuação de fusão pode ser uma soma ponderada das pontuações descritas acima, dada por:
[00136] Pontuação de Fusão = 0,5*Score1 + 0,5*Score2
[00137] Em outra implementação, várias pontuações de estágio 1 são obtidas aplicando vários procedimentos de RANSAC diferentes e uma pontuação de estágio 2 é obtida. Essas pontuações podem ser combinadas utilizando uma adição ponderada para gerar a pontuação de correspondência de fusão. Em um exemplo, as seguintes pontuações são obtidas combinando modelos de registro e de verificação:
[00138] Score1 = Estágio 1 (Localizador de Pontos = FAST e VPD na Escala 0; Descritores de Recursos = EMR-LBP, PH-EMR-LBP, PH- EMR-CS-LBP, SURF, HoG; RANSAC está funcionando em pontos fora da fusão baseada na correspondência métrica)
[00139] Score2 = Estágio 1 (Localizador de Pontos = FAST e VPD na Escala 1; Descritores de Recursos = EMR-LBP, PH-EMR-LBP, PH- EMR-CS-LBP, SURF, HoG; RANSAC está funcionando em pontos fora da fusão baseada na correspondência métrica)
[00140] Score3 = Pontuação de estágio 2, utilizando a matriz de transformação derivada da Score1.
[00141] A pontuação de fusão pode ser uma soma ponderada de todas as pontuações, dada por:
[00142] Pontuação de Fusão = 0,4*Score1 + 0,3*Score2 + 0,3*Score3
[00143] Deve ser entendido que os pesos e combinações utilizados nos exemplos acima são somente ilustrativos, e que outros pesos, números e tipos de descritores, e funcionamentos do RANSAC (procedimentos de detecção inlier, em geral) podem ser empregados. Outras combinações dos localizadores de ponto, descritores de recursos, escalas de pirâmide, e tipos de pirâmide para combinar a fusão de base métrica podem ser utilizadas também.
[00144] Em outra implementação, várias pontuações de estágio 1 são obtidas aplicando vários procedimentos de RANSAC diferentes em imagens diferentemente intensificadas. Essas pontuações podem ser combinadas utilizando uma adição ponderada para gerar a pontuação de correspondência de fusão. Em um exemplo, as seguintes pontuações são obtidas combinando modelos de verificação e de registro:
[00145] Score1 = Estágio 1 (Nitidez = baseada no LoG; Localizador de Pontos = FAST e VPD na Escala 0; Descritores de Recursos = EMR- LBP, PH-EMR-LBP, PH-EMR-CS-LBP, SURF, HoG; RANSAC está funcionando em pontos fora da fusão baseada na correspondência métrica)
[00146] Score2 = Estágio 1 (Nitidez = baseada no LoG; Localizador de Pontos = FAST e VPD na Escala 1; Descritores de Recursos = EMR- LBP, PH-EMR-LBP, PH-EMR-CS-LBP, SURF, HoG; RANSAC está funcionando em pontos fora da fusão baseada na correspondência métrica)
[00147] Score3 = Estágio 1 (Nitidez = baseada no Gabor; Localizador de Pontos = FAST e VPD na Escala 0; Descritores de Recursos = EMR- LBP, PH-EMR-LBP, PH-EMR-CS-LBP, SURF, HoG; RANSAC está funcionando em pontos fora da fusão baseada na correspondência métrica)
[00148] Score4 = Estágio 1 (Nitidez = baseada no Gabor; Localizador de Pontos = FAST e VPD na Escala 1; Descritores de Recursos = EMR- LBP, PH-EMR-LBP, PH-EMR-CS-LBP, SURF, HoG; está funcionando em pontos fora da fusão baseada na correspondência métrica)
[00149] A pontuação de fusão pode ser uma soma ponderada de todas as pontuações, dada por:
[00150] Pontuação de Fusão = 0,3*Score1 + 0,2*Score2 + 0,3*Score3 + 0,2*Score4
[00151] Deve ser entendido que os pesos e combinações utilizados nos exemplos acima são apenas ilustrativos, e que outros pesos, números e tipos de descritores, e funcionamentos do RANSAC (procedimentos de detecção inlier, em geral) podem ser empregados. Outras combinações de localizadores de ponto, descritores de recursos, escalas de pirâmide, e tipos de pirâmide para fusão baseada na correspondência métrica podem ser empregados também.
[00152] Em algumas implementações, a pontuação de fusão é obtida utilizando um modelo único de registro e um modelo único de verificação. Em algumas implementações, uma pontuação de correspondência final pode ser gerada comparando um ou mais modelos de verificação com um ou mais modelos de registro. Por exemplo, se houver dois modelos de verificação e dois modelos de registro, quatro pontuações de fusão podem ser produzidas. Em algumas implementações, a pontuação de correspondência final pode ser gerada utilizando uma regra máxima ou uma regra de soma. Em outras implementações, a pontuação de correspondência dos pontos inlier N' mais altos (identificados através de vários funcionamentos de detecção outlier) e/ou a pontuação de melhor qualidade é selecionada como a pontuação de correspondência final. Em algumas implementações, as pontuações de correspondência são geradas em série até que a pontuação de correspondência alcance certo limiar ou até que todas ou um número predefinido de comparações selecionadas seja realizado. Em algumas implementações, a pontuação de correspondência de estágio 1 pode ser utilizada juntamente com uma pontuação de correspondência de estágio 2 para gerar uma terceira pontuação de correspondência para determinar um grau de similaridade entre um modelo de verificação e um modelo de registro. Em algumas implementações, como forma de fusão de pontuação de correspondência, as pontuações de correspondência de estágio 1 podem ser utilizadas para gerar uma terceira pontuação de correspondência para determinar um grau de similaridade entre um modelo de verificação e um modelo de registro. Em algumas implementações, como forma de fusão, as pontuações de correspondência de estágio 2 podem ser utilizadas para gerar uma terceira pontuação de correspondência para determinar um grau de similaridade entre um modelo de verificação e um modelo de registro.
ATUALIZAÇÃO DE MODELO ROTATIVA E RECOLHIMENTO DE MODELO INTELIGENTE PARA CORRESPONDÊNCIA MULTIMODELO
[00153] A figura 8 ilustra um processo exemplar atualização de modelos de registro rotativamente. Para gerenciar eficientemente vários modelos de registro para cada ROI ocular de um usuário, os modelos de registro armazenados em um ou mais bancos modelo (por exemplo, a base de dados 120 mostrada nas figuras 1A e 1B) podem ser redefinidos e atualizados. O número de modelos de registro a ser armazenado pode ser opcionalmente reduzido no momento do registro. Para essa finalidade, em uma implementação, os modelos de registro N iniciais a partir de cada ROI são combinados em forma de pares, um contra o outro, e somente aqueles modelos tendo as pontuações de correspondência cruzadas mais altas são armazenados (etapa 802). Por exemplo, dado os modelos de registro N iniciais, os pares possíveis de N(N-1)/2 são combinados assumindo uma métrica de distância simétrica. Então, o modelo com a menor pontuação de correspondência intermediária é excluído. A pontuação de correspondência intermediária pode ser uma média das pontuações de correspondência N-1 para cada modelo de registro, cada um correspondente a uma comparação do modelo sendo testado para inclusão em um banco de registro com os modelos de registro N-1 restantes. Esse procedimento pode ser repetido para omitir a partir do banco ou bancos de modelo um ou mais modelos de registro adicionais.
[00154] Em algumas implementações, uma pontuação de qualidade é gerada para todos os modelos de registro e o modelo de verificação. Os modelos de verificação e de registro incluem pontos vasculares escassos que são baseados em mapas vasculares binários (BVMs). Em algumas implementações, a pontuação de qualidade correspondente a um modelo inclui a razão de pixels verdadeiros (isto é, pixels designados a um valor lógico alto) em um BVM reduzido associado ao modelo para o número de pixels verdadeiros na máscara escleral utilizada ao gerar aquele BVM. Em outro método, a pontuação de qualidade de um modelo de registro e/ou verificação pode ser calculada como uma razão de pixels verdadeiros em um BVM associado ao modelo para o número de pixels verdadeiros na máscara escleral. A pontuação de qualidade pode fornecer uma medida da quantidade de vascularização visível presente em uma imagem ocular para avaliar a elegibilidade do mesmo para processar ainda em um processo de correspondência. As imagens de registro tendo uma pontuação de qualidade abaixo de certo limiar não são processadas para inclusão no bando de registro.
[00155] Em algumas modalidades, o banco ou bancos de modelo podem ser adicionalmente ou alternativamente, atualizados no momento da verificação adicionando modelo(s) de verificação qualificado como modelo(s) de registro adicional ou colocando os modelos de registro previamente armazenados de qualidade inferior com qualidade relativamente melhor de modelos de verificação. Para qualificar, um modelo de verificação tem que corresponder bem com um ou mais modelos de registro, e opcionalmente passar a medida de qualidade mencionada anteriormente para aquele modelo de verificação para ser adicionada ao banco do modelo (etapa 804). Se o banco do modelo não puder armazenar o modelo adicional, por exemplo, devido à restrição de capacidade de memória, registro de número de modelos de registro e etc., o modelo de registro menos desejado armazenado previamente pode ser excluído, por exemplo, utilizando o processo acima (etapa 806). Em algumas modalidades, o modelo de registro de qualidade inferior é preservado, independentemente, se um banco de registro maior for exigido, por exemplo, devido à falta de modelos suficientemente diversos a partir do processo de registro inicial, onde a diversidade é definida como uma medida de variações externamente induzidas em modelos enquanto o usuário autêntico digitaliza os olhos dele ou dela sob as condições de variação.
[00156] Em algumas modalidades, um perfil de exposição de cada modelo em um sistema de modelo de registros múltiplos é também armazenado juntamente com o modelo como uma medida de diversidade de modelo (por exemplo, na etapa 108 mostrada na figura 1A). O perfil de exposição de cada imagem correspondente a um modelo a ser salvo pode ser computado sobre uma ROI pré-registrada utilizando um número de métodos. Os métodos exemplares incluem utilizar variáveis de medição intrínseca da câmera (por exemplo, aquelas encontradas no arquivo EXIF da imagem), utilizando o intermediário, (desvio padrão médio) par e/ou um histograma do componente Y na apresentação YUV da imagem, ou somente a camada verde, para o perfil de exposição. No último caso, para encontrar a pontuação de similaridade de exposição entre duas captações, uma medição de distância do histograma, como Kolmogorov-Smirnov, diferença absoluta normalizada, intersecção do histograma, erro quadrático, distância baseada no qui-quadrado, divergência de Kullback-Leibler, distância Bhattacharyya, ou coeficiente de correlação, pode ser utilizada. A sensibilidade em relação à distribuição especial e de iluminação assimétrica de exposição pode ser aumentada dividindo a imagem em dois ou quadro segmentos (ou outras disposições espaciais, que podem ser sobrepostas), e concatenando as medidas de exposições descritas acima calculadas por cada segmento, antes de medir similaridades do perfil de exposição.
[00157] Os procedimentos descritos acima são medições de similaridade de imagem estatística relativamente simples que podem principalmente revelar as diferenças induzidas de exposição e/ou iluminação entre os modelos. Para melhorar a precisão da medição de similaridade, as imagens podem ser pré-registradas e cortadas à ROI de escolha, por exemplo, uma caixa de delimitação do olho todo ou a esclera segmentada da direção do olhar específica. Em uma implementação, o pré-registro pode ser realizado encontrando uma escala a partir da distância interocular, e transportar a partir de uma combinação do centro íris e/ou esclera e/ou olho. Um ângulo de rotação pode ser determinado a partir de uma linha conectando os dois pontos anteriores, e o pré-registro pode ser alcançado utilizando uma transformação geométrica de similaridade baseada na escala, ângulo de rotação e etc. Durante a verificação, a correspondência de um modelo de verificação recebido pode iniciar com os modelos de registro que tem os perfis de exposições mais parecidos, que podem reduzir o tempo de correspondência na primeira melhor multi-comparação, isto é, saindo com a decisão de correspondência assim que o limiar de correspondência for alcançado.
[00158] Em algumas implementações, para atualização de modelo rotativa sensível à exposição, a métrica de correspondência calculada é modulada permitindo a diversidade de exposição fornecendo uma vantagem limitada aos modelos tendo condições de exposição e de iluminação diferentes daqueles do modelo de registro (etapa 118, retratada na figura 1B). Tais diferenças podem colocar esses modelos de verificação em uma desvantagem, senão devido às suas pontuações de correspondência menores, pelo menos em partes devido à diferença de exposição. Em geral, isso é benéfico, não para permitir uma diferença de exposição significante entre os modelos de verificação e de registro para superar a métrica modulada, mas para permitir, assim, erroneamente que um modelo impostor fechado seja adicionado ao banco de modelo de registro. Portanto, para os modelos T1 e T2, de acordo com uma implementação linear:
Figure img0014
[00159] O limiar de influência pode garantir que o poder de diferença de exposição não exceda certo nível. Um limiar de influência adequado pode ser determinado de acordo com o parâmetro 'a' para melhor desempenho, sobre um conjunto de dados de treinamento rotulado. De acordo com a métrica de correspondência melhorada acima, uma correspondência preferivelmente fraca, mas com uma diferença de exposição significante entre imagens que produziu os modelos T1 e T2 pode ser uma correspondência forte sem essa diferença de exposição e, como tal, o modelo de verificação recebido pode ser alavancado para ser selecionado em uma atualização de modelo rotativa. Uma medida de qualidade de vascularidade/imagem pode ser adicionada a essa fórmula para garantir ainda que modelos a partir de imagens de baixa qualidade (isto é, imagens com falta de estruturas vasculares bem definidas devido ao desfoque, reflexos e oclusões e etc.) também não são selecionadas como modelos de registro.
[00160] Em uma implementação da métrica de similaridade de exposição baseada no histograma, uma imagem ocular é cortada à caixa de delimitação de uma máscara escleral e é preenchida com certo número de pixels (por exemplo, aproximadamente 50 pixels) ou, caso contrário, a imagem ocular é centrada com em relação ao olho. Então, um histograma de 64 bin da camada verde de cada quadrante de uma primeira e uma segunda imagem é calculado. Outro histogramas, como histogramas de 32 bin ou 128 bin podem também ser utilizados. Esses histogramas são armazenados juntamente aos seus modelos correspondentes como perfis de exposição ou modelos de exposição. Depois disso, as métricas de distância e similaridade do histograma entre histogramas de cada quadrante correspondente entre o par de modelos é calculado. Especificamente, as seguintes métricas são calculadas: valor absoluto normalizado das diferenças do histograma (ABSNdist), similaridade de intersecção do histograma (TNTRsim), similaridade do coeficiente de correlação de histogramas (CORRsim), e sua distância de Bhattacharyya (BHATdist). Em outras implementações, menos e/ou outras métricas podem ser utilizadas. Finalmente, essas métricas são combinadas em uma métrica de similaridade única como: similaridade = -1*ABSNdist2-1*ABSNdist1-1*ABSNdist3-1*ABSNdist4 -1*BHATdist2-1*BHATdist1-1*BHATdist3-1*BHATdist4 +INTRsim2+INTRsim1+INTRsim3+INTRsim4 +CORRsim2+CORRsim1+CORRsim3+CORRsim4;
[00161] Quanto maior a métrica de similaridade, mais similar os dois modelos são. A disparidade ou diferença de exposição pode ser um valor negado da métrica de similaridade.
[00162] Os sistemas e técnicas descritos aqui podem ser implementados em um sistema de computação que inclui um componente posterior (por exemplo, como um servidor de dados), ou que inclui um componente middleware (por exemplo, um servidor de aplicações), ou que inclui um componente dianteiro (por exemplo, um computador cliente tendo uma interface do usuário gráfica ou navegador Web através do qual um usuário pode interagir com uma implementação dos sistemas e técnicas descritas aqui), ou qualquer combinação de tais componentes posteriores, middleware ou dianteiros. Os componentes do sistema podem ser interconectados por qualquer forma ou meio de comunicação de dados digital (por exemplo, uma rede de comunicação). Exemplos de redes de comunicação incluem uma rede de área local ("LAN"), uma rede de área ampla ("WAN"), e a Internet.
[00163] O sistema de computação pode incluir clientes e servidores. Um cliente e servidor são geralmente remotos um do outro e tipicamente interagem através de uma rede de comunicação. A relação de cliente e servidor surge em virtude de programas de computador funcionando nos respectivos computadores e tendo uma relação cliente-servidor um com o outro. Um número de modalidades foi descrito. Independentemente, será entendido que várias modificações podem ser feitas sem partir do âmbito e do escopo da invenção.
[00164] As modalidades do assunto e as operações descritas nessa especificação podem ser implementadas em circuitos eletrônicos digitais, ou em software, firmware ou hardware de computador, incluindo estruturas reveladas nessa especificação e seus equivalentes estruturais, ou combinações de um ou mais dos mesmos. As modalidades do assunto descrito nessa especificação podem ser implementadas como um ou mais programas de computador, isto é, um ou mais módulos de instruções de programa de computador, codificados no meio de armazenamento de computador para execução por, oi para controlas a operação de, aparelho de processamento de dados. Alternativamente ou adicionalmente, as instruções de programa podem ser codificadas sobre um sinal propagado gerado artificialmente, por exemplo, um sinal elétrico, óptico ou magnético gerado por máquina que é gerado para codificar informações para transmissão para aparelhos receptores adequados para a execução por um aparelho de processamento de dados. Um meio de armazenamento de computador pode ser, ou estar incluído em, um dispositivo de armazenamento legível por computador, um substrato de armazenamento legível por computador, uma matriz ou um dispositivo de memória de acesso em série ou aleatório ou a combinação de um ou mais dos mesmos. Além disso, enquanto um meio de armazenamento de computador não é um sinal propagado, um meio de armazenamento de computador pode ser uma fonte ou destino de instruções de programa de computador codificadas em um sinal propagado gerado artificialmente. O meio de armazenamento de computador pode também ser, ou estar incluído em um ou mais componentes ou meios físicos separados (por exemplo, CDs múltiplos, discos, ou outros dispositivos de armazenamento).
[00165] As operações descritas nessa especificação podem ser implementadas como operações realizadas por um aparelho de processamento de dados em dados armazenados em um ou mais dispositivos de armazenamento legíveis por computador ou recebidos a partir de outras fontes.
[00166] O termo "aparelho de processamento de dados" engloba todos os tipos de aparelhos, dispositivos e máquinas para processor dados, incluindo, como exemplo, um processador programável, um computador, um sistema em um chip, ou em múltiplos, ou combinações dos mesmos. O aparelho pode incluir um circuito lógico de finalidade especial, por exemplo, uma FPGA (matriz de porta de campo programável) ou um ASIC (circuito integrado de aplicação específica). O aparelho pode também incluir, além do hardware, um código que cria um ambiente de execução para o programa de computador em questão, por exemplo, um código que constitui um processador firmware, uma pilha de protocolos, um sistema de gerenciamento da base de dados, um sistema operacional, um ambiente de tempo de execução de plataforma múltipla, uma máquina virtual, ou uma combinação de um ou mais dos mesmos. O aparelho e o ambiente de execução podem reconhecer várias infraestruturas de modelo de computação diferente, como serviços de web, infraestruturas de computação em grade e de computação distribuída.
[00167] Um programa de computador (também conhecido como um programa, software, aplicação de software, certificado ou código) pode ser escrito por qualquer forma de linguagem de programação, incluindo linguagens compiladas ou interpretadas, linguagens declarativas ou processuais, e pode ser implantado de qualquer forma, incluindo como um programa autônomo ou como um módulo, componente, sub-rotina, objeto, ou outra unidade adequada para o uso em um ambiente computacional. Um programa de computador pode, mas não precisa corresponder a um arquivo em um sistema de arquivos. Um programa pode ser armazenado em uma parte de um arquivo que mantém outros programas ou dados (por exemplo, um ou mais certificados armazenados em uma fonte de linguagem de marcação), em um único arquivo dedicado ao programa em questão, ou em múltiplos arquivos coordenados (por exemplo, arquivos que armazenam um ou mais módulos, subprogramas, ou porções de código). Um programa de computador pode ser implantado para ser executado em um computador ou em múltiplos computadores que estão localizados em um local, ou distribuídos em múltiplos locais, e interconectados por uma rede de comunicação.
[00168] As modalidades do assunto descrito nessa especificação podem ser implementadas em um sistema de computação que inclui um componente posterior, por exemplo, como um servidor de dados, ou que inclui um componente middleware, por exemplo, um servidor de aplicações, ou que inclui um componente dianteiro, por exemplo, um computador cliente tendo uma interface de usuário gráfica ou um navegador Web através do qual um usuário pode interagir com uma implementação do assunto descrito nessa especificação, ou qualquer combinação de um ou mais dos tais componentes posteriores, middleware ou dianteiros. Os componentes do sistema podem ser interconectados por qualquer forma ou meio de comunicação de dados digital, por exemplo, uma rede de comunicação. Exemplos de redes de comunicação incluem uma rede de área local ("LAN") e uma rede de área ampla ("WAN"), uma inter-rede (por exemplo, a Internet), e redes de ponto-a-ponto (por exemplo, ad hoc redes peer-to-peer).
[00169] O sistema de computação pode incluir clientes e servidores. Um cliente e um servidor são geralmente remotos um do outro e tipicamente interagem através de uma rede de comunicação. A relação de cliente e servidor surge em virtude dos programas de computadores funcionando nos respectivos computadores e tendo uma relação cliente-servidor um com o outro. Em algumas modalidades, um servidor transmite os dados (por exemplo, uma página de HTML) para um dispositivo cliente (por exemplo, com a finalidade de exibir dados para e receber a entrada do usuário a partir de um usuário interagindo com um dispositivo cliente). Dados gerados no dispositivo cliente (por exemplo, um resultado da interação do usuário) podem ser recebidos a partir do dispositivo cliente no servidor.
[00170] Um sistema de um ou mais computadores pode ser configurado para realizar operações ou ações específicas em virtude de ter software, firmware, hardware ou uma combinação dos mesmos instalados no sistema que, em operação, faz com que ou fazem com que o sistema realize as ações. Um ou mais programas de computador podem ser configurados para realizar operações ou ações específicas em virtude da inclusão de instruções que, quando executadas por aparelhos de processamento de dados, fazem com que os aparelhos realizem as ações.
[00171] Enquanto essa especificação contém muitos detalhes de implementação específicos, esses não podem ser interpretados como limitações sobre o âmbito de quaisquer invenções ou do qual pode ser reivindicado, mas ao invés disso como descrições de recursos específicos para modalidades específicas de invenções específicas. Certos recursos que são descritos nessa especificação no contexto de modalidades separadas podem também ser implementados juntamente com uma única modalidade. Por outro lado, vários recursos que são descritos no contexto de uma única modalidade podem também ser implementados em múltiplas modalidades separadamente ou em qualquer subcombinação adequada. Além disso, embora os recursos possam ser descritos acima como atuando em certas combinações e mesmo inicialmente reivindicado como tal, um ou mais recursos a partir de uma combinação reivindicada pode em alguns casos ser executada a partir da combinação, e a combinação reivindicada pode ser direcionada para uma subcombinação ou variação de uma subcombinação.
[00172] Similarmente, enquanto operações são retratadas no desenho em uma ordem específica, não deve ser entendido como exigindo que tais operações sejam realizadas na ordem específica mostrada ou na ordem sequencial, ou que todas as operações ilustradas sejam realizadas, para alcançar resultados desejáveis. Em certas circunstâncias, o processamento multitarefas e paralelo pode ser vantajoso. Além disso, a separação de vários componentes de sistema nas modalidades descritas acima não deve ser entendida como exigindo a separação em todas as modalidades, e deve ser entendido que os componentes e sistemas de programa descritos podem geralmente ser integrados juntos em um único produto de software ou embalados em múltiplos produtos de software.
[00173] Assim, modalidades específicas do assunto foram descritas. Outras modalidades estão dentro do âmbito das seguintes reivindicações. Em alguns casos, as ações recitadas nas reivindicações podem ser realizadas em uma ordem diferente e ainda alcançar resultados desejáveis. Além disso, os processos retratados nas figuras acompanhantes não exigem necessariamente a ordem específica mostrada, ou ordem sequencial, para alcançar os resultados desejáveis. Em certas implementações, o processamento multitarefas e paralelo pode ser vantajoso.

Claims (17)

1. Método implementado por computador, caracterizado pelo fato de que compreende: identificar uma pluralidade de pares de ponto de correspondência, cada par compreendendo um primeiro ponto selecionado de uma pluralidade de primeiros pontos de um modelo de verificação e um segundo ponto de correspondência selecionado de uma pluralidade de segundos pontos de um modelo de registro, cada primeiro ponto compreendendo: (i) uma localização de um ponto de interesse em uma imagem de verificação correspondente ao modelo de verificação, e (ii) uma pluralidade de diferentes tipos de descritores, cada um descrevendo uma localidade que circunda o ponto de interesse na imagem de verificação, e cada segundo ponto compreendendo: (i) uma localização de um ponto de interesse de uma imagem de registro correspondente ao modelo de registro, e (ii) uma pluralidade de diferentes tipos de descritores, cada um descrevendo uma localidade que circunda o ponto de interesse na imagem de registro; obter uma pluralidade de pares de ponto inlier selecionado a partir da pluralidade de pares de ponto de correspondência e uma transformação geométrica correspondente; e calcular uma pontuação de correspondência com base, pelo menos em um dentre: (i) a pluralidade de pares de ponto inlier e (ii) a transformação geométrica, em que o cálculo da pontuação de correspondência compreende computar uma primeira pontuação de correspondência ao: computar um valor de correlação entre coordenadas de pontos, através dos modelos de verificação e registro, dos pares de ponto inlier; e modificar o valor de correlação usando-se uma função de um número dos pares de ponto inlier e um ou mais parâmetros da transformação geométrica, para obter a primeira pontuação de correspondência.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que identificar a pluralidade de pares de ponto de correspondência compreende, para cada primeiro ponto no modelo de verificação: calcular respectivas distâncias entre os descritores associados com o primeiro ponto e os descritores associados com uma pluralidade dos segundos pontos do modelo de registro; e designar um dos segundos pontos como correspondente ao primeiro ponto com base nas respectivas distâncias, formando assim um par de ponto de correspondência compreendendo o primeiro ponto e o segundo ponto correspondente.
3. Método, de acordo com a reivindicação 2, caracterizado pelo fato de que calcular uma respectiva distância entre os descritores associados com um primeiro ponto específico no modelo de verificação e descritores associados com um segundo ponto do modelo de registro compreende: calcular uma distância entre cada descritor associado com o primeiro ponto específico e cada descritor correspondente do segundo ponto do modelo de registro; e combinar as distâncias calculadas como uma média ponderada para obter a distância entre os descritores associados com o primeiro ponto específico e os descritores associados com o segundo ponto do modelo de registro.
4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que identificar a pluralidade de pares de ponto de correspondência compreende, para cada primeiro ponto no modelo de verificação: calcular respectivas distâncias entre cada um dos descritores associados com o primeiro ponto e um descritor correspondente associado com um ou mais segundos pontos do modelo de registro; e contar um número de distâncias que não excede respectivos limites de distância; e designar um dos segundos pontos como correspondente ao primeiro ponto com base na conta do número de distâncias, formando assim um par de ponto de correspondência compreendendo o primeiro ponto e o segundo ponto correspondente.
5. Método, de acordo com a reivindicação 4, caracterizado pelo fato de que calcular respectivas distâncias compreende calcular pelo menos um dentre uma Distância de Hamming, uma Distância Euclidiana, uma Distância de Manhattan, uma correlação e uma Distância de Mahalanobis.
6. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que um descritor específico foi derivado usando os Padrões Binários Locais de Múltiplos Raios Estendidos (EMR-LBP), Histogramas de Padrão de Padrões Binários Locais de Múltiplos Raios Estendidos (PH-EMR-LBP), Padrões Binários Locais Simétricos Centralizados de Múltiplos Raios Estendidos (PEMR-CS-LBP), Histogramas de Padrão de EMR-CS-LBPs (PH-EMR-CS-LBP), PH- EMR-LBP em bloco, PEMR-CS-LBP em bloco ou PH-EMR-CS-LBP em bloco.
7. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que obter a pluralidade de pares de ponto inlier compreende usar consensor de amostra aleatória (RANSAC), amostra e consenso do estimador M (MSAC), ou GROUPSAC para alinhar os primeiros pontos aos segundos pontos correspondentes.
8. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o parâmetro compreende um ou mais dentre: uma mudança na escala da imagem de verificação como um resultado da transformação geométrica de registro calculada e uma mudança no ângulo da imagem de verificação como resultado da transformação de registro calculada.
9. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que computar a pontuação de correspondência compreende computar uma segunda pontuação de correspondência ao: aplicar a transformação geométrica à imagem de verificação para criar uma imagem transformada; filtrar e codificar versões de padrão binário local orientado da imagem transformada e da imagem correspondente ao modelo de registro, cada versão compreendendo uma pluralidade de camadas em que cada camada corresponde a uma dimensão distinta da codificação; comparar um ou mais blocos correspondentes em cada camada da imagem transformada codificada e da imagem codificada correspondente ao modelo de registro para obter uma respectiva medição da camada para cada camada; e agregar as medições da camada para obter a segunda pontuação de correspondência.
10. Método, de acordo com a reivindicação 9, caracterizado pelo fato de que a filtração compreende Filtração de Gabor ou logaritmo de Filtração de Gabor.
11. Método, de acordo com a reivindicação 9, caracterizado pelo fato de que a codificação compreende Codificação de Gray.
12. Método, de acordo com a reivindicação 9, caracterizado pelo fato de que ainda compreende excluir, antes de comparar, um ou mais blocos correspondentes a uma região que substancialmente não possui vascularização visível.
13. Método, de acordo com a reivindicação 9, caracterizado pelo fato de que a comparação de blocos correspondentes compreende calcular uma distância de Hamming, uma distância de Hamming normalizada ou uma correlação da janela deslizante entre blocos correspondentes.
14. Método, de acordo com a reivindicação 9, caracterizado pelo fato de que ainda compreende: computar a pontuação de correspondência como uma soma ponderada da primeira pontuação de correspondência e a segunda pontuação de correspondência.
15. Método, de acordo com a reivindicação 14, caracterizado pelo fato de que: o valor de correlação compreende
Figure img0015
as coordenadas compreendem coordenadas A e Y, em que Cx e Cy são correlações das coordenadas X e Y, respectivamente; e a modificação compreende:
Figure img0016
N sendo o número dos pares de ponto inlier, RS sendo uma mudança na escala da imagem de verificação como um resultado da transformação geométrica de registro calculada e RA sendo uma mudança no ângulo da imagem de verificação como um resultado da transformação geométrica de registro calculada.
16. Método, de acordo com a reivindicação 14, caracterizado pelo fato de que ainda compreende excluir a primeira pontuação de correspondência da pontuação de correspondência se pelo menos um parâmetro da transformação geométrica ficar fora de uma faixa nominal desse parâmetro.
17. Sistema caracterizado pelo fato de que compreende: uma memória possuindo instruções armazenadas na mesma; e um processador programado para executar as instruções para realizar operações compreendendo: identificar uma pluralidade de pares de ponto de correspondência, cada par compreendendo um primeiro ponto selecionado de uma pluralidade de primeiros pontos de um modelo de verificação e um segundo ponto de correspondência selecionado de uma pluralidade de segundos pontos de um modelo de registro, cada primeiro ponto compreendendo: (i) uma localização de um ponto de interesse em uma imagem de verificação correspondente ao modelo de verificação, e (ii) uma pluralidade de diferentes tipos de descritores, cada um descrevendo uma localidade que circunda o ponto de interesse na imagem de verificação, e cada segundo ponto compreendendo: (i) uma localização de um ponto de interesse de uma imagem de registro correspondente ao modelo de registro, e (ii) uma pluralidade de diferentes tipos de descritores, cada um descrevendo uma localidade que circunda o ponto de interesse na imagem de registro; obter uma pluralidade de pares de ponto inlier selecionado a partir da pluralidade de pares de ponto de correspondência e uma transformação geométrica correspondente; e calcular uma pontuação de correspondência com base, pelo menos em um dentre: (i) a pluralidade de pares de ponto inlier e (ii) a transformação geométrica, em que para calcular a pontuação de correspondência o processador é programado para ainda computar uma primeira pontuação de correspondência ao: computar um valor de correlação entre coordenadas de pontos, através dos modelos de verificação e registro, dos pares de ponto inlier; e modificar o valor de correlação usando-se uma função de um número dos pares de ponto inlier e um ou mais parâmetros da transformação geométrica, para obter a primeira pontuação de correspondência.
BR122017019640-5A 2013-09-16 2014-09-16 Método implementado por computador e sistema para autenticação biométrica BR122017019640B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361878588P 2013-09-16 2013-09-16
US61/878,588 2013-09-16
PCT/US2014/055869 WO2015039102A1 (en) 2013-09-16 2014-09-16 Feature extraction and matching and template update for biometric authentication

Publications (1)

Publication Number Publication Date
BR122017019640B1 true BR122017019640B1 (pt) 2022-08-02

Family

ID=51656090

Family Applications (3)

Application Number Title Priority Date Filing Date
BR112016005674-4A BR112016005674B1 (pt) 2013-09-16 2014-09-16 Método implementado por computador e sistema
BR122017019640-5A BR122017019640B1 (pt) 2013-09-16 2014-09-16 Método implementado por computador e sistema para autenticação biométrica
BR122017019647-2A BR122017019647B1 (pt) 2013-09-16 2014-09-16 Método implementado por computador para autenticação biométrica

Family Applications Before (1)

Application Number Title Priority Date Filing Date
BR112016005674-4A BR112016005674B1 (pt) 2013-09-16 2014-09-16 Método implementado por computador e sistema

Family Applications After (1)

Application Number Title Priority Date Filing Date
BR122017019647-2A BR122017019647B1 (pt) 2013-09-16 2014-09-16 Método implementado por computador para autenticação biométrica

Country Status (9)

Country Link
US (7) US9390327B2 (pt)
EP (1) EP3047426B1 (pt)
JP (3) JP6039863B2 (pt)
KR (2) KR101808467B1 (pt)
CN (5) CN108846390B (pt)
BR (3) BR112016005674B1 (pt)
HK (1) HK1257828A1 (pt)
MY (1) MY176883A (pt)
WO (1) WO2015039102A1 (pt)

Families Citing this family (143)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9443298B2 (en) 2012-03-02 2016-09-13 Authentect, Inc. Digital fingerprinting object authentication and anti-counterfeiting system
US8774455B2 (en) 2011-03-02 2014-07-08 Raf Technology, Inc. Document fingerprinting
US10346852B2 (en) 2016-02-19 2019-07-09 Alitheon, Inc. Preserving authentication under item change
US9390327B2 (en) 2013-09-16 2016-07-12 Eyeverify, Llc Feature extraction and matching for biometric authentication
KR20150071038A (ko) * 2013-12-17 2015-06-26 삼성전자주식회사 전자 장치를 이용한 소셜 네트워크 서비스 제공 방법 및 이를 구현한 장치
US20150186708A1 (en) * 2013-12-31 2015-07-02 Sagi Katz Biometric identification system
JP6406900B2 (ja) * 2014-07-09 2018-10-17 キヤノン株式会社 画像処理方法、画像処理装置、プログラム、記録媒体、生産装置、及び組立部品の製造方法
WO2016014020A1 (en) 2014-07-21 2016-01-28 Hewlett-Packard Development Company, L.P. Radial histogram matching
WO2016015034A1 (en) * 2014-07-25 2016-01-28 Qualcomm Incorporated Enrollment and authentication on a mobile device
US9818114B2 (en) 2014-08-11 2017-11-14 Mastercard International Incorporated Systems and methods for performing payment card transactions using a wearable computing device
CN107209933A (zh) * 2014-08-25 2017-09-26 新加坡科技研究局 用于评估视网膜图像以及从视网膜图像获得信息的方法和系统
US10915618B2 (en) * 2014-08-28 2021-02-09 Facetec, Inc. Method to add remotely collected biometric images / templates to a database record of personal information
US10282535B2 (en) * 2014-09-02 2019-05-07 NXT-ID, Inc. Method and system to validate identity without putting privacy at risk
WO2016049273A1 (en) 2014-09-24 2016-03-31 Sri International Control of wireless communication device capability in a mobile device with a biometric key
US20160125223A1 (en) * 2014-10-30 2016-05-05 Apple Inc. Electronic device including multiple speed and multiple accuracy finger biometric matching and related methods
US10581843B2 (en) * 2014-11-25 2020-03-03 Certify Global Inc. Systems and methods of verifying an authenticated document biosignature encoding restricted access information
US10726113B2 (en) 2014-11-25 2020-07-28 Certify Global Inc. Systems and methods of verifying an authenticated document biosignature glyph containing a selected image
MX2017007139A (es) 2014-12-03 2017-11-10 Princeton Identity Inc Sistema y metodo para un complemento biometrico de dispositivo movil.
US9817956B2 (en) * 2014-12-12 2017-11-14 Excalibur Ip, Llc User authentication and data encryption
KR102302621B1 (ko) * 2015-03-09 2021-09-16 한국전자통신연구원 고차 라플라시안 오브 가우시안 커널을 이용한 이미지의 특징점 추출 장치 및 방법
CN106034029A (zh) 2015-03-20 2016-10-19 阿里巴巴集团控股有限公司 基于图片验证码的验证方法和装置
CN105518709B (zh) * 2015-03-26 2019-08-09 北京旷视科技有限公司 用于识别人脸的方法、系统和计算机程序产品
US10515304B2 (en) 2015-04-28 2019-12-24 Qualcomm Incorporated Filter specificity as training criterion for neural networks
US9740918B1 (en) * 2015-05-20 2017-08-22 Amazon Technologies, Inc. Detecting objects in multiple images using integral images
US9740919B1 (en) * 2015-05-20 2017-08-22 Amazon Technologies, Inc. Detecting objects in multiple images using integral images
US9672409B2 (en) * 2015-07-03 2017-06-06 Fingerprint Cards Ab Apparatus and computer-implemented method for fingerprint based authentication
JP6623597B2 (ja) * 2015-07-27 2019-12-25 富士ゼロックス株式会社 情報処理装置及びプログラム
MX2018003051A (es) * 2015-09-11 2018-06-08 Eyeverify Inc Calidad de imagen y características, mejora de imagen y extracción de características para reconocimiento ocular-vascular y facial, y fusión de información ocular-vascular con facial y/o sub-facial para sistemas biométricos.
US10169684B1 (en) * 2015-10-01 2019-01-01 Intellivision Technologies Corp. Methods and systems for recognizing objects based on one or more stored training images
CN105389566B (zh) 2015-11-13 2018-09-11 广东欧珀移动通信有限公司 指纹识别方法、指纹模板的更新方法、装置和移动终端
TR201517592A2 (tr) * 2015-12-30 2017-01-23 Gebze Teknik Ueniversitesi Stereo avuç i̇çi̇ damar tespi̇t yöntemi̇ ve bu yönteme uygun çalişan bi̇yometri̇k ki̇mli̇k tespi̇t si̇stemi̇
EP3403217A4 (en) 2016-01-12 2019-08-21 Princeton Identity, Inc. SYSTEMS AND METHODS FOR BIOMETRIC ANALYSIS
CN105657664A (zh) * 2016-02-29 2016-06-08 南京大学 一种移动互联网环境下基于位置共享的游客管理系统
WO2017172695A1 (en) 2016-03-31 2017-10-05 Princeton Identity, Inc. Systems and methods of biometric anaysis with adaptive trigger
WO2017173228A1 (en) * 2016-03-31 2017-10-05 Princeton Identity, Inc. Biometric enrollment systems and methods
EP3236401A1 (en) 2016-04-18 2017-10-25 Alitheon, Inc. Authentication-triggered processes
US10827952B2 (en) 2016-04-29 2020-11-10 Arizona Board Of Regents On Behalf Of Arizona State University Electrocardiographic biometric authentication
CN106023249A (zh) * 2016-05-13 2016-10-12 电子科技大学 一种基于局部二值相似性模式的运动目标检测方法
US10614302B2 (en) 2016-05-26 2020-04-07 Alitheon, Inc. Controlled authentication of physical objects
CN105913051B (zh) * 2016-05-26 2019-10-18 京东方科技集团股份有限公司 一种识别人脸图像的模版库的更新装置及方法
US10740767B2 (en) 2016-06-28 2020-08-11 Alitheon, Inc. Centralized databases storing digital fingerprints of objects for collaborative authentication
US10915612B2 (en) 2016-07-05 2021-02-09 Alitheon, Inc. Authenticated production
US9905267B1 (en) * 2016-07-13 2018-02-27 Gracenote, Inc. Computing system with DVE template selection and video content item generation feature
CN106326917A (zh) * 2016-08-12 2017-01-11 青岛大学 一种摄像头遮挡智能检测方法
US10902540B2 (en) 2016-08-12 2021-01-26 Alitheon, Inc. Event-driven authentication of physical objects
US10839528B2 (en) 2016-08-19 2020-11-17 Alitheon, Inc. Authentication-based tracking
WO2018044683A1 (en) * 2016-08-31 2018-03-08 Molecular Devices, Llc System and method for template-based image analysis
CN106355575A (zh) * 2016-08-31 2017-01-25 上海交通大学 一种基于神经网络的监督学习型眼底血管提取方法
US20180068188A1 (en) * 2016-09-07 2018-03-08 Compal Electronics, Inc. Video analyzing method and video processing apparatus thereof
JP6840973B2 (ja) * 2016-09-23 2021-03-10 富士通株式会社 照合方法、照合装置、照合プログラム
KR20180073118A (ko) 2016-12-22 2018-07-02 삼성전자주식회사 컨볼루션 신경망 처리 방법 및 장치
US10282592B2 (en) * 2017-01-12 2019-05-07 Icatch Technology Inc. Face detecting method and face detecting system
US10528791B1 (en) 2017-03-02 2020-01-07 Synaptics Incorporated Biometric template updating systems and methods
WO2018187337A1 (en) 2017-04-04 2018-10-11 Princeton Identity, Inc. Z-dimension user feedback biometric system
US10303974B1 (en) * 2017-04-28 2019-05-28 Ambarella, Inc. Approximate cross-check for real-time feature matching
CN107133221A (zh) * 2017-06-09 2017-09-05 北京京东尚科信息技术有限公司 信息审核方法、装置、计算机可读介质和电子设备
US10262223B2 (en) * 2017-06-20 2019-04-16 National Chung Shan Institute Of Science And Technology Method of speeding up image detection
US10832035B2 (en) * 2017-06-22 2020-11-10 Koninklijke Philips N.V. Subject identification systems and methods
CN107516105B (zh) * 2017-07-20 2020-06-16 阿里巴巴集团控股有限公司 图像处理方法及装置
EP3435287A3 (en) 2017-07-25 2019-05-01 Alitheon, Inc. Model-based digital fingerprinting
JP2020529073A (ja) 2017-07-26 2020-10-01 プリンストン・アイデンティティー・インコーポレーテッド 生体セキュリティシステムおよび方法
CN107563438B (zh) * 2017-08-31 2019-08-30 西南交通大学 一种快速鲁棒的多模态遥感影像匹配方法和系统
CN107644418B (zh) * 2017-09-26 2019-11-08 山东大学 基于卷积神经网络的视盘检测方法及系统
KR102506858B1 (ko) 2017-10-24 2023-03-08 현대자동차주식회사 차량의 군집 주행 기동 장치 및 방법
US10901869B2 (en) * 2017-11-07 2021-01-26 Vmware, Inc. Methods and systems that efficiently store metric data
US10832082B2 (en) 2017-11-14 2020-11-10 International Business Machines Corporation Template selection system and method
US10552671B2 (en) * 2017-11-22 2020-02-04 King Fahd University Of Petroleum And Minerals Multi-kernel fuzzy local Gabor feature extraction method for automatic gait recognition
CN108171688B (zh) * 2017-12-19 2021-01-08 浙江大学 一种基于Gabor特征与随机降维的晶圆表面缺陷检测方法
US10740386B2 (en) * 2017-12-29 2020-08-11 MorphoTrak, LLC Multi-stage image matching techniques
US11087013B2 (en) 2018-01-22 2021-08-10 Alitheon, Inc. Secure digital fingerprint key object database
US11113522B2 (en) * 2018-02-08 2021-09-07 Datalogic Ip Tech S.R.L. Segment-based pattern matching algorithm
US11394552B2 (en) 2018-03-07 2022-07-19 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11265168B2 (en) 2018-03-07 2022-03-01 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11502841B2 (en) 2018-03-07 2022-11-15 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11170084B2 (en) 2018-06-28 2021-11-09 Private Identity Llc Biometric authentication
US11392802B2 (en) 2018-03-07 2022-07-19 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11138333B2 (en) 2018-03-07 2021-10-05 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11210375B2 (en) 2018-03-07 2021-12-28 Private Identity Llc Systems and methods for biometric processing with liveness
US11789699B2 (en) 2018-03-07 2023-10-17 Private Identity Llc Systems and methods for private authentication with helper networks
US10721070B2 (en) 2018-03-07 2020-07-21 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US10938852B1 (en) * 2020-08-14 2021-03-02 Private Identity Llc Systems and methods for private authentication with helper networks
US11489866B2 (en) * 2018-03-07 2022-11-01 Private Identity Llc Systems and methods for private authentication with helper networks
CN108446737B (zh) * 2018-03-21 2022-07-05 百度在线网络技术(北京)有限公司 用于识别对象的方法和装置
JP2019204288A (ja) * 2018-05-23 2019-11-28 富士通株式会社 生体認証装置、生体認証方法及び生体認証プログラム
US11113510B1 (en) 2018-06-03 2021-09-07 Apple Inc. Virtual templates for facial recognition
KR102138652B1 (ko) * 2018-06-05 2020-07-29 동국대학교 산학협력단 딥 러닝 기반의 지정맥 특징과 손가락 형태를 이용하는 생체 인식 장치 및 방법
CN109117703B (zh) * 2018-06-13 2022-03-22 中山大学中山眼科中心 一种基于细粒度识别的混杂细胞种类鉴定方法
CN108875629B (zh) * 2018-06-14 2021-06-04 电子科技大学 基于多样本特征融合的掌静脉识别方法
US11250351B2 (en) * 2018-07-11 2022-02-15 Palo Alto Research Center Incorporated System and method for one-class similarity machines for anomaly detection
TWI688902B (zh) * 2018-08-31 2020-03-21 國立中正大學 應用於表情辨識之拓展式局部二值模式方法及其系統
EP3621031B1 (en) * 2018-09-06 2021-06-30 Tata Consultancy Services Limited Systems and methods for performing hand segmentation
US11216541B2 (en) * 2018-09-07 2022-01-04 Qualcomm Incorporated User adaptation for biometric authentication
WO2020070590A1 (ja) * 2018-10-05 2020-04-09 株式会社半導体エネルギー研究所 認証システム、認証システムを用いた解錠履歴の記録方法
US10956796B2 (en) * 2018-10-11 2021-03-23 International Business Machines Corporation Self-guided object detection in regular images
US10885363B2 (en) 2018-10-25 2021-01-05 Advanced New Technologies Co., Ltd. Spoof detection using structured light illumination
US10783388B2 (en) * 2018-10-26 2020-09-22 Alibaba Group Holding Limited Spoof detection using multiple image acquisition devices
CN109284744A (zh) * 2018-11-02 2019-01-29 张彦龙 一种从眼部灰度图像似然图对虹膜图像编码检索的方法
CN111191655B (zh) * 2018-11-14 2024-04-16 佳能株式会社 对象识别方法和装置
CN109815791B (zh) * 2018-12-13 2021-02-19 北京理工大学 基于血管的身份识别方法和装置
US11170242B2 (en) 2018-12-26 2021-11-09 Advanced New Technologies Co., Ltd. Spoof detection using dual-band fluorescence
CN109766809B (zh) * 2018-12-29 2021-01-29 山东财经大学 一种改进的人眼检测及跟踪方法
CN109766943B (zh) * 2019-01-10 2020-08-21 哈尔滨工业大学(深圳) 一种基于全局感知多样性度量的模板匹配方法及系统
US11054658B2 (en) * 2019-01-22 2021-07-06 Varjo Technologies Oy Display apparatus and method using reflective elements and opacity mask
US11175513B2 (en) * 2019-01-22 2021-11-16 Varjo Technologies Oy Display apparatuses and methods employing waveguides and opacity masks
US10970574B2 (en) 2019-02-06 2021-04-06 Advanced New Technologies Co., Ltd. Spoof detection using dual-band near-infrared (NIR) imaging
US10963670B2 (en) 2019-02-06 2021-03-30 Alitheon, Inc. Object change detection and measurement using digital fingerprints
CN109934114B (zh) * 2019-02-15 2023-05-12 重庆工商大学 一种手指静脉模板生成与更新算法及系统
KR20200100481A (ko) * 2019-02-18 2020-08-26 삼성전자주식회사 생체 정보를 인증하기 위한 전자 장치 및 그의 동작 방법
US11328043B2 (en) * 2019-03-15 2022-05-10 Advanced New Technologies Co., Ltd. Spoof detection by comparing images captured using visible-range and infrared (IR) illuminations
US11200583B2 (en) * 2019-03-21 2021-12-14 Raytheon Company Using surface textures as unique identifiers for tracking material with a distributed ledger
EP3734506A1 (en) 2019-05-02 2020-11-04 Alitheon, Inc. Automated authentication region localization and capture
EP3736717A1 (en) 2019-05-10 2020-11-11 Alitheon, Inc. Loop chain digital fingerprint method and system
CN110705341A (zh) * 2019-08-13 2020-01-17 平安科技(深圳)有限公司 基于指静脉图像的验证方法、装置、存储介质
ES2917214T3 (es) * 2019-10-07 2022-07-07 Optos Plc Sistema de formación de imágenes oftálmicas
US11238146B2 (en) 2019-10-17 2022-02-01 Alitheon, Inc. Securing composite objects using digital fingerprints
US10607077B1 (en) * 2019-10-28 2020-03-31 EyeVerify Inc. Identity authentication using an inlier neural network
CN110889432B (zh) * 2019-10-29 2022-07-29 北京迈格威科技有限公司 特征点匹配方法、装置、计算机设备和存储介质
CN110852235A (zh) * 2019-11-05 2020-02-28 长安大学 一种图像特征提取方法
SE543565C2 (en) * 2019-11-06 2021-03-30 Precise Biometrics Ab A method and system for fingerprint verification and enrollment with secure storage of templates
CN111062025B (zh) * 2019-12-09 2022-03-01 Oppo广东移动通信有限公司 应用数据处理方法及相关装置
CN111161332A (zh) * 2019-12-30 2020-05-15 上海研境医疗科技有限公司 同源病理影像配准预处理方法、装置、设备及存储介质
EP3859603A1 (en) 2020-01-28 2021-08-04 Alitheon, Inc. Depth-based digital fingerprinting
US11341348B2 (en) 2020-03-23 2022-05-24 Alitheon, Inc. Hand biometrics system and method using digital fingerprints
EP3885984A1 (en) 2020-03-23 2021-09-29 Alitheon, Inc. Facial biometrics system and method of using digital fingerprints
CN111507208B (zh) * 2020-03-30 2021-06-25 中国科学院上海微系统与信息技术研究所 一种基于巩膜识别的身份验证方法、装置、设备和介质
US11948377B2 (en) 2020-04-06 2024-04-02 Alitheon, Inc. Local encoding of intrinsic authentication data
US11663849B1 (en) 2020-04-23 2023-05-30 Alitheon, Inc. Transform pyramiding for fingerprint matching system and method
US11983957B2 (en) 2020-05-28 2024-05-14 Alitheon, Inc. Irreversible digital fingerprints for preserving object security
US11494886B2 (en) * 2020-05-29 2022-11-08 Adobe Inc. Hierarchical multiclass exposure defects classification in images
US11700123B2 (en) 2020-06-17 2023-07-11 Alitheon, Inc. Asset-backed digital security tokens
CN111950403A (zh) * 2020-07-28 2020-11-17 武汉虹识技术有限公司 一种虹膜分类方法及系统、电子设备和存储介质
WO2022051775A1 (en) 2020-09-04 2022-03-10 Abova, Inc. Method for x-ray dental image enhancement
CN111932529B (zh) * 2020-09-10 2020-12-29 腾讯科技(深圳)有限公司 一种图像分类分割方法、装置及系统
KR102550864B1 (ko) * 2020-12-17 2023-07-04 가톨릭대학교 산학협력단 개체 이미지의 패턴에 의한 개체 인식 식별 방법 및 시스템
US11423689B1 (en) * 2021-02-09 2022-08-23 Guangzhou Tyrafos Semiconductor Tech. Co., Ltd. Identification method for an identification system
TWI799092B (zh) * 2021-02-09 2023-04-11 大陸商廣州印芯半導體技術有限公司 辨識系統的辨識方法
CN113128554B (zh) * 2021-03-10 2022-05-24 广州大学 一种基于模板匹配的目标定位方法、系统、装置及介质
KR102624308B1 (ko) * 2021-03-31 2024-01-15 서울대학교산학협력단 대응점 기반 이미지 정합 장치 및 그 방법
CN113379006B (zh) * 2021-08-16 2021-11-02 北京国电通网络技术有限公司 图像识别方法、装置、电子设备和计算机可读介质
US20230222197A1 (en) 2022-01-07 2023-07-13 Jumio Corporation Biometric Authentication Using Head-Mounted Devices
CN114708698B (zh) * 2022-03-24 2023-08-08 重庆巡感科技有限公司 隧道内异物智能感知与预警系统
CN115471557B (zh) * 2022-09-22 2024-02-02 南京博视医疗科技有限公司 单目相机图像目标点三维定位方法、瞳孔定位方法及装置
CN116597185B (zh) * 2023-07-17 2023-12-15 荣耀终端有限公司 模板更新方法及电子设备

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5361307A (en) * 1993-03-25 1994-11-01 General Electric Company Correlation methods of identifying defects in imaging devices
JP2858530B2 (ja) * 1993-12-27 1999-02-17 日本電気株式会社 エッジ強調装置
AU5114498A (en) 1996-12-04 1998-06-29 Dew Engineering And Development Limited Biometric security encryption system
US6185316B1 (en) 1997-11-12 2001-02-06 Unisys Corporation Self-authentication apparatus and method
JPH11232459A (ja) * 1998-02-17 1999-08-27 Nec Corp 個人認証用の認証対象原情報登録方法および個人認証装置
JP4519963B2 (ja) 1999-06-21 2010-08-04 富士通株式会社 生体情報の暗号化・復号化方法および装置並びに、生体情報を利用した本人認証システム
JP4374686B2 (ja) * 1999-12-03 2009-12-02 ノーリツ鋼機株式会社 画像の鮮鋭度判断方法、画像の鮮鋭度を判断する処理を行うためのプログラムを記録した記録媒体、画像処理装置および写真焼付装置
JP2001338301A (ja) * 2000-05-30 2001-12-07 Canon Inc 署名認証装置、署名認証方法、署名認証プログラムを格納した記憶媒体
US7536557B2 (en) 2001-03-22 2009-05-19 Ensign Holdings Method for biometric authentication through layering biometric traits
US6836554B1 (en) 2000-06-16 2004-12-28 International Business Machines Corporation System and method for distorting a biometric for transactions with enhanced security and privacy
US7103200B2 (en) 2001-03-05 2006-09-05 Robert Hillhouse Method and system for adaptively varying templates to accommodate changes in biometric information
US8279042B2 (en) 2001-07-10 2012-10-02 Xatra Fund Mx, Llc Iris scan biometrics on a payment device
JP2002238859A (ja) * 2001-12-27 2002-08-27 Canon Inc 医用カラー画像処理装置
JP4070558B2 (ja) * 2002-09-26 2008-04-02 株式会社東芝 画像追跡装置および方法
EP1671260B1 (en) * 2003-10-01 2014-06-11 Authentec, Inc. Methods for finger biometric processing and associated finger biometric sensors
JP3945474B2 (ja) 2003-11-28 2007-07-18 松下電器産業株式会社 眼画像入力装置および認証装置ならびに画像処理方法
US7382897B2 (en) * 2004-04-27 2008-06-03 Microsoft Corporation Multi-image feature matching using multi-scale oriented patches
WO2006093513A2 (en) * 2004-06-14 2006-09-08 Cephos Corp. Question and control paradigms for detecting deception by measuring brain activity
US7680311B2 (en) * 2005-04-15 2010-03-16 Carestream Health, Inc. System aid for digital radiographic image quality verification
US7327860B2 (en) * 2005-05-04 2008-02-05 West Virginia University Conjunctival scans for personal identification
WO2007065221A1 (en) * 2005-12-07 2007-06-14 Commonwealth Scientific And Industrial Research Organisation Linear feature detection method and apparatus
US20070160266A1 (en) * 2006-01-11 2007-07-12 Jones Michael J Method for extracting features of irises in images using difference of sum filters
US8005277B2 (en) 2006-03-03 2011-08-23 Research Foundation-State University of NY Secure fingerprint matching by hashing localized information
US20070217708A1 (en) 2006-03-20 2007-09-20 International Business Machines Corporation Method, system, and program product for transforming a biometric image
JP4961214B2 (ja) 2006-03-29 2012-06-27 株式会社日立情報制御ソリューションズ 生体認証方法およびシステム
JP2008052701A (ja) * 2006-07-28 2008-03-06 Sony Corp 画像処理方法、画像処理装置及びプログラム
US8417960B2 (en) 2006-09-06 2013-04-09 Hitachi, Ltd. Method for generating an encryption key using biometrics authentication and restoring the encryption key and personal authentication system
KR100866792B1 (ko) * 2007-01-10 2008-11-04 삼성전자주식회사 확장 국부 이진 패턴을 이용한 얼굴 기술자 생성 방법 및장치와 이를 이용한 얼굴 인식 방법 및 장치
JP5050642B2 (ja) * 2007-05-15 2012-10-17 ソニー株式会社 登録装置、照合装置、プログラム及びデータ構造
CN101377847B (zh) * 2007-08-29 2010-06-02 中国科学院自动化研究所 一种文档图像的配准及特征点选取方法
ES2326205B1 (es) 2007-11-27 2010-06-29 Universidad Complutense De Madrid Metodo y dispositivo para el reconocimiento de individuos basado en la imagen de la retina que incorpora como constante biometrica el area imagen del punto de fijacion.
US8064653B2 (en) * 2007-11-29 2011-11-22 Viewdle, Inc. Method and system of person identification by facial image
US8532344B2 (en) 2008-01-09 2013-09-10 International Business Machines Corporation Methods and apparatus for generation of cancelable face template
US8238639B2 (en) * 2008-04-09 2012-08-07 Cognex Corporation Method and system for dynamic feature detection
CN101556692A (zh) * 2008-04-09 2009-10-14 西安盛泽电子有限公司 基于特征点邻域伪Zernike矩的图像拼接方法
KR100949801B1 (ko) 2008-04-17 2010-03-30 한국전자통신연구원 퍼지볼트 시스템에서의 다항식 복원장치 및 그 방법
US8249314B2 (en) 2008-06-16 2012-08-21 International Business Machines Corporation Anonymous and revocable fingerprint recognition
ES2337866B2 (es) 2008-07-24 2011-02-14 Universidad Complutense De Madrid Reconocimiento biometrico mediante estudio del mapa de superficie delsegundo dioptrio ocular.
KR100996466B1 (ko) 2008-10-09 2010-11-25 조선대학교산학협력단 비밀분산 기법을 이용한 지문정보 저장 장치, 비밀분산 기법을 이용한 지문 인증 시스템 및 비밀분산 기법을 이용한 지문 인증 방법
US20100142766A1 (en) * 2008-12-04 2010-06-10 Alan Duncan Fleming Image Analysis
US8768014B2 (en) * 2009-01-14 2014-07-01 Indiana University Research And Technology Corp. System and method for identifying a person with reference to a sclera image
US8401342B2 (en) * 2009-01-16 2013-03-19 A9.Com, Inc. System and method to match images using topologically equivalent correspondences
US20100232659A1 (en) 2009-03-12 2010-09-16 Harris Corporation Method for fingerprint template synthesis and fingerprint mosaicing using a point matching algorithm
JP5287550B2 (ja) 2009-07-01 2013-09-11 富士通株式会社 生体認証システム,生体認証方法,生体認証装置,生体情報処理装置,生体認証プログラムおよび生体情報処理プログラム
US20120150450A1 (en) * 2009-09-09 2012-06-14 Nec Corporation Biometric authentication system, method, and program
JP5432644B2 (ja) * 2009-09-10 2014-03-05 キヤノン株式会社 血管交差・分岐部位の抽出方法及び装置
KR101255555B1 (ko) 2009-11-24 2013-04-17 한국전자통신연구원 보안성이 강화된 지문인식 방법 및 장치
JP5218991B2 (ja) * 2009-12-08 2013-06-26 株式会社日立製作所 複数種類のテンプレートを用いた生体認証システム及び生体認証方法
EP2355037A1 (en) * 2009-12-18 2011-08-10 Nxp B.V. Method of and system for determining an average colour value for pixels
US8818048B2 (en) 2010-01-22 2014-08-26 Indiana University Research And Technology Corp. System and method for cancelable iris recognition
EP2546798A4 (en) 2010-03-10 2017-08-16 Fujitsu Limited Biometric authentication device and biometric authentication method
CN101833765B (zh) * 2010-04-30 2011-11-16 天津大学 基于双向匹配和三角形约束的特征匹配方法
CN101839722A (zh) * 2010-05-06 2010-09-22 南京航空航天大学 一种中低空下目标自动识别及载体高精度定位方法
CN103609059B (zh) 2010-09-20 2016-08-17 安全第一公司 用于安全数据共享的系统和方法
JP5809792B2 (ja) * 2010-11-04 2015-11-11 株式会社日立製作所 生体認証装置および方法
TWI426775B (zh) * 2010-12-17 2014-02-11 Ind Tech Res Inst 攝影機再校正系統及其方法
US8457370B2 (en) * 2011-01-20 2013-06-04 Daon Holdings Limited Methods and systems for authenticating users with captured palm biometric data
US8355544B2 (en) 2011-02-01 2013-01-15 Universidade Da Coruna-Otri Method, apparatus, and system for automatic retinal image analysis
US20120249297A1 (en) * 2011-02-16 2012-10-04 Eliza Yingzi Du Consent Biometrics
US9323980B2 (en) * 2011-05-13 2016-04-26 Microsoft Technology Licensing, Llc Pose-robust recognition
JP5656768B2 (ja) * 2011-08-08 2015-01-21 日本放送協会 画像特徴量抽出装置およびそのプログラム
CN102426019B (zh) * 2011-08-25 2014-07-02 航天恒星科技有限公司 一种无人机景象匹配辅助导航方法及系统
JP5754813B2 (ja) * 2012-01-10 2015-07-29 Kddi株式会社 画像中の特徴点を検出する特徴点検出プログラム、画像処理装置及び方法
US8768049B2 (en) * 2012-07-13 2014-07-01 Seiko Epson Corporation Small vein image recognition and authorization using constrained geometrical matching and weighted voting under generic tree model
CN102831445B (zh) * 2012-08-01 2014-09-03 厦门大学 基于语义Hough变换和偏最小二乘法的目标检测方法
US8369595B1 (en) 2012-08-10 2013-02-05 EyeVerify LLC Texture features for biometric authentication
US9965608B2 (en) * 2013-07-18 2018-05-08 Samsung Electronics Co., Ltd. Biometrics-based authentication method and apparatus
US9390327B2 (en) 2013-09-16 2016-07-12 Eyeverify, Llc Feature extraction and matching for biometric authentication
US8965066B1 (en) 2013-09-16 2015-02-24 Eye Verify LLC Biometric template security and key generation

Also Published As

Publication number Publication date
EP3047426B1 (en) 2024-04-17
HK1257828A1 (zh) 2019-11-01
EP3047426A1 (en) 2016-07-27
WO2015039102A1 (en) 2015-03-19
JP6255463B2 (ja) 2017-12-27
US20170154202A1 (en) 2017-06-01
CN109165593B (zh) 2020-03-10
CN109284683A (zh) 2019-01-29
US20160086030A1 (en) 2016-03-24
JP2017054532A (ja) 2017-03-16
CN109165593A (zh) 2019-01-08
JP2016532945A (ja) 2016-10-20
US10664700B2 (en) 2020-05-26
US10726260B2 (en) 2020-07-28
MY176883A (en) 2020-08-25
KR20160075509A (ko) 2016-06-29
US20150286864A1 (en) 2015-10-08
CN109284683B (zh) 2021-08-31
CN108846390B (zh) 2020-02-14
US9454700B2 (en) 2016-09-27
CN105917353B (zh) 2018-09-21
BR112016005674B1 (pt) 2022-08-02
US9940517B2 (en) 2018-04-10
CN105917353A (zh) 2016-08-31
KR102113911B1 (ko) 2020-05-21
US10789465B2 (en) 2020-09-29
US20180189543A1 (en) 2018-07-05
CN108846390A (zh) 2018-11-20
BR112016005674A2 (pt) 2017-08-01
KR20170138587A (ko) 2017-12-15
JP2018077862A (ja) 2018-05-17
BR122017019647B1 (pt) 2022-08-02
US9053365B2 (en) 2015-06-09
CN109190531B (zh) 2020-05-05
US20200175250A1 (en) 2020-06-04
KR101808467B1 (ko) 2017-12-12
US20150078629A1 (en) 2015-03-19
US9390327B2 (en) 2016-07-12
US20200184187A1 (en) 2020-06-11
CN109190531A (zh) 2019-01-11
JP6039863B2 (ja) 2016-12-07
JP6599421B2 (ja) 2019-10-30

Similar Documents

Publication Publication Date Title
US10789465B2 (en) Feature extraction and matching for biometric authentication
AU2016319775B2 (en) Image and feature quality, image enhancement and feature extraction for ocular-vascular and facial recognition, and fusing ocular-vascular with facial and/or sub-facial information for biometric systems
US8064653B2 (en) Method and system of person identification by facial image
EP3825905A1 (en) Method and apparatus with liveness test and/or biometric authentication, computer program therefore and medium storing the same
Yeh et al. Face liveness detection based on perceptual image quality assessment features with multi-scale analysis
CN113614731A (zh) 使用软生物特征的认证验证
Pathak et al. Match score level fusion of iris and sclera descriptor for iris recognition
BR122018007964B1 (pt) Método implementado por computador e sistema
CN114840830A (zh) 身份验证方法、装置、计算机设备和存储介质
Youmaran Algorithms to process and measure biometric information content in low quality face and iris images
Saripalle A multimodal biometric authentication for smartphones

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: A CLASSIFICACAO ANTERIOR ERA: G06K 9/00

Ipc: G06K 9/62 (2006.01)

B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 16/09/2014, OBSERVADAS AS CONDICOES LEGAIS

B25D Requested change of name of applicant approved

Owner name: MATRIX TWO INC. (US)

B25G Requested change of headquarter approved

Owner name: MATRIX TWO INC. (US)

B25A Requested transfer of rights approved

Owner name: JUMIO CORPORATION (US)