BR112017016942B1 - Sistemas e métodos para realizar autenticação de usuário com base em impressão digital com o uso de acervo de imagens capturado com o uso de dispositivos móveis - Google Patents

Sistemas e métodos para realizar autenticação de usuário com base em impressão digital com o uso de acervo de imagens capturado com o uso de dispositivos móveis Download PDF

Info

Publication number
BR112017016942B1
BR112017016942B1 BR112017016942-8A BR112017016942A BR112017016942B1 BR 112017016942 B1 BR112017016942 B1 BR 112017016942B1 BR 112017016942 A BR112017016942 A BR 112017016942A BR 112017016942 B1 BR112017016942 B1 BR 112017016942B1
Authority
BR
Brazil
Prior art keywords
finger
processor
fingers
images
image
Prior art date
Application number
BR112017016942-8A
Other languages
English (en)
Other versions
BR112017016942A2 (pt
Inventor
Jonathan Francis Mather
Asem Othman
Richard Tyson
Andrew Simpson
Original Assignee
Veridium Ip Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=56564833&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=BR112017016942(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from US14/819,639 external-priority patent/US9361507B1/en
Application filed by Veridium Ip Limited filed Critical Veridium Ip Limited
Publication of BR112017016942A2 publication Critical patent/BR112017016942A2/pt
Publication of BR112017016942B1 publication Critical patent/BR112017016942B1/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1353Extracting features related to minutiae or pores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1371Matching features related to minutiae or pores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1376Matching features related to ridge properties or fingerprint texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1388Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1394Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1341Sensing with light passing through the finger

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Telephone Function (AREA)
  • Image Input (AREA)
  • Databases & Information Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

SISTEMAS E MÉTODOS PARA REALIZAR AUTENTICAÇÃO DE USUÁRIO COM BASE EM IMPRESSÃO DIGITAL COM O USO DE ACERVO DE IMAGENS CAPTURADO COM O USO DE DISPOSITIVOS MÓVEIS. São apresentadas no presente documento tecnologias que suportam um sistema e método para realizar reconhecimento de impressão digital. Modalidades da presente invenção se referem a um sistema e método para capturar características biométricas do usuário e gerar um identificador que caracteriza as características biométricas do usuário com o uso de um dispositivo móvel, tal como um telefone inteligente. O identificador biométrico é gerado com o uso de um acervo de imagens capturado de uma pluralidade de dedos de um usuário para os propósitos de autenticar/identificar o usuário de acordo com as biometrias capturadas e determinar a vivacidade do usuário. A presente revelação também descreve técnicas adicionais para impedir autenticação errônea causada por falsificação. Em alguns exemplos, as técnicas antifalsificação podem incluir a captura de uma ou mais imagens de dedo do usuário e a análise das imagens capturadas para indicações de vivacidade

Description

REFERÊNCIA CRUZADA A PEDIDOS RELACIONADOS
[0001] O presente pedido é uma continuação, em parte, do Pedido de Patente Não Provisório no U.S. 14/819.639, intitulado “SYSTEMS AND METHODS FOR PERFORMING FINGERPRINT BASED USER AUTHENTICATION USING IMAGERY CAPTURED USING MOBILE DEVICES”, depositado em 6 de agosto de 2015, que se baseia e reivindica a prioridade do Pedido de Patente Provisório no U.S. 62/112.961, intitulado “SYSTEMS AND METHODS FOR PERFORMING FINGERPRINT BASED USER AUTHENTICATION USING IMAGERY CAPTURED USING MOBILE DEVICES”, depositado em 6 de fevereiro de 2015, cujo conteúdo é incorporado ao presente documento, a título de referência, como se estivessem expressamente apresentados em sua totalidade no presente documento.
CAMPO DA TÉCNICA DA INVENÇÃO
[0002] A presente invenção refere-se a sistemas e métodos para capturar e caracterizar características biométricas, em particular, sistemas e métodos para capturar e caracterizar características biométricas com o uso de imagens de dedos capturadas por uma câmera embutida de um dispositivo móvel, tal como um telefone inteligente.
ANTECEDENTES DA INVENÇÃO
[0003] Como uma biometria é uma característica biológica (tal como uma impressão digital, a geometria de uma mão, um padrão de retina, a textura de íris, etc.) de um indivíduo, técnicas biométricas podem ser usadas como um fator de verificação adicional visto que as biometrias são normalmente mais difíceis de obter do que outras credenciais não biométricas. As biometrias podem ser usadas para identificação e/ou autenticação (também denominado como asserção e/ou verificação de identidade).
[0004] A asserção de identidade biométrica pode exigir um determinado nível de segurança, conforme indicado pelo aplicativo. Por exemplo, a autenticação em conjunto com uma transação financeira ou a obtenção de acesso a uma localização segura exige níveis mais altos de segurança. Como resultado, de preferência, a precisão da representação biométrica de um usuário é suficiente para assegurar que o usuário seja precisamente autenticado e a segurança seja mantida.
[0005] Além disso, o desaparecimento, a troca, a mistura e a adoção ilegal de recém-nascidos é um desafio global e o uso de sistemas biométricos automatizados foi proposto para identificar recém-nascidos com base em sua face, íris, impressão digital, pegada e/ou impressão palmar.
[0006] Entretanto, visto que sistemas de asserção de identidade por íris, face, dedo e voz existem e fornecem o nível de precisão necessários, tais sistemas exigem dispositivos e aplicativos dedicados e não são facilmente implantados em telefones inteligentes convencionais, que têm capacidades de emissão de luz e resolução de câmera limitadas.
[0007] Sensores de impressão digital eletrônicos já foram adicionados a dispositivos de telefone inteligente, o telefone inteligente iPhone 6 da Apple Inc. de Cupertino, Califórnia e o telefone inteligente Samsung S5 da Samsung Co. da Samsung Coreia são exemplos disso. Nesses dispositivos, o usuário deve registrar seus dados de impressão digital colocando seu dedo sobre o sensor, em uma data posterior, o usuário pode verificar sua identidade reposicionando seu dedo sobre o sensor, os dados de impressão digital são comparados aos dados de registro e, caso correspondam, a identidade do usuário é confirmada. Caso a impressão digital não corresponda, então, o usuário pode ser identificado como um impostor. Uma desvantagem desses sistemas é que o sensor de impressão digital adiciona tamanho, peso e custo ao dispositivo. Além disso, por esses motivos, é vantajoso minimizar o tamanho do sensor de impressão digital e, como tal, o sensor de impressão digital tipicamente capturas apenas uma porção da impressão digital, o que reduz a eficácia da identificação. Quanto menor a região de captura para o sensor de impressão digital, maiores as chances de outro dedo corresponder por acaso e é mais provável que qualquer erro nos dados de impressão digital provoque uma falsa rejeição do usuário autêntico.
[0008] Além disso, capturar impressões digitais de recém-nascidos com o uso dos sensores de impressão digital tradicionais é desafiador devido ao tamanho do dedo e a dificuldade para segurar a mão do recém-nascido e colocá-la sobre o sensor.
[0009] Em termos práticos isso significa que os usuários (isto é, adultos e recém-nascidos) sofrem um nível mais alto de inconveniência por falsas rejeições, e a aplicação do sensor é limitada ao uso não crítico, tal como pagamentos de baixo valor. Os sensores de impressão digital também podem ser objeto de ataques de falsificação, em que, por exemplo, um molde da impressão digital de usuários autênticos é colocado no sensor de impressão digital para possibilitar que um impostor passe pela autenticação. Isso fornece uma razão adicional para restringir o uso a aplicações não críticas.
[0010] Um desafio adicional é que apenas alguns dispositivos móveis são equipados com sensores de impressão digital, o que limita o número de pessoas que têm acesso a sistemas de autorização por impressão digital e provoca uma inconsistência no método de autenticação entre dispositivos.
[0011] Foram propostos sistemas que analisam a imagem de um único dedo com o uso da câmera de um dispositivo móvel, esses sistemas são potencialmente mais convenientes, entretanto, as taxas de falsa aceitação e taxas de falsa rejeição mais baixas para tais sistemas imagearem e analisarem um único dedo ainda não são confiáveis o suficiente para aplicações que exigem maior segurança, tais como compras de médio a alto valor e sistemas de empresas (isto é, sistemas de grande escala).
[0012] Sendo assim, há uma necessidade de um sistema de reconhecimento de dedo mais confiável e mais ubíquo.
SUMÁRIO DA INVENÇÃO
[0013] São apresentadas no presente documento tecnologias que suportam um sistema e método para realizar reconhecimento de impressão digital.
[0014] De acordo com um primeiro aspecto, é fornecido um método para realizar reconhecimento de impressão digital. O método inclui a etapa de capturar, através de um dispositivo móvel que tem uma câmera, uma mídia de armazenamento, instruções armazenadas na mídia de armazenamento e um processador configurado executando-se as instruções, uma ou mais imagens que representam uma pluralidade de dedos de uma pessoa. O método também inclui detectar, com o uso de um algoritmo de detecção de dedo, uma pluralidade de dedos representada na uma ou mais imagens. O método também inclui identificar, a partir de uma ou mais dentre as imagens de acordo com um algoritmo de segmentação, um respectivo segmento de ponta do dedo para cada dedo dentre a pluralidade de dedos. Além disso, o método inclui extrair características discriminantes para cada um dos dedos identificadas, gerar um identificador biométrico com base nas características discriminantes extraídas e armazenar o identificador biométrico na memória.
[0015] Esses e outros aspectos, recursos e vantagens podem ser constatados a partir da descrição anexa de determinadas modalidades da invenção e das reivindicações e figuras de desenho anexas.
BREVE DESCRIÇÃO DOS DESENHOS
[0016] A Figura 1 é um diagrama de alto nível de um sistema de computador para autenticar um usuário de acordo com as características biométricas do usuário de acordo com pelo menos uma modalidade revelada no presente documento;
[0017] A Figura 2A é um diagrama de blocos de um sistema de computador para autenticar um usuário de acordo com as características biométricas do usuário de acordo com pelo menos uma modalidade revelada no presente documento;
[0018] A Figura 2B é um diagrama de blocos de módulos de software para autenticar um usuário de acordo com as características biométricas do usuário de acordo com pelo menos uma modalidade revelada no presente documento;
[0019] A Figura 2C é um diagrama de blocos de um sistema de computador para autenticar um usuário de acordo com as características biométricas do usuário de acordo com pelo menos uma modalidade revelada no presente documento;
[0020] A Figura 3 é um fluxograma que mostra uma rotina para gerar um identificador biométrico de acordo com as características biométricas do usuário e registrar ou autenticar o usuário de acordo com pelo menos uma modalidade revelada no presente documento;
[0021] A Figura 4A é um fluxograma que mostra uma rotina para detectar dedos a partir de um acervo de imagens visual e corresponder as imagens de acordo com pelo menos uma modalidade revelada no presente documento;
[0022] A Figura 4B é um fluxograma que mostra uma rotina para filtrar regiões de ponta de dedo detectadas dentro do acervo de imagens visual de acordo com pelo menos uma modalidade revelada no presente documento;
[0023] A Figura 4C representa imagens capturadas e geradas de acordo com a rotina para filtrar regiões de ponta de dedo da Figura 4B;
[0024] A Figura 5A é um fluxograma que mostra uma rotina para detectar a vivacidade a partir de um acervo de imagens visual de dedos de acordo com pelo menos uma modalidade revelada no presente documento;
[0025] A Figura 5B é uma série de imagens capturadas de acordo com a rotina para detectar a vivacidade a partir de acervo de imagens visual de dedos;
[0026] A Figura 5C é uma série de imagens capturadas de acordo com a rotina para detectar a vivacidade a partir de um acervo de imagens visual de dedos;
[0027] A Figura 6A representa uma imagem capturada de dedos e uma imagem de refletividade de ressalto correspondente gerada de acordo com pelo menos uma modalidade revelada no presente documento;
[0028] A Figura 6B representa uma imagem capturada de dedos e uma imagem de refletividade de ressalto correspondente gerada de acordo com pelo menos uma modalidade revelada no presente documento;
[0029] A Figura 6C representa uma imagem capturada de dedos e uma imagem de refletividade de ressalto correspondente gerada de acordo com pelo menos uma modalidade revelada no presente documento;
[0030] A Figura 6D representa uma imagem capturada de dedos e uma imagem de refletividade de ressalto correspondente gerada de acordo com pelo menos uma modalidade revelada no presente documento;
[0031] A Figura 6E representa uma imagem capturada de dedos e uma imagem de refletividade de ressalto correspondente gerada de acordo com pelo menos uma modalidade revelada no presente documento; e
[0032] A Figura 6F representa uma imagem capturada de dedos e uma imagem de refletividade de ressalto correspondente gerada de acordo com pelo menos uma modalidade revelada no presente documento.
DESCRIÇÃO DETALHADA DE DETERMINADAS MODALIDADES DA INVENÇÃO
[0033] Somente a título de exemplo e com o propósito de visão geral e introdução, são descritas abaixo as modalidades da presente invenção que se referem a um sistema e método para capturar características biométricas do usuário e gerar um identificador que caracteriza as características biométricas do usuário com o uso de um dispositivo móvel, tal como um telefone inteligente. O identificador biométrico é, de preferência, gerado com o uso de um acervo de imagens capturado de uma pluralidade de dedos de um usuário para os propósitos de autenticar/identificar o usuário de acordo com as biometrias capturadas e determinar a vivacidade do usuário. A presente revelação também descreve técnicas adicionais para impedir autenticação errônea caudada por falsificação. Em alguns exemplos, as técnicas antifalsificação podem incluir a captura de uma ou mais imagens de uma biometria do usuário e a análise das imagens capturadas para indicações de vivacidade.
[0034] Em algumas implantações, o sistema inclui uma plataforma de servidor de sistema com base em nuvem que se comunica com PCs fixos, servidores e dispositivos, tais como computadores do tipo laptop, computadores do tipo tablet e telefones inteligentes, operados por usuários. Conforme o usuário tenta acessar um ambiente em rede que tem acesso controlado, por exemplo, um site da Web que exige uma realização de logon segura, é solicitado que o usuário seja autenticado com o uso do dispositivo móvel pré-registrado do usuário. A autenticação pode incluir a verificação da identidade do usuário e/ou a verificação de que o usuário está vivo (por exemplo, determinação de vivacidade) capturando-se informações biométricas na forma de pelo menos imagens das digitais do usuário, extraindo-se características exclusivas e codificando-se as características como um identificador biométrico que é indicativo das características biométricas e/ou vivacidade do usuário com o uso do dispositivo móvel. Consequentemente, a identidade e/ou vivacidade de usuários podem ser verificadas pelo dispositivo móvel e/ou pelo servidor de sistema ou uma combinação dos supracitados analisando-se o acervo de imagens, o identificador biométrico gerado e/ou comparando-se o acervo de imagens e/ou identificador biométrico com um identificador biométrico gerado durante o registro inicial do usuário com o sistema.
[0035] De acordo com um aspecto da aplicação em questão, as modalidades reveladas fornecem um meio confiável de identificação/autenticação de usuário com ouso de reconhecimento biométrico com base em dedo em dispositivos móveis que são ubíquos e conveniente para uso. As modalidades reveladas realizam reconhecimento com base em quatro digitais com o uso de câmeras que estão tipicamente presentes em dispositivos móveis, de modo que nenhum volume, custo ou peso adicional seja incorrido no projeto e o uso possa ser ubíquo. Uma finalidade adicional do sistema é fornecer uma defesa contra ataques de falsificação.
[0036] A presente invenção captura informações biométricas a partir de múltiplos dedos simultaneamente, e captura grandes áreas de impressão de cada dedo. Além disso, a presente invenção também pode ser usada para capturar informações de impressão a partir de outras regiões da mão, incluindo impressões palmares e impressões de mão para aumentar ainda mais a confiabilidade do sistema. Além disso, no caso de identificação de recém-nascidos, a presente invenção pode ser usada para capturar os dedos dos pés. Além disso, a inovação proposta pode ser combinada com sistemas de reconhecimento facial móveis existentes. A título de exemplo não limitador, sistemas e métodos exemplificativos para autenticação de usuário com base em biometria a partir de acervo de imagens de características faciais são descritos no presente documento e no Pedido de Patente copendente e cedido à mesma cessionária no U.S. 14/668.352, intitulado “SYSTEM AND METHOD FOR AUTHORIZING ACCESS TO ACCESS CONTROLLED ENVIRONMENTS” depositado em 13 de maior de 2015, que é uma continuação da Patente no U.S. 9/003.196, intitulada “SYSTEM AND METHOD FOR AUTHORIZING ACCESS TO ACCESS CONTROLLED ENVIRONMENTS” depositada em 13 de maior de 2014; e na Patente no 9.208.492, intitulada “SYSTEMS AND METHODS FOR BIOMETRIC AUTHENTICATION OF TRANSACTIONS” depositada em 7 de março de 2014, que são incorporadas ao presente documento a título de referência como se estivessem expressamente apresentados em sua totalidade no presente documento. Adicionalmente, a presente invenção pode ser usada para processar a foto de dedo adquirida com o uso da câmera apresentada nos dispositivos móveis a fim de gerar imagens de impressão digital que correspondem às fotos de dedo adquiridas e que podem ser correlacionadas com as imagens de impressão digital em rolo ou planas que são usadas nos Sistemas Integrados de Identificação de Impressão Digital Automatizados (IAFIS). IAFIS é um sistema nacional de histórico criminal e identificação de impressão digital automatizado mantido pelo Federal Bureau of Investigation (FBI). IAFIS fornece capacidades de busca de impressão digital automatizadas, capacidade de busca latente, armazenamento de imagens eletrônico e troca eletrônica de impressões digitais e respostas.
[0037] As modalidades reveladas podem ser denominadas como um sistema de autenticação biométrica multimodal. Portanto, a presença de múltiplas peças independentes de biometria (isto é, 4 a 10 digitais) oferece as vantagens a seguir em relação aos sistemas de reconhecimento móveis de dedo único com o uso de imagens de dedo ou impressão digital capturadas por sensores embutidos em telefones inteligentes.
[0038] 1. Desempenho: Uma combinação de modalidades não correlacionadas (por exemplo, quatro digitais de uma pessoa e dez digitais de um recém-nascido) pode resultar em um melhor aprimoramento no desempenho do que um sistema de reconhecimento de um único dedo. Esse aprimoramento de precisão acontece devido a dois motivos. Primeiro, a fusão de evidências biométricas de digitais diferentes aumenta eficazmente as características discriminantes e reduz a sobreposição entre as características de usuários diferentes. Em outras palavras, uma combinação de múltiplos dedos é mais discriminatória para um indivíduo do que um único dedo. Segundo, o ruído (provocado por fatores como sujeira ou mancha de tinta) e a imprecisão durante a aquisição de um subconjunto das digitais podem ser abordados pelas informações fornecidas pelas digitais remanescentes.
[0039] 2. Universalidade: Solucionar o problema de não universalidade e reduzir a falha para registrar erros. Por exemplo, caso uma pessoa não possa registrar um dedo particular devido a um dedo amputado, um corte de dedo, uma lesão ou ressaltos desgastados (isto é, os ressaltos desgastados podem ocorrer fisicamente em um ou mais dedos de sujeitos), a mesma ainda pode ser identificada como uso de seus outros dedos.
[0040] 3. Ataque de falsificação: O uso das modalidades reveladas, nas quais o registro de múltiplas digitais de um usuário é realizado, aprimorará a resistência de sistemas de autenticação a ataques de falsificação. Isso se deve ao fato de que se torna cada vez mais difícil contornar ou falsificar múltiplas digitais simultaneamente.
[0041] Um sistema exemplificativo para autenticar um usuário e/ou determinar a vivacidade do usuário de acordo com um acervo de imagens das características biométricas do usuário 100 é mostrado como um diagrama de blocos na Figura 1. Em uma disposição, o sistema consiste em um servidor de sistema 105 e dispositivos de usuário que incluem um dispositivo móvel 101a e um dispositivo de computação de usuário 101b. O sistema 100 também pode incluir um ou mais dispositivos de computação remotos 102.
[0042] O servidor de sistema 105 pode ser praticamente qualquer dispositivo de computação e/ou aparelho de processamento de dados com capacidade para se comunicar com os dispositivos de usuário e os dispositivos de computação remotos e receber, transmitir e armazenar informações eletrônicas e solicitações de processamento conforme descrito adicionalmente no presente documento. De modo similar, o dispositivo de computação remoto 102 pode ser praticamente qualquer dispositivo de computação e/ou aparelho de processamento de dados com capacidade para se comunicar com o servidor de sistema e/ou os dispositivos de usuário e receber, transmitir e armazenar informações eletrônicas e solicitações de processamento conforme descrito adicionalmente no presente documento. Também deve ser compreendido que o servidor de sistema e/ou dispositivo de computação remoto podem ser diversos dispositivos de computação com base em nuvem ou em rede.
[0043] Em algumas implantações, o dispositivo de computação 102 pode ser associado a uma organização empresarial, por exemplo, um banco ou um site da Web, que mantém contas de usuário (“contas empresariais”) e fornece serviços para retentores de conta empresarial e exige a autenticação do usuário antes de fornecer ao usuário o acesso a tais sistemas e serviços.
[0044] Os dispositivos de usuário, dispositivo móvel 101a e dispositivo de computação de usuário 101b, podem ser configurados para se comunicarem entre si, com o servidor de sistema 105 e/ou com o dispositivo de computação remoto 102, transmitirem informações eletrônicas para os mesmos e receberem informações eletrônicas a partir dos mesmos, conforme descrito adicionalmente no presente documento. Os dispositivos de usuário também podem ser configurados para receber entradas de usuário assim como capturar e processar informações biométricas, por exemplo, imagens digitais e gravações de voz de um usuário 124.
[0045] O dispositivo móvel 101a pode ser quaisquer dispositivos de computação móveis e/ou aparelho de processamento de dados com capacidade para incorporar os sistemas e/ou métodos descritos no presente documento, incluindo, mas sem limitação, um computador pessoal, um computador do tipo tablet, um assistente pessoal digital, um dispositivo eletrônico móvel, um dispositivo de telefone celular ou de telefone inteligente e semelhantes. O dispositivo de computação 101b se destina a representa várias formas de dispositivos de computação que um usuário pode interagir, tais como estações de trabalho, um computador pessoal, um computador do tipo laptop, sistemas de ponto de venda dedicados, terminais de ATM, dispositivos de controle de acesso ou outros computadores digitais apropriados.
[0046] Conforme descrito adicionalmente no presente documento, o sistema 100 facilita a autenticação de um usuário 124 de acordo com características biométricas do usuário com o uso de um dispositivo móvel 101a. Em algumas implantações, a identificação e/ou autenticação de acordo com características biométricas do usuário utiliza informações biométricas do usuário em um processo de dois estágios. O primeiro estágio é denominado como registro. No estágio de registro, amostras (por exemplo, imagens) de biometria (ou biometrias) apropriada são coletadas a partir de um indivíduo. Essas amostras de biometria são analisadas e processadas para extrair características (ou características) presentes em cada amostra. O conjunto de características presentes na biometria imageada de um indivíduo constitui um identificador para a pessoa e é útil para autenticar o usuário e, em algumas implantações, determinar se o usuário é uma pessoa viva. Esses identificadores são, então, armazenados para concluir o estágio de registro. No segundo estágio, a mesma biometria do indivíduo é medida. As características dessa biometria são extraídas exatamente como na fase de registro para obter um identificador biométrico atual. Caso a meta seja determinar a vivacidade, as características ou características podem ser analisadas para determinar se as mesmas são representativas de uma pessoa viva. Conforme descrito adicionalmente no presente documento, outras características e características do acervo de imagens capturado das biometrias podem ser analisadas para determinar a vivacidade. Caso a meta seja identificação, então, esse identificador é pesquisado no banco de dados de identificadores gerados na primeira fase. Caso uma correspondência ocorra, a identificação do indivíduo é revelada, de outra forma, a identificação falha. Caso a meta seja a autenticação, então, o identificador gerado no segundo estágio é comparado com o identificador gerado no primeiro estágio para a pessoa particular. Caso uma correspondência ocorra, a autenticação é bem-sucedida, de outra forma, a autenticação falha.
[0047] Deve-se observar que embora a Figura 1 represente o sistema para autenticar um usuário 100 em relação a um dispositivo móvel 101a e a um dispositivo de computação de usuário 101b e um dispositivo de computação remoto 102, deve ser compreendido que qualquer quantidade de tais dispositivos pode interagir com o sistema da maneira descrita no presente documento. Também deve ser observado que, embora a Figura 1 represente um sistema para autenticar um usuário 100 em relação ao usuário 124, deve ser compreendido que qualquer quantidade de usuários pode interagir com o sistema da maneira descrita no presente documento.
[0048] Deve ser compreendido adicionalmente que,embora os vários dispositivos e máquinas de computação referenciados no presente documento, incluindo, mas sem limitação, o dispositivo móvel 101a e o servidor de sistema 105 e o dispositivo de computação remoto 102, sejam denominados no presente documento como dispositivos e/ou máquinas individuais/únicos, em determinadas implantações, os dispositivos e máquinas referenciados, e suas operações, recursos e/ou funcionalidades associadas e/ou anexas podem ser combinadas ou dispostas ou empregadas de outra forma através de um número de tais dispositivos e/ou máquinas, tal como através de uma conexão de rede ou conexão com fio, conforme é conhecido por aqueles versados na técnica.
[0049] Também deve ser compreendido que os sistemas e métodos exemplificativos descritos no presente documento no contexto do dispositivo móvel 101a (também denominado como um telefone inteligente) não são especificamente limitados ao dispositivo móvel e podem ser implantados com o uso de outros dispositivos de computação habilitados (por exemplo, o dispositivo de computação de usuário 102b).
[0050] Em referência à Figura 2A, o dispositivo móvel 101a do sistema 100 inclui vários componentes de hardware e software que servem para possibilitar a operação do sistema, incluindo um ou mais processadores 110, uma memória 120, um microfone 125, um visor 140, uma câmera 145, uma saída de áudio 155, um armazenamento 190 e uma interface de comunicação 150. O processador 110 serve para executar um aplicativo cliente na forma de instruções de software que podem ser carregadas na memória 120. O processador 110 pode ser vários processadores, uma unidade de processamento central CPU, uma unidade de processamento de gráficos GPU, um núcleo de multiprocessador ou qualquer outro tipo de processador, dependendo da implantação particular.
[0051] De preferência, a memória 120 e/ou o armazenamento 190 são acessíveis pelo processador 110, possibilitando, assim, que o processador receba e execute instruções codificadas na memória e/ou no armazenamento de modo a fazer com que o dispositivo móvel e seus vários componentes de hardware realizem operações para aspectos dos sistemas e métodos, conforme será descrito em maiores detalhes abaixo. A memória pode ser, por exemplo, uma memória de acesso aleatório (RAM) ou qualquer outra mídia de armazenamento legível por computador volátil ou não volátil adequada. Além disso, a memória pode ser fixa ou removível. O armazenamento 190 pode assumir várias formas, dependendo da implantação particular. Por exemplo, o armazenamento pode conter um ou mais componentes ou dispositivos, tais como um disco rígido, uma memória flash, um disco óptico regravável, uma fita magnética regravável ou alguma combinação dos itens acima. O armazenamento também pode ser fixo ou removível.
[0052] Um ou mais módulos de software 130 são codificados no armazenamento 190 e/ou na memória 120. Os módulos de software 130 podem compreender um ou mais programas de software ou aplicativos que têm um código de programa de computador ou um conjunto de instruções (também denominado como o “aplicativo cliente de autenticação móvel”) executadas no processador 110. Conforme ilustrado na Figura 2B, de preferência, um módulo de interface de usuário 170, um módulo de captura biométrica 172, um módulo de análise 174, um módulo de registro 176, um módulo de banco de dados 178, um módulo de autenticação 180 e um módulo de comunicação 182 que são executados pelo processador 110 estão incluídos entre os módulos de software 130. Tal código de programa de computador ou instruções configuram o processador 110 para realizar operações dos sistemas e métodos revelados no presente documento e podem ser escritos em qualquer combinação de uma ou mais linguagens de programação.
[0053] O código de programa pode ser executado inteiramente no dispositivo móvel 101, como um pacote de software independente, parcialmente no dispositivo móvel, parcialmente no servidor de sistema 105 ou inteiramente no servidor de sistema ou outro computador/dispositivo remoto. No último caso, o computador remoto pode ser conectado ao dispositivo móvel 101 através de qualquer tipo de rede, incluindo uma rede de área local (LAN) ou uma rede de área ampla (WAN), rede de comunicações móvel, rede celular ou a conexão pode ser feita a um computador externo (por exemplo, através da Internet com o uso de um Provedor de Serviço de Internet).
[0054] Também se pode dizer que o código de programa de módulos de software 130 e um ou mais dispositivos de armazenamento legíveis por computador (tais como memória 120 e/ou armazenamento 190) formam um produto de programa de computador que pode ser fabricado e/ou distribuído de acordo com a presente invenção, conforme é conhecido por aqueles com habilidade comum na técnica.
[0055] Deve-se compreender que em algumas modalidades ilustrativas, um ou mais dos módulos de software 130 podem ser transferidos por download através de uma rede para o armazenamento 190 de outro dispositivo ou sistema por meio de interface de comunicação 150 para o uso dentro do sistema 100. Além disso, deve-se observar que outras informações e/ou dados relevantes para a operação dos presentes sistemas e métodos (tais como banco de dados 185) também podem ser armazenadas no armazenamento. De preferência, tais informações são armazenadas em um repositório de dados encriptados que é especificamente alocado de modo a armazenar seguramente informações coletadas ou geradas pelo processador que executa o aplicativo de autenticação seguro. De preferência, medidas de encriptação são usadas para armazenar as informações localmente no dispositivo móvel armazenamento e transmitir as informações para o servidor de sistema 105. Por exemplo, tais dados podem ser encriptados com o uso de uma cifra polimórfica de 1.024 bits ou, dependendo dos controles de exportação, um método de encriptação de 256 bits AES. Além disso, a encriptação pode ser realizada com o uso de chave remota (sementes) ou chaves locais (sementes). Métodos de encriptação alternativos podem ser usados conforme será compreendido por aqueles versados na técnica, por exemplo, SHA256.
[0056] Além disso, os dados armazenados no dispositivo móvel 101a e/ou servidor de sistema 105 podem ser encriptados com o uso de informações biométricas do usuário, informações de vivacidade ou informações de dispositivo móvel como uma chave de encriptação. Em algumas implantações, uma combinação dos supracitados pode ser usada para criar uma chave exclusiva complexa para o usuário que pode ser encriptada no dispositivo móvel com o uso de Criptografia de Curva Elíptica, de preferência, de pelo menos 384 bits de comprimento. Além disso, a chave pode ser usada para proteger os dados de usuário armazenados no dispositivo móvel e/ou no servidor de sistema.
[0057] Além disso, armazenado, de preferência, no armazenamento 190 está o banco de dados 185. Conforme será descrito em maiores detalhes abaixo, o banco de dados contém e/ou mantém vários itens e elementos de dados que são utilizados ao longo das várias operações do sistema e método para autenticar um usuário 100. As informações armazenadas em banco de dados podem incluir, mas sem limitação, gabaritos biométricos de usuário e informações de perfil, conforme será descrito em maiores detalhes no presente documento. Deve-se observar que, embora o banco de dados seja representado como sendo configurado localmente ao dispositivo móvel 101a, em determinadas implantações, o banco de dados e/ou vários dos elementos de dados armazenados no mesmo podem, adicional ou alternativamente, ser localizados remotamente (tal como em um dispositivo remoto 102 ou servidor de sistema 105 - não mostrado) e conectados ao dispositivo móvel através de uma rede, de uma maneira conhecida por aqueles versados na técnica.
[0058] Uma interface de usuário 115 também é conectada de modo operacional ao processador. A interface pode ser um ou mais dispositivos de entrada ou saída, tais como comutador (ou comutadores), botão (ou botões), chave (ou chaves), uma tela sensível ao toque, um microfone, etc. conforme será compreendido na técnica de dispositivos de computação eletrônicos. A interface de usuário serve para facilitar a captura de comandos provenientes do usuário, tais como comandos de ligar-desligar, ou informações e definições de usuário relacionadas à operação do sistema para autenticar um usuário 100. Por exemplo, a interface serve para facilitar a captura de determinadas informações provenientes do dispositivo móvel 101, tais como informações pessoais de usuário para registrar com o sistema de modo a criar um perfil de usuário.
[0059] O dispositivo de computação 101a também pode incluir um visor 140 que também é conectado de modo operacional ao processador 110. O visor inclui uma tela ou qualquer outro tal dispositivo de apresentação que possibilite que o sistema instrua ou, de outra forma, forneça retroalimentação ao usuário sobre a operação do sistema para autenticar um usuário 100. A título de exemplo, o visor pode ser um visor digital, tal como um visor de matriz de pontos ou outro visor bidimensional.
[0060] A título de exemplo adicional, a interface e o visor podem ser integrados a um visor de tela sensível ao toque. Consequentemente, o visor também é usado para mostrar uma interface de usuário gráfica, que pode exibir vários dados e fornecer “formas” que incluem campos que permitem a entrada de informações pelo usuário. Tocar a tela sensível ao toque nas localizações que correspondem a uma exibição de uma interface de usuário gráfica permite que a pessoa interaja com o dispositivo para inserir dados, alterar definições, controlar funções, etc. Assim, quando a tela sensível ao toque é tocada, a interface de usuário comunica essa alteração ao processador, e as definições podem ser alteradas ou as informações inseridas pelo usuário podem ser capturadas e armazenadas na memória.
[0061] O dispositivo móvel 101a também inclui uma câmera 145 com capacidade para capturar imagens digitais. A câmera pode ser um ou mais dispositivos de imageamento configurados para capturar imagens de pelo menos uma porção do corpo do usuário, incluindo os olhos e/ou a face do usuário enquanto utiliza o dispositivo móvel 101a. A câmera serve para facilitar a captura de imagens do usuário para o propósito de análise de imagem pelo processador de dispositivo móvel 110 que executa o aplicativo cliente de autenticação segura que inclui a identificação de características biométricas para autenticar (biometricamente) o usuário a partir das imagens e determinar a vivacidade do usuário. O dispositivo móvel 101a e/ou a câmera 145 também podem incluir um ou mais emissores de luz ou sinal (por exemplo, LEDs, não mostrados) por exemplo, um emissor de luz visível e/ou emissor de luz infravermelha, e semelhantes. A câmera pode ser integrada ao dispositivo móvel, tal como uma câmera voltada para frente ou uma câmera voltada para trás que incorpora um sensor, por exemplo, e sem limitação, um sensor de CCD CMOS. Conforme será compreendido por aqueles versados na técnica, a câmera 145 também pode incluir hardware adicional, tal como lentes, medidores de luz (por exemplo, luxímetros) e outros recursos de hardware e software adicionais que são úteis para ajustar definições de captura de imagem, tais como zoom, foco, abertura, exposição, velocidade do obturador e semelhantes. Alternativamente, a câmera pode ser externa ao dispositivo móvel 101a. As variações possíveis da câmera e emissores de luz serão compreendidas por aqueles versados na técnica. Além disso, o dispositivo móvel também pode incluir um ou mais microfones 104 para capturar gravações de áudio, conforme será compreendido por aqueles versados na técnica.
[0062] A saída de áudio 155 também é conectada de modo operacional ao processador 110. A saída de áudio pode ser qualquer tipo de sistema de alto-falante que seja configurado para reproduzir arquivos de áudio eletrônicos, conforme será compreendido por aqueles versados na técnica. A saída de áudio pode ser integrada ao dispositivo móvel 101 ou externa ao dispositivo móvel 101.
[0063] Vários dispositivos/sensores de hardware 160 também são conectados de modo operacional ao processador. Os sensores 160 podem incluir: um relógio integrado para rastrear a hora do dia, etc.; um dispositivo habilitado por GPS para determinar uma localização do dispositivo móvel; um acelerômetro para rastrear a orientação e a aceleração do dispositivo móvel; um Magnetômetro de gravidade para detectar o campo magnético da Terra para determinar a orientação tridimensional do dispositivo móvel; sensores de proximidade para detectar uma distância entre o dispositivo móvel e outros objetos; sensores de radiação de RF para detectar os níveis de radiação de RF; e outros tais dispositivos, conforme será compreendido por aqueles versados na técnica.
[0064] A interface de comunicação 150 também é conectada de modo operacional ao processador 110 e pode ser qualquer interface que possibilite a comunicação entre o dispositivo móvel 101a e os dispositivos, máquinas e/ou elementos externos, incluindo o servidor de sistema 105. De preferência, a interface de comunicação inclui, mas sem limitação, um modem, um Cartão de Interface de Rede (NIC), uma interface de rede integrada, um transmissor/receptor de radiofrequência (por exemplo, Bluetooth, celular, NFC), um transmissor/receptor de comunicação por satélite, uma porta infravermelha, uma conexão USB e/ou quaisquer outras tais interfaces para conectar o dispositivo móvel a outros dispositivos de computação e/ou redes de comunicação, tais como redes privadas e a Internet. Tais conexões podem incluir uma conexão com fio ou uma conexão sem fio (por exemplo, com o uso do padrão 802.11), embora deva ser compreendido que a interface de comunicação pode ser praticamente qualquer interface que possibilite a comunicação para/a partir do dispositivo móvel.
[0065] Em vários pontos durante a operação do sistema para autenticar um usuário 100, o dispositivo móvel 101a pode se comunicar com um ou mais dispositivos de computação, tais como servidor de sistema 105, dispositivo de computação de usuário 101b e/ou dispositivo de computação remoto 102. Tais dispositivos de computação transmitem e/ou recebem dados para/a partir de dispositivo móvel 101a, iniciando, de preferência, assim, manutenção e/ou melhora da operação do sistema 100, conforme será descrito em maiores detalhes abaixo.
[0066] A Figura 2C é um diagrama de blocos que ilustra uma configuração exemplificativa de servidor de sistema 105. O servidor de sistema 105 pode incluir um processador 210 que é conectado de modo operacional a vários componentes de hardware e software que servem para possibilitar a operação do sistema para autenticação de um usuário 100. O processador 210 serve para executar instruções para realizar várias operações relacionadas à autenticação de usuário e ao processamento de transação conforme será descrito em maiores detalhes abaixo. O processador 210 pode ser vários processadores, um núcleo de multiprocessador ou algum outro tipo de processador, dependendo da implantação particular.
[0067] Em determinadas implantações, uma memória 220 e/ou uma mídia de armazenamento 290 são acessíveis pelo processador 210, possibilitando, assim, que o processador 210 receba e execute instruções armazenadas na memória 220 e/ou no armazenamento 290. A memória 220 pode ser, por exemplo, uma memória de acesso aleatório (RAM) ou qualquer outra mídia de armazenamento legível por computador volátil ou não volátil adequada. Além disso, a memória 220 pode ser fixa ou removível. O armazenamento 290 pode assumir várias formas, dependendo da implantação particular. Por exemplo, o armazenamento 290 pode conter um ou mais componentes ou dispositivos, tais como um disco rígido, uma memória flash, um disco óptico regravável, uma fita magnética regravável ou alguma combinação dos itens acima. O armazenamento 290 também pode ser fixo ou removível.
[0068] Um ou mais dentre os módulos de software 130 são codificados no armazenamento 290 e/ou na memória 220. Uma ou mais dentre os módulos de software 130 podem compreender um ou mais programas de software ou aplicativos (coletivamente denominados como “aplicativo de servidor de autenticação segura”) que têm o código de programa de computador ou um conjunto de instruções executadas no processador 210. Tal código de programa de computador ou instruções para realizar operações para os aspectos dos sistemas e métodos revelados no presente documento podem ser escritos em qualquer combinação de uma ou mais linguagens de programação, conforme será compreendido por aqueles versados na técnica. O código de programa pode ser executado inteiramente no servidor de sistema 105 como um pacote de software independente, parcialmente no servidor de sistema 105 e parcialmente em um dispositivo de computação remoto, tal como um dispositivo de computação remoto 102, um dispositivo móvel 101a e/ou um dispositivo de computação de usuário 101b, ou inteiramente em tais dispositivos de computação remotos. Conforme ilustrado na Figura 2B, de preferência, um módulo de análise 274, um módulo de registro 276, um módulo de autenticação 280, um módulo de banco de dados 278 e um módulo de comunicação 282, que são executados pelo processador do servidor de sistema 210 estão incluídos entre os módulos de software 130.
[0069] Além disso, de preferência, armazenado no armazenamento 290 está um banco de dados 280. Conforme será descrito em maiores detalhes abaixo, o banco de dados 280 contém e/ou mantém vários itens e elementos de dados que são utilizados ao longo das várias operações do sistema 100, incluindo, mas sem limitação, perfis de usuário, conforme será descrito em maiores detalhes no presente documento. Deve-se observar que, embora o banco de dados 280 seja representado como sendo configurado localmente ao dispositivo de computação 205, em determinadas implantações, o banco de dados 280 e/ou vários dos elementos de dados armazenados no mesmo podem ser armazenados em uma memória legível por computador ou mídia de armazenamento que é localizada remotamente e conectada ao servidor de sistema 105 através de uma rede (não mostrada), de uma maneira conhecida por aqueles de habilidade comum na técnica.
[0070] Uma interface de comunicação 255 também é conectada de modo operacional ao processador 210. A interface de comunicação 255 pode ser qualquer interface que possibilite a comunicação entre o servidor de sistema 105 e dispositivos, máquinas e/ou elementos externos. Em determinadas implantações, a interface de comunicação 255 inclui, mas sem limitação, um modem, um Cartão de Interface de Rede (NIC), uma interface de rede integrada, um transmissor/receptor de radiofrequência (por exemplo, Bluetooth, celular, NFC), um transmissor/receptor de comunicação por satélite, uma porta infravermelha, uma conexão USB, e/ou quaisquer outras tais interfaces para conectar o dispositivo de computação 205 a outros dispositivos de computação e/ou redes de comunicação, tais como redes privadas e a Internet. Tais conexões podem incluir uma conexão com fio ou uma conexão sem fio (por exemplo, com o uso do padrão 802.11) embora deva ser compreendido que a interface de comunicação 255 pode ser praticamente qualquer interface que possibilite a comunicação para/a partir do processador 210.
[0071] A operação do sistema para autenticar um usuário 100 e os vários elementos e componentes descritos acima serão entendidos ainda mais em referência ao método para facilitar a captura de informações biométricas e autenticação conforme descrito abaixo. Os processos representados no presente documento são mostrados a partir da perspectiva do dispositivo móvel 101a e/ou do servidor de sistema 105, entretanto, deve ser compreendido que os processos podem ser realizados, totalmente ou em parte, pelo dispositivo móvel 101a, pelo servidor de sistema 105 e/ou outros dispositivos de computação (por exemplo, dispositivo de computação remoto 102 e/ou dispositivo de computação de usuário 101b) ou qualquer combinação dos supracitados. Deve-se entender que mais ou menos operações podem ser realizadas do que mostradas nas Figuras e descritas no presente documento. Essas operações também podem ser realizadas em uma ordem diferente daquelas descritas no presente documento. Também deve ser compreendido que uma ou mais das etapas podem ser realizadas pelo dispositivo móvel 101a e/ou em outros dispositivos de computação (por exemplo, dispositivo de computação 101b, servidor de sistema 105 e dispositivo de computação remoto 102).
[0072] De volta agora à Figura 3, um fluxograma ilustra uma rotina 300 para detectar os recursos biométricos do usuário a partir de uma ou mais imagens de acordo com pelo menos uma modalidade revelada no presente documento. Em geral, a rotina inclui capturar e analisar uma ou mais imagens de pelo menos múltiplas digitais de um usuário. De preferência, quatro digitais são capturadas, entretanto, mais ou menos digitais podem ser capturadas e analisadas conforme descrito no presente documento. Conforme observado acima, o processo de captura pode ser realizado durante o registro de um usuário, assim como durante sessões de autenticação subsequentes, que também são descritas em relação à Figura 3.
[0073] Deve-se compreender que, de acordo com as modalidades reveladas, as imagens podem ser capturadas e o identificador biométrico que é indicativo dos recursos biométricos exclusivas e/ou vivacidade do usuário pode ser gerado com o uso de dispositivos móveis (por exemplo, dispositivo móvel 101a) que são amplamente disponíveis e têm câmeras digitais 145 com capacidade para capturar imagens dos dedos do usuário em pelo menos as bandas espectrais visíveis.
[0074] O processo começa na etapa 305, em que o processador de dispositivo móvel 110 configurado executando-se um ou mais módulos de software 130, incluindo, de preferência, o módulo de captura 172, faz com que a câmera 145 capture uma ou mais imagens de pelo menos uma porção do usuário (124) que captura todos os quatro (4) dedos de uma mão. De preferência, a câmera captura um acervo de imagens de alta resolução, por exemplo, com o uso de uma câmera voltada para trás de um dispositivo de telefone inteligente convencional. Caso disponível, o acervo de imagens pode ser capturado com iluminação de flash para aumento de detalhes.
[0075] Em algumas implantações, durante o processo de captura, o usuário é solicitado a posicionar seus dedos à frente da câmera. Durante esse procedimento, pode ser fornecido ao usuário uma retroalimentação visual da câmera no visor de dispositivo de modo que os usuários possam posicionar seus dedos apropriadamente. Em algumas implantações, marcações exibidas no visor podem ser usadas para orientar os usuários a colocar seus dedos em uma localização específica no campo de visão da câmera e a uma distância particular. Por exemplo, os usuários podem ser convidados a alinhar seus dedos com um contorno de quatro (4) dedos sobrepostos na tela de visualização de imagem de câmera, consequentemente, os usuários saberiam que seus dedos estão a uma distância apropriada da câmera quando os mesmos preencherem o contorno dos dedos na visualização de câmera. Em algumas implantações, os usuários podem manter seus dedos indicador, médio, anelar e mínimo unidos em vez de mantê-los separados. Então, em algumas implantações, os usuários podem ser convidados a capturar o polegar de cada uma das mãos separadamente. Em algumas implantações, o usuário será um recém-nascido que será auxiliado por um adulto para capturar imagens das digitais. O foco da câmera pode ser ajustado pelo processador configurado para focalizar nos dedos, que pode ser assumido como sendo a localização do guia de posição de dedo na tela. Em algumas implantações, um classificador será treinado para detectar os dedos nas imagens e esse classificador pode disparar a câmera para capturar a imagem uma vez que os dedos sejam detectados e estejam em foco. O classificador que pode ser usado para detectar os dedos nas imagens, em alguma implantação, pode ser o classificador de cascata Haar que foi treinado com o uso de recursos de Haar regulares e filtros pré-definidos e pré- projetados que são adequados para detectar dedos em imagens de mão (assim como imagens de pés, por exemplo, no caso de sistemas de identificação de recém-nascidos). Em algumas implantações, procedimentos de melhoramento de imagens podem ser aplicados à imagem antes do uso de um classificador para detectar digitais nas imagens capturadas. Em alguma implantação, os procedimentos de melhoramento de imagens que podem ser aplicados antes de aplicar o classificador de dedo podem ser projetados para serem filtros passa- banda que passam frequências de ressaltos de impressão digital, mas minimizam as frequências em segundo plano fora de foco.
[0076] Então, a imagem capturada pode ser examinada e a qualidade da amostra biométrica capturada será determinada analisando-se os ressaltos do dedo. Essa medição de qualidade pode ser uma medição fundida das propriedades de ressaltos a seguir: frequência, orientação, nitidez e conectividade. Caso a medição de qualidade esteja abaixo de um limiar predefinido, o usuário pode ser aconselhado e orientado a repetir o processo de captura novamente.
[0077] Após a captura das digitais, então, na etapa 310, as regiões de cada dedo serão identificadas. Então, na etapa 315, as regiões são melhoradas e, depois, na etapa 320, o espaço de recurso discriminante de cada dedo pode ser extraído independentemente e armazenado separadamente. Mais especificamente, na etapa 310, o processador configurado 110 pode executar um algoritmo de detecção de dedo automática para detectar as digitais no acervo de imagens. Por exemplo, um algoritmo de detecção de dedo exemplificativo pode incluir a aplicação de algoritmos de segmentação para distinguir as digitais do segundo plano. Isso pode ser realizado, por exemplo, dividindo-se a imagem em regiões homogêneas e, então, examinando-se cada região e classificando-as como região de dedo ou não de dedo. Além disso, isso pode ser realizado, por exemplo, com o uso de um classificador que detecta e classifica o dedo e as pontas do dedo. Em alguma implantação, os classificadores que podem ser usados para detectar digitais diferentes, classificar as mesmas e detectar pontas de dedo, podem ser classificadores de Cascata Haar treinados, classificadores de Cascata HOG, classificadores LBP de Cascata ou uma combinação desses classificadores. O treinamento dos classificadores pode ser realizado em imagens exemplificativas conhecidas conforme conhecido na técnica. Observa-se que um classificador treinado para encontrar a mão pode, primeiro, ser usado para estreitar a região de busca para os outros classificadores de verificação de dedo aprimorarem a velocidade e a precisão. Observa-se também que tais classificadores podem ser usados em conjunto com outras técnicas de verificação de localização de ponta de dedo para fornecer precisão aprimorada. Em algumas implantações, as regiões que são identificadas com o uso do classificador (ou classificadores) podem ser realçadas por uma borda e exibidas para o usuário no visor de dispositivo móvel. Por exemplo, uma região identificada como um segmento de ponta de dedo pode ser delimitada por uma borda na imagem que realça a região identificada. A borda pode ter vários formados, incluindo bordas retangulares e elípticas, e segmentos diferentes podem ser realçados, incluindo as pontas de dedo, a mão, um grupo de digitais, outras regiões de digital e semelhantes. Os dados de registro de usuários podem ser usados para auxiliar a treinar o classificador uma vez que as posições de ponta de dedo tenham sido confirmadas pelo usuário. Por exemplo, em algumas implantações, o processo para capturar e detectar digitais e pontas de dedo podem ser resumidos nas etapas a seguir. (1) capturar uma imagem de mão, então, (2) invocar um classificador de cascata que é treinado para encontrar a primeira região de ponta de dedo, então, outro classificador que é treinado para encontrar a segunda região de ponta de dedo, e assim por diante.
[0078] A título de exemplo e sem limitação, o uso de um classificador (tal como um classificador LBP) pode ser implantado para encontrar as pontas de dedo na imagem, além disso, o mesmo também pode ser vantajoso para primeiro usar um classificador para encontrar uma região principal da mão, tal como a mão inteira ou os 4 dedos da mão, então, um método secundário para localizar uma região pequena (tal como as pontas de dedo ou falanges intermediárias) dentro da região principal. O método secundário pode ser outro classificador treinado para localizar cada uma das regiões secundárias. Os resultados do classificador pequeno podem, ainda, ser filtrados com o uso de um conhecimento das relações esperadas (por exemplo, relações prescritas entre cada região pequena (por exemplo, os quatro (4) dedos quando a mão é mantida plana com os dedos fechados têm uma relação posicional conhecida que pode ser usada para excluir falsas correspondências). Uma filtragem adicional pode ser aplicada encontrando-se as posições de outros recursos de mão proeminentes (tais como as juntas entre os dedos) e com o uso dessas informações para filtrar os resultados provenientes do classificador. Além disso, o classificador principal pode ser usado em tempo real para seguir os dedos à medida que o usuário os apresenta à câmera e garantir que o foco e a exposição sejam otimizados para a mão antes de disparar automaticamente a captura de imagem e/ou correspondência biométrica.
[0079] Conforme previamente observado e adicionalmente descrito no presente documento, o processador pode ser configurado para detectar e rastrear os dedos em tempo real à medida que o usuário apresenta os dedos para a câmera e o acervo de imagens é capturado com o uso da câmera. A posição rastreada das imagens pode ser usada para detectar quando os dedos são suficientemente estáveis em termos de posição e aprimorar a qualidade da imagem de verificação e a confiabilidade de reconhecimento de dedo.
[0080] Em algumas implantações, o processador pode ser configurado para acelerar a detecção de dedo em tempo real comutando-se dinamicamente entre um método de detecção de objeto e um método de rastreamento mais rápido, tal como correspondência de gabarito ou fluxo óptico. Por exemplo, quando um conjunto de quatro pontas de dedo for detectado e ter sido determinado que o mesmo representa uma mão, o processador configurado pode rastrear as digitais com o uso de um algoritmo de fluxo óptico. Como resultado, as posições de dedo podem ser rastreadas com latência significativamente mais baixa e taxa de quadro mais alta do que se, por exemplo, um Classificador de Cascata também tivesse sido aplicado aos quadros subsequentes de imagem. A alta velocidade pode ser alcançada restringindo-se o espaço de busca na imagem que é pesquisada pelo processador para regiões de imagem locais e o processador pode ser configurado para corresponder somente pixels que representem recursos distintos, tais como o centro de um dedo.
[0081] Caso um dedo se desloque para muito longe ou deixe o campo de visão, o rastreamento de objeto pode falhar. Mediante a detecção de uma falha pelo processador, o processador pode retornar para o método de detecção de objeto inicial, digamos, um classificador de Cascata. No caso de rastreamento de quatro dedos, o processador pode medir as posições relativas das digitais (por exemplo, distância entre os centros das digitais) e se foi determinado que a distância alterou significativamente (por exemplo, acima de um valor de limiar prescrito), o sistema pode retornar para a detecção de objeto.
[0082] De preferência, o sistema de captura tem capacidade para detectar quando os dedos do usuário são mantidos estacionários (dentro de uma determinada tolerância) para impedir desfoque por movimento na imagem de verificação. Isso pode ser alcançado, por exemplo, rastreando-se um objeto entre os quadros (por exemplo, computar um vetor de percurso) e capturando-se a imagem de verificação de alta resolução quando a velocidade do objeto se encontra abaixo de uma velocidade limítrofe.
[0083] Pequenos erros na localização de uma posição de objetos podem se propagar no cálculo de um vetor de velocidade. Métodos, tais como Classificadores de Cascata, frequentemente introduzem flutuações artificiais em uma posição de objetos de quadro para quadro (o centro dos objetos “tremem”). Esse ruído posicional interfere na determinação de quando um objeto está estacionário. O rastreamento com o uso de fluxo óptico, entretanto, conforme descrito acima, tem ruído mais baixo e fornece atualizações mais rápidas de uma posição de objeto, e pode tonar a detecção de objeto estacionário significativamente mais confiável.
[0084] Além disso, em algumas implantações, as informações de comprimento de dedo podem ser armazenadas e usadas como parte do algoritmo de identificação de ponta de dedo, alguma ponderação pode ser colocada no fato de que as impressões digitais são esperadas em localizações relativas particulares na imagem, e isso pode aprimorar a confiabilidade do algoritmo de verificação de impressão digital e, por exemplo, auxiliar a rejeitar correspondências de impressão que são feitas por engano. O mesmo é verdade para informações sobre a altura e largura de cada um dos dedos. Além disso, a cor da pele do usuário pode ser armazenada em registro e usada como uma identificação biométrica adicional e/ou medidas de verificação de vivacidade. Isso tem a vantagem de que impressões falsas que possuem a impressão correta, mas não o tom de pele correto, podem ser rejeitadas como falsificações (por exemplo, moldes de silicone rosa, ou impressões a laser em preto e branco provenientes de impressões digitais latentes recuperadas).
[0085] A Figura 4 representa uma rotina exemplificativa 400 para detecção de ponta de dedo a partir de um acervo de imagens capturado de digitais e do acervo de imagens correspondente. Conforme mostrado, na etapa 405, o acervo de imagens capturado que inclui uma pluralidade de dedos é obtido. A imagem de alta resolução exemplificativa é mostrada como a imagem 405a. Na etapa 410, o acervo de imagens é reduzido/convertido para acervo de imagens em escala de cinzentos e uma cascata principal é aplicada para detectar a mão dentro da imagem. A imagem em escala de cinzentos exemplificativa e uma pluralidade de bordas representa em torno das regiões de mão detectadas são representadas na imagem 410a. Na etapa 415, a maior região de mão detectada é selecionada e a região é ampliada para incluir a área circundante (por exemplo, uma região expandida) além da detecção de ponta de dedo. A imagem em escala de cinzentos exemplificativa e a borda representadas em torno da região de dedo selecionada e expandida são representas na imagem 415a. Então, na etapa 420, um ou mais classificadores de cascata de sensibilidade mais alta são aplicados para detectar regiões secundárias, isto é, regiões de ponta de dedo para cada um dos dedos.A imagem em escala de cinzentos exemplificativa e as bordas retratadas em torno de uma pluralidade de regiões de ponta de dedo detectadas são representadas na imagem 420a. Conforme mostrado, as regiões de ponta de dedo detectadas podem exceder o número de pontas de dedo reais na imagem. Então, na etapa 425, as regiões de ponta de dedo são filtradas. A filtragem é descrita adicionalmente no presente documento em relação à Figura 4B. A imagem em escala de cinzentos exemplificativa e as bordas representadas em torno das regiões de ponta de dedo detectadas e filtradas são representadas na imagem 425a. Então, na etapa 430, as regiões de ponta de dedo de interesse (ROI) são ajustadas (por exemplo, redimensionadas ou estendidas para baixo) para corrigir a razão de aspecto. A imagem em escala de cinzentos exemplificativa e as bordas representadas em torno das ROIs detectadas e redimensionadas são representadas na imagem 430a.
[0086] A detecção de dedo é, de preferência, robusta para iluminação interna e externa, em que as imagens tomadas com iluminação podem ser substancialmente diferentes. Por exemplo, em ambientes de pouca luz o segundo plano frequentemente se subexpõe e se torna escuro, enquanto em luz solar forte e difusa, o brilho de segundo plano pode exceder o das digitais e o sombreamento pode ser significativamente diferente. Consequentemente, em algumas implantações, o método de detecção de dedo pode ser aprimorado determinando-se, através do processador de dispositivo móvel, a quantidade de luz ambiente e, com base no nível de luz detectado, comutar para um trajeto mais ideal para um nível de luz particular em tempo real. Os níveis de luz, por exemplo, podem ser lidos a partir de um luxímetro com base em hardware, tal como aquele encontrado em telefones móveis para ajustar o brilho de tela ou estimado a partir de definições de exposição de câmera.
[0087] Em uma tal implantação, um ou mais classificadores que são específicos para os respectivos níveis de luz podem ser armazenados e disponíveis para o processador realizar a segmentação de dedo. Por exemplo, um primeiro classificador de cascata, que é usado para detectar uma ou mais regiões das digitais, pode ser treinado em imagens tomadas em uma alta luz ambiente, enquanto um segundo classificador de cascata é treinado em imagens tomadas em baixa luz ambiente. Com base no nível de luz medido, o processador de dispositivo móvel configurado pode aplicar o classificador apropriado. Mais especificamente, o primeiro classificador pode ser usado pelo processador para a detecção como um padrão, a menos que os níveis de luz excedam um limiar, caso no qual o segundo classificador pode ser usado. A comutação entre os classificadores pode ocorrer em tempo real, por exemplo, caso uma sequência de quadros de imagem que têm níveis de iluminação ambiente diferentes esteja sendo capturadas e analisada. Também pode ser entendido que o método supracitado para aplicar classificados específicos de luz ambiente pode ser aplicado a imagens que são inicialmente capturadas durante o processo (por exemplo, imagens de baixa resolução capturadas enquanto o usuário posiciona seus dedos na localização apropriada à frente da câmera) ou capturas de imagem de alta resolução subsequentes (por exemplo, imagens de alta resolução capturadas após os dedos serem detectados nas capturas de imagem inicial e determinados como estando em foco).
[0088] Além disso, em algumas implantações, com base no nível de luz medido, o processador de dispositivo móvel configurado pode implantar seletivamente etapas de pré-processamento de imagem de flash artificial conforme descrito abaixo. Por exemplo, quando os níveis de luz forem suficientemente altos, o processo de flash artificial pode ser aplicado de modo a evitar a utilização da lâmpada de flash para iluminar a pessoa.
[0089] Nenhuma abordagem única para a detecção de dedo é garantida como sendo 100% bem-sucedida, entretanto, o processador pode ser configurado para calcular uma métrica para a qualidade de detecção e, com base na métrica, aplicar uma série de métodos de detecção até que um resultado de qualidade alta o suficiente seja alcançado. Por exemplo, no caso de detectar todos as quatro digitais, o processador configurado pode computar uma pontuação para determinar que é mais provável que o conjunto de quatro detecções represente uma mão, conforme descrito adicionalmente no presente documento. Caso essa pontuação seja pobre (por exemplo, não atenda um limiar prescrito), ou estejam faltando digitais, o processador configurado pode aplicar técnicas de detecção adicionais. As técnicas de detecção adicionais podem ser na forma de um classificador treinado de forma diferente ou alguma outra abordagem não relacionada. Além disso, em algumas implantações, o processador configurado pode estimar localizações das digitais ausentes de acordo com as métricas de mão do usuário conhecidas, por exemplo, conforme determinado a partir das capturas de registro ou autenticação anteriores. Pode ser entendido que a ordem particular na qual essas abordagens são aplicadas não precisa ser invariável, e as técnicas de detecção particulares que são implantadas e a ordem de aplicação podem ser aplicadas seletivamente pelo processador como uma função de condições ambientais medidas, capacidades de hardware do dispositivo móvel particular ou adaptadas ao longo do tempo a um usuário específico (por exemplo, com base nos algoritmos de aprendizado de máquina e/ou treinamento). Em vista do supracitado, pode ser entendido que, para aprimorar a velocidade de detecção, o processador pode ser configurado para aplicar uma abordagem de segmentação escalonada na qual algoritmos de segmentação mais rápidos (e potencialmente menos precisos) são aplicados primeiro e, no caso de a qualidade dos resultados não ser suficiente, transição para algoritmos de segmentação mais robustos (e, algumas vezes, mais intensivos em processamento) para detectar de forma mais precisa os segmentos de ponta de dedo.
[0090] Conforme observado acima e adicionalmente descrito no presente documento, os algoritmos de reconhecimento com base em dedo exemplificativos implantados pelo processador de dispositivo móvel podem incluir uma ou mais etapas de melhoramento de imagem para aprimorar a detecção de dedo e a extração de características. Visto que os métodos de detecção, tais como Classificadores de Cascata, frequentemente funcionam em imagens em escala de cinzentos, portanto, as informações de cor são perdidas, por exemplo, caso somente o luma seja usado como uma entrada. Consequentemente, os métodos para detectar objetos com características de cor conhecidas, tais como a mão humana, podem ser aprimorados de modo benéfico melhorando-se as regiões que representam a cor esperada antes da conversão para a escala de cinzentos.
[0091] Em uma implantação exemplificativa, um método de pré-processamento de imagem aplicável para a detecção de dedo implantada pelo processador inclui Modelos de Pele Adaptativos. Mais especificamente, o processador pode ser configurado para analisar uma ou mais dentre as imagens capturadas e localizar uma região de tom de pele conhecido, por exemplo, detectando-se uma mão dentro de uma imagem e, então, um modelo de cor é computado. A imagem é, então, convertida em espaço de cor HSV e uma função de densidade de probabilidade (PDF) é ajustada tanto para a distribuição de matiz quanto para valores de saturação de pixels dentro da região de pele pré-determinada. Os pixels restantes na imagem estão localizados dentro da PDF e é extraída uma probabilidade (valor p) que representa a chance de um pixel representar a pele. De preferência, o processo é iterativo na medida que todos os pixels que excedem um valor p limítrofe são usados para aperfeiçoar o modelo anterior, e o modelo atualizado é, então, aplicado, com o uso do processador, a todos os pixels. Em algumas implantações, assumindo-se que as regiões de pele são contínuas, os pixels com valores p baixos, mas que são circundados por pixels com valores p altos, também podem ser incluídos no modelo. O processo pode ser interrompido após um número fixo de iterações ou quando o número de pixels de pele já não aumenta significativamente (isto é, já não aumenta uma quantidade prescrita, convergência). Os valores p convergidos podem, então, ser usados diretamente (convertidos para uma imagem em escala de cinzentos) como entrada para algoritmos de detecção adicionais ou, adicional ou alternativamente, podem ser usados para clarear as regiões de pele na imagem em relação ao segundo plano, regiões não de pele (por exemplo, atuar como um “flash artificial”).
[0092] No caso de as digitais serem apresentadas para a câmera de dispositivo móvel em uma localização relativamente predeterminada (por exemplo, como orientada com o uso de uma guia na tela), o processador pode ser configurado para assumir que é altamente provável que uma região particular represente a pele (por exemplo, uma região centralizada da mão na guia). Consequentemente, essa região assumida pode atuar como a região inicial para construir um modelo de pele. Adicional ou alternativamente, o tom de pele pode ser gravado quando um usuário se registra no sistema (por exemplo, concluído sem o uso de um modelo de pele).
[0093] A Figura 4B representa uma rotina exemplificativa 450 para filtrar as regiões/segmentos de ponta de dedo detectadas (isto é, etapa 425 da Figura 4A). A filtragem geralmente se refere à seleção de um melhor conjunto de segmentos de ponta de dedo (isto é, selecionar um segmento de ponta de dedo para cada um dos dedos que seja mais provável que corresponda ao segmento de ponta de dedo real).
[0094] O processo começa na etapa 455 na qual as detecções de ponta de dedo são ordenadas na direção horizontal (“X”) (por exemplo, dispostas em uma direção que é perpendicular à orientação dos dedos de acordo com a ordem dos dedos). Então, na etapa 460, combinações de quatro regiões de ponta de dedo são geradas com o uso da pluralidade de regiões de ponta de dedo detectadas. A imagem em escala de cinzentos exemplificativa e as bordas representadas em torno de uma combinação de quatro regiões de ponta de dedo detectadas são representadas na imagem 460a.
[0095] Então, nas etapas 465 a 480, cada um dos conjuntos combinados de quatro regiões de ponta de dedo é pontuado. A pontuação inclui a análise das regiões de ponta de dedo para determinar características físicas de regiões de ponta de dedo individuais e/ou múltiplas regiões de ponta de dedo e a comparação das características medidas com as características esperadas. Conforme descrito adicionalmente no presente documento, a pontuação pode ser com base em uma análise comparativa das características físicas de um ou mais segmentos de ponta de dedo em relação a outros segmentos de ponta de dedo e, adicional ou alternativamente, em relação às características físicas da pluralidade de dedos, tais como a largura total da região de mão previamente detectada (por exemplo, “largura de mão” conforme detectado na etapa 415).
[0096] Mais especificamente, em algumas implantações, a largura combinada das detecções em um conjunto pode ser comparada com a largura de mão e pontuada com base na comparação. Adicional ou alternativamente, a distribuição de larguras das detecções (por exemplo, a distância do centro até o centro entre segmentos de dedo adjacentes) também pode ser pontuada em relação a uma distribuição de largura esperada de segmentos de dedo em vista da largura de mão. A distribuição de largura esperada pode ser determinada como uma média de um conjunto de treinamento de digitais identificadas anteriormente. Os conjuntos de treinamento e o conjunto podem ser normalizados de acordo com a largura de mão para uma comparação precisa. Por exemplo, a imagem 470a, uma imagem em escala de cinzentos exemplificativa de quatro digitais, as bordas representadas em torno de uma combinação de quatro regiões/segmentos de ponta de dedo detectadas e a distância do meio até o meio medida entre os segmentos adjacentes d1, d2 e d3.
[0097] Em algumas implantações, cada comparação particular pode ser atribuída a uma ponderação, de modo que a pontuação calculada seja uma função das ponderações. Por exemplo, medições menos conclusivas/importantes (por exemplo, medições com exatidão ou precisão mais baixa ou que têm menos confiabilidade) podem ser descontadas por serem atribuídas a uma ponderação inferior de modo a não distorcer os resultados totais da pontuação. A título de exemplo e sem limitação, visto que o comprimento relativo do dedo mínimo tem variância mais alta entre indivíduos, a influência da distância medida em Y determinada em relação ao dedo mínimo pode ser consequentemente “ponderada do modo descendente”. A tabela 470b na Figura 4B representa larguras exemplificativas, ponderações e larguras esperadas usadas para pontuar as características de distância relativa. Conforme mostrado na tabela 470b, uma distância relativa esperada exemplificativa entre digitais adjacentes é % da largura total dos quatro dedos e cada uma é atribuída uma ponderação de 1.
[0098] Na etapa 475, as larguras dos segmentos de ponta de dedo também podem ser pontuadas em relação a outros segmentos de ponta de dedo. A comparação de larguras de digitais pode se basear em larguras relativas esperadas de digitais particulares. Por exemplo, espera-se que os dedos indicadores sejam maiores em relação aos dedos finais, consequentemente, a largura relativa das regiões/segmentos de ponta de dedo pode ser pontuada de acordo com tais comparações de segmento de dedo individuais. A imagem em escala de cinzentos exemplificativa das digitais e as quatro regiões de ponta de dedo detectadas possíveis que correspondem aos dois dedos intermediários (dedo indicador e médio) são representadas na imagem 475a.
[0099] De modo similar, na etapa 480, a posição relativa das regiões de ponta de dedo na direção Y pode ser pontuada de acordo com o comprimento esperado dos respectivos segmentos de ponta de dedo. Por exemplo, espera-se que os dois dedos intermediários sejam geralmente mais altos na direção Y em relação aos dedos finais e os segmentos de ponta de dedo podem ser pontuados de acordo com tais características de posição relativa esperadas. Consequentemente, a distribuição de altura dos segmentos de ponta de dedo na direção Y (isto é, a direção que é paralela à orientação dos dedos) pode ser analisada. Mais especificamente, a análise da distribuição em Y inclui a análise do “padrão de comprimento” dos dedos conforme representado em 480a. Isto é, espera-se que o dedo indicador seja mais curto do que o dedo médio, o dedo médio mais longo do que o dedo anelar e o dedo anelar mais longo do que o dedo mínimo. Portanto, as regiões de interesse para a pessoa devem ter posições que seguem um padrão “cima, baixo, baixo” em Y, desde o dedo indicador até o dedo mínimo. O padrão esperado preciso pode ser determinado como uma média de um conjunto de treinamento de digitais identificadas anteriormente. Pode ser entendido que o conjunto de treinamento e o conjunto de segmentos de ponta de dedo podem ser normalizados de acordo com as respectivas dimensões de dedo e/ou mão para comparação precisa de comprimentos e/ou posições relativos em Y. Consequentemente, o processador pode ser configurado para computar a distância em Y entre os limites superiores das várias regiões/segmentos de interesse, fornecendo, assim, três distâncias: do indicador até o médio, do médio até o anelar, do anelar até o mínimo. O processador pode, então, usar a largura de mão para normalizar as distâncias, tornando-as comparáveis através de escalas diferentes de mão. Depois disso, as distâncias podem ser comparadas com o padrão esperado e a combinação de digitais pode ser pontuada como uma função da comparação. A imagem em escala de cinzentos exemplificativa das digitais e das quatro regiões de ponta de dedo detectadas possíveis que são comparadas na direção Y são representadas na imagem 480a. Também pode ser entendido que a altura relativa, a largura, a posição Y e a posição X de regiões de ponta de dedo também podem ser ponderadas de acordo com a importância e/ou confiabilidade.
[00100] Além das medições supracitadas, o processador configurado também pode pontuar as combinações de segmentos de ponta de dedo de acordo com características de iluminação dos segmentos de ponta de dedo representados. Mais especificamente, pode ser esperado que as digitais apareçam com iluminação aproximadamente igual na imagem. Consequentemente, o processador configurado pode, para cada combinação de segmentos de ponta de dedo, medir a iluminação através da combinação de segmentos de ponta de dedo e pontuar a variância em iluminação. Para velocidade e precisão, somente os valores de pixel no centro de cada segmento de ponta de dedo (por exemplo, dentro de um retângulo 10 por 16) podem ser somados e a variância das 4 somas determinada. Alta variância implica que um ou mais dentre os segmentos de ponta de dedo estão incorretamente posicionados e uma pontuação pior pode ser atribuída.
[00101] Então, na etapa 485, as pontuações cumulativas das combinações de regiões de ponta de dedo são ponderadas, somadas e a melhor combinação de segmentos é identificada de acordo com a pontuação calculada. A imagem em escala de cinzentos exemplificativa das digitais e as bordas representadas em torno da melhor combinação de pontuações de quatro regiões de ponta de dedo detectadas são representadas na imagem 485a.
[00102] Adicionalmente, em algumas implantações, o exame pode ser realizado analisando-se as frequências e orientações de extremidades dentro de cada região. Adicional ou alternativamente, o segmento da imagem que contém as digitais pode ser identificado como o segmento (ou segmentos) que preenchem principalmente a localização da guia de posicionamento de dedo na tela.
[00103] Em alguma implantação, no caso de uso, por exemplo, de somente quatro (4) dedos para a identificação, um procedimento robusto para registrar e verificar as quatro (4) impressões digitais pode ocorrer da seguinte forma: a). Orientar o usuário a posicionar seus quatro (4) dedos à frente da câmera e capturar uma imagem com flash. b). Opcionalmente, usar um algoritmo de processamento de imagem (conforme explicado anteriormente) para identificar a localização das quatro impressões (e outras regiões de interesse). c). Realçar essas regiões para o usuário através de, por exemplo, superimposição de elipses sobre as regiões de impressão e solicitar que o usuário aceite o reconhecimento de impressão digital como preciso ou ajuste as elipses de impressão digital mal localizadas arrastando-se as elipses para a posição correta. Dessa forma, impressões de registro preciso são asseguradas. d). Usar as impressões registradas exatas para procedimentos de verificação futuros. Isso pode incluir o processo de uso das impressões registradas para encontrar as impressões de verificação na imagem de verificação.
[00104] Além disso, em algumas implantações, no caso de captura de quatro (4) dedos, a imagem detectada dos quatro dedos pode, então, ser dividida em quatro dedos individuais definindo-se junções entre cada um dos dedos adjacentes, por exemplo, localizando-se pontos onde há perturbação nas orientações de ressaltos. Esses pontos são denominados como pontos singulares. Então, um algoritmo de agrupamento K-mean pode ser utilizado para agrupar os pontos determinados em quatro (4) agrupamentos que representam os quatro dedos. Em alguma implantação, K-mean pode usar uma função de distância especial para computar a matriz de distância que será usada no algoritmo de agrupamento. Essa função especial resultará em menos medições de distância para pontos que se localizam no mesmo dedo mesmo que estejam longe em relação à distância Euclidiana tradicional. Então, algoritmos de segmentação crescente de região podem ser utilizados para segmentar individualmente cada dedo.
[00105] Então, para cada dedo, pelo menos uma região da falange distal de cada dedo pode ser identificada dentro do acervo de imagens. De preferência, a região de dedo que está localizada entre a ponta do segmento de dedo e as linhas mais espessas entre as falanges intermediárias e distais é identificada, visto que contém as características mais discriminativas que são as minúcias.
[00106] Tanto os dedos quanto as mãos têm um espaço relativamente constrito de formatos possíveis, o que faz, consequentemente, em algumas implantações, com que os Modelos de Formato Ativos e Modelos de Aparência Ativos possam ser abordagens úteis para implantar reconhecimento de impressão digital sem contato. Por exemplo, para localizar e segmentar uma mão a partir de uma imagem alvo, um Modelos de Distribuição de Ponto é, primeiro, computado colocando-se os conjuntos de pontos ao longo de características de mãos, tais como limites de ponta de dedo, dentro de imagens exemplificativas. O modelo é, então, inicializado dentro da imagem alvo, o que forma uma estimativa inicial quanto à posição das mãos com o uso de uma guia para colocação de mão de usuário, ou outra técnica de processamento de imagem. Por exemplo, um Classificador de Cascata pode ser usado para fornecer uma estimativa inicial para a localização das mãos. O melhor ajuste para o modelo é, então, encontrado comparando-se iterativamente o mesmo com dados de imagem e atualizando-se as posições de ponto.
[00107] Os pontos no modelo ajustado são usados para extrair regiões de interesse para reconhecimento. Por exemplo, os pontos que descrevem limites são usados para extrair impressões digitais.
[00108] De modo similar, um Modelo de Formato Ativo que descreve o formato de um dedo pode ser usado para segmentar pontas de dedo individuais. Por exemplo, as regiões de imagem que contêm pontas de dedo são primeiro encontradas com o uso de um Classificador de Cascata e, então, segmentadas com o uso do modelo para remover tanto o segundo plano quanto os dedos vizinhos. Além disso, os Modelos de Formato Ativos podem ser adaptados para usuários individuais. Por exemplo, dado um ajuste de modelo correto, confirmado pelo usuário durante o registro no sistema, o modelo é ajustado para melhor descrever esse formato de mão e dedo de indivíduos. Isso aumenta a velocidade e a confiabilidade de reconhecimento, e desvios do modelo podem ser usados para identificar falsificações.
[00109] Para qualidade máxima de extração de impressão digital, pode ser solicitado que um usuário coloque sua mão e dedos em uma localização ideal em relação à posição tanto da fonte de luz de iluminação quanto da câmera, por exemplo, fornecendo uma guia ou contorno visual da colocação de dedo ideal no visor do dispositivo. Isso pode ser posicionar as impressões digitais próximas ao centro do campo de visão da câmera, com impressões que subtendem um ângulo máximo em relação à câmera de cerca de +/-20 graus. Por exemplo, os dedos podem ser colocados longe o suficiente da fonte de luz, a fim de minimizar o ângulo de incidência com raios de iluminação, o que impede a perda de detalhes em superfícies anguladas, enquanto está próximo o suficiente para iluminação suficientemente intensa. Concomitantemente, os dedos são orientados para refletir maximamente a iluminação em direção à câmera e posicionados próximos o suficiente da câmera para assegurar densidade de pixel suficiente para reconhecimento.
[00110] A qualidade de impressão capturada pode ser melhorada, ainda, adicionando-se fontes de iluminação ou fontes estendidas no sistema de câmera de telefone inteligente para espalhar a extensão espacial da fonte de iluminação. Por exemplo, adicionando-se 4 LEDs nos cantos do telefone inteligente ou do computador do tipo tablet, a luz será refletida de modo favorável por mais regiões da impressão digital, o que conduz a uma qualidade de captura de impressão mais alta.
[00111] Uma vez que as regiões relevantes dos dedos forem identificadas, na etapa 315, as regiões relevantes podem ser melhoradas. Mais especificamente, o processador de dispositivo móvel 110, que é configurado executando-se os módulos de software 130, incluindo, de preferência, o módulo de análise 172, pode processar as porções do acervo de imagens para melhorar os detalhes do acervo de imagens, por exemplo, com o uso de um conjunto de filtros Gabor, sintonizados aos mapas de orientação de ressalto suavizado. Em alguma implantação, o objetivo principal desse melhoramento de imagem é gerar imagens de impressão digital que são similares às imagens de impressão digital capturadas com o uso de sensor de varredura ao vivo e normalmente armazenadas em bancos de dados herdados como IAFIS. Essa similaridade significa que a imagem capturada com o uso de dispositivos móveis imita a mesma qualidade e atributos que as imagens capturadas a partir de sensores de varredura ao vivo. Essa similaridade é desejável para garantir a possibilidade de correlacionar as imagens capturadas por dispositivos móveis contra imagens de impressão digital armazenadas em bancos de dados herdados, tais como IAFIS.
[00112] Para aprimorar a extração de características discriminantes de pontas de dedo, pode ser vantajoso usar filtros de melhoramento para aumentar o contraste entre ressaltos e sulcos. Em algumas implantações, o processador de dispositivo móvel pode aplicar Equalização de Histograma para aumentar o contraste de imagem local distribuindo-se uniformemente as intensidades ao longo da faixa de valores possível (tipicamente [0,255] em imagens em escala de cinzentos). Isso pode ser alcançado computando-se um histograma cumulativo de intensidades de pixel, normalizando-se para o valor máximo na faixa permitida e remapeando-se pixels de fonte de acordo com sua localização na distribuição.
[00113] O melhoramento de contraste tem a desvantagem de ser indiscriminado e, assim, melhora o ruído de segundo plano assim como o sinal de interesse. Sendo assim, pode ser benéfico isolar somente aqueles sinais de interesse por filtragem antes do melhoramento de contraste. Por exemplo, o processador pode aplicar um Filtro Passa-Banda para remover sinais com frequência que não correspondam à frequência esperada de ressaltos de impressão digital. Tal implantação remove frequências altas subtraindo-se uma imagem-fonte filtrada por Gaussian Blur da imagem-fonte bruta. O resultado pode então, ser filtrado novamente para remover frequências baixas aplicando-se outro filtro de Gaussian Blur com raio apropriadamente menor. Uma Equalização de Histograma pode, então, ser aplicada ao resultado do passa-banda para obter uma imagem ideal para extração de características.
[00114] Na etapa 320, as minúcias de cada um dos dedos são extraídas e um identificador biométrico é gerado. Conforme será compreendido por aqueles versados na técnica, minúcia se refere aos pontos em que os ressaltos de uma impressão digital terminam, e a textura se refere ao padrão definido pelos ressaltos. Mais especificamente, o processador de dispositivo móvel 110, que é configurado executando-se os módulos de software 130, incluindo, de preferência, o módulo de análise 172, analisa o acervo de imagens melhorado para extrair características a partir de pelo menos a região distal de cada dedo com o uso de um algoritmo, tal como algoritmo de extração de minúcias.
[00115] A maioria dos sistemas automáticos para comparação de impressão digital se baseiam em correspondência de minúcias; portanto, a extração de minúcias confiável é uma tarefa importante. Muitos tais métodos exigem que a imagem em escala de cinzentos de impressão seja convertida em uma imagem de esqueleto. Então, uma varredura de imagem simples permite a detecção de pixels que correspondem às minúcias em que os ressaltos de impressão digital terminam e se bifurcam. As minúcias extraídas podem ser armazenadas como conjuntos de pontos no plano bidimensional.
[00116] Finalmente, um algoritmo de correspondência com base em minúcias pode ser executado pelo processador configurado para gerar a pontuação de similaridade entre as impressões digitais. Esses algoritmos de correspondência calculam a pontuação de similaridade entre as impressões digitais encontrando-se o alinhamento entre o gabarito e os conjuntos de minúcias de entrada que resultam no número máximo de pareamentos de minúcias.
[00117] As características extraídas da região distal podem ser armazenadas juntamente com outras características que são extraídas de modo similar das regiões identificadas remanescentes dos dedos e/ou da mão. Tais características podem ser caracterizadas em um ou mais identificadores biométricos que incluem um ou mais vetores de característica.
[00118] Durante o registro, na etapa 325, tais vetores de característica são armazenados na memória como um identificador biométrico (por exemplo, gabarito) para uso em garantiras etapas de verificação de usuário. Alternativamente, durante a verificação de usuário (etapa 330), o identificador biométrico é comparado com a versão armazenada durante o registro.
[00119] Mais especificamente, durante o processo de verificação, os dedos do usuário são capturados e o identificador biométrico é gerado conforme descrito em relação às etapas 305 a 320. Entretanto, na etapa 330, os vetores de característica de consulta são, então, comparados com o registro e os vetores de característica armazenados. Com base na comparação, uma pontuação de correspondência é gerada pelo processador configurado 110 em relação à similaridade da correspondência. Caso a pontuação de correspondência represente uma correspondência suficientemente próxima, pode ser determinado que o usuário passe pelo procedimento de verificação.
[00120] Em uma ou mais implantações, a pontuação de correspondência pode ser uma pontuação de correspondência combinada com base nas impressões digitais de consulta de correspondência (por exemplo, vetores de característica de consulta) para impressões digitais registradas individualmente e que determinam uma pontuação de correspondência combinada. Mais especificamente, a partir de um banco de dados de imagens de mão, as imagens podem ser emparelhadas, com duas classes distintas de pares: pares de imagens da mesma mão e pares de imagens de mãos diferentes. Para cada par de dedos nessas mãos (por exemplo, indicador com indicador), pode ser calculada uma pontuação de correspondência que mede a proximidade dessas imagens de mão, sendo que pontuações mais altas representam uma correspondência mais próxima.
[00121] Essas pontuações podem ser plotadas para formar distribuições de pontuação. Para cada tipo de dedo (por exemplo, dedo anelar), há duas distribuições, aquelas pontuações de imagens correspondentes do mesmo dedo da mesma mão, e do mesmo dedo de uma mão diferente (isto é, um impostor).
[00122] Essas distribuições de pontuação podem ser consideradas como distribuições de probabilidade, que fornecem a probabilidade de uma dada pontuação de correspondência pertencer a uma das distribuições. Essas distribuições empiricamente derivadas podem ser suavizadas de ruído e caracterizadas de forma compacta ajustando-se as mesmas a uma distribuição conhecida, por exemplo, a distribuição gama.
[00123] Dado um par não caracterizado de imagens de dedo, o sistema de identificação exemplificativo pode ser configurado para determinar uma pontuação de correspondência. Essas distribuições de probabilidade ajustadas podem, então, ser usadas para determinar a razão de probabilidade (razão de verossimilhança) de o par de imagens de dedo pertencer ao mesmo dedo ou a um dedo diferente.
[00124] Ao realizar uma correspondência completa de quatro dedos, o sistema configurado pode testar uma imagem desconhecida (uma imagem de “sondagem”) contra imagens previamente registradas de uma pessoa conhecida (as imagens de “galeria”). Para cada par de dedo de sondagem contra o dedo de galeria, o sistema pode determinar uma razão de verossimilhança. Essas razões podem, então, ser multiplicadas entre si, e o resultado final fornecer uma medida total da chance de a imagem de sondagem pertencer à pessoa que forneceu a imagem de galeria.
[00125] Esse método tem a vantagem de não ser degradado por dedos específicos que têm capacidade preditiva insatisfatória; em particular, é menos provável que o dedo mínimo forneça uma correspondência claramente preditiva do que os outros dedos. Isso também permite alguma tolerância contra imagens ruins; caso um dedo produza uma correspondência insatisfatória, a mesma pode ser compensada caso outro dedo produza uma correspondência particularmente boa.
[00126] Embora a combinação de pontuações através de múltiplos dedos forneça tolerância contra imagens ruins, teoricamente é possível que uma pontuação de correspondência de sondagem/galeria única seja grande o suficiente para provocar uma aprovação total. Isso pode tornar mais fácil a produção de falsificações, por exemplo, caso um invasor tenha capacidade para produzir uma cópia de qualidade muito boa de um dos dedos autorizados do usuário. Um método exemplificativo para mitigar esse problema pode incluir exigir, através do processador durante o processo de correspondência e pontuação, uma quantidade mínima dos dedos de sondagem para, individualmente, produzir pontuações de correspondência que ultrapassam um limiar secundário, assim como exigir que a combinação de pontuações de correspondência passe do limiar de correspondência primário a fim de determinar uma correspondência positiva. Consequentemente, essa medida exige que qualquer falsificação bem-sucedida duplique com sucesso essa quantidade mínima de dedos, o que é uma tarefa mais difícil do que duplicar um único dedo com sucesso. Pode ser entendido que a quantidade mínima de dedos que pontua acima do limiar secundário exigido pelo processo de autenticação e o valor do limiar secundário podem ser ajustados para trade o risco de falsificação contra resiliência para qualidade de imagem degradada, conforme as necessidades de segurança da implantação.
[00127] Tipicamente, ao comparar dados de dedo de consulta com dados de dedo registrados é importante assegurar que as escalas das respectivas imagens sejam similares. Consequentemente, durante a análise do acervo de imagens de impressão digital na etapa 320, o processador configurado 110 pode determinar a frequência fundamental dos ressaltos de impressão digital. Durante o registro (por exemplo, etapa 325), o processador configurado pode armazenar a frequência fundamental. Durante a verificação (por exemplo, etapa 330), o processador configurado pode escalonar a frequência fundamental da impressão de verificação para corresponder à frequência fundamental da impressão registrada antes da comparação. Adicional ou alternativamente, o processador pode normalizar a frequência da impressão a uma frequência de referência prescrita, por exemplo, um (1), de modo que a frequência real não tenha que ser armazenada. Consequentemente, durante o reconhecimento, a impressão de consulta pode ser normalizada para o valor de referência prescrito.
[00128] Deve-se compreender que uma ou mais operações de pré-processamento podem ser realizadas nos quadros de imagem antes de gerar os vetores de característica ou antes de comparar os vetores de característica durante a autenticação. A título de exemplo e sem limitação, o pré- processamento dos dados de imagem antes da análise pode incluir a orientação dos quadros de imagem em espaço de coordenadas e semelhantes, conforme será compreendido por aqueles versados na técnica.
[00129] As tecnologias existentes referentes à identificação de impressão digital com base em imagem que implantam algoritmos de escalonamento existentes geralmente escalam de modo falho cerca de 2% das impressões digitais, o que resulta em falsas rejeições durante a autenticação. Isso se deve, em parte, àqueles algoritmos que usam uma quantidade insuficiente de pontos de referência em uma imagem (isto é, que usam somente dois pontos, o ponto de ponta/partira da impressão digital e o ponto de base/final da impressão) para deduzir o tamanho e a escola em conformidade. Para aprimorar as operações de escalonamento, de acordo com uma ou mais das modalidades reveladas, o processador pode implantar um algoritmo que analisa a frequência média de uma impressão digital (por exemplo, quantidade típica de linhas por polegada) e normaliza a escala da impressão (ou impressões) em conformidade. Visto que essa técnica julga o escalonamento com base em um grande conjunto dos pixels da impressão, tomados em muitos pontos através da área da impressão, uma confiabilidade consideravelmente mais alta pode ser alcançada durante o processo de escalonamento.
[00130] Antes e/ou após as etapas de registro e verificação, o método também pode incluir uma etapa de detectar a vivacidade. A detecção de vivacidade é representada como na etapa 335 na Figura 3. A o método de detecção de vivacidade pode ser implantado para verificar que as quatro (4) imagens de dedos capturadas são de dedos reais, em vez de, por exemplo, uma falsificação ou molde impresso dos dedos. Mais especificamente, em algumas implantações, o processador de dispositivo móvel 110, que é configurado executando-se os módulos de software 130, incluindo, de preferência, o módulo de análise 172, pode analisar a qualidade de imagem dos dedos e determinar se as mesmas são consistentes com as imagens de dedos ao vivo e/ou dedos falsos, que têm tipicamente artefatos notáveis, tais como resolução e nitidez reduzidas.
[00131] Por exemplo, conforme descrito adicionalmente no presente documento, uma técnica de detecção de vivacidade pode ser solicitar que o usuário gire a mão durante o imageamento e o processador configurado pode determinar que a mão imageada é apropriadamente tridimensional com o uso de, por exemplo, profundidade de técnicas de movimento e profundidade de técnicas de foco. Alternativamente, o sistema pode implantar técnicas para detecção de vivacidade passiva, por exemplo, para analisar a qualidade de imagem para verificar que a mesma é suficientemente nítida e não de uma baixa resolução (por exemplo, de uma impressão de falsificação da mão). O processador configurado também pode analisar a cor dos dedos para determinar se a coloração é consistente com uma imagem de mão ao vivo e/ou a cor conhecida da mão do usuário. Portanto, em algumas implantações, a consistência de cor, em outras palavras, a uniformidade de cor da mão pode ser realizada detectando-se as pontas de dedo e a mão simultaneamente. Então, a separação da área da mão que não contém as pontas de dedo que consiste na palma e falanges inferiores (isto é, a proximal e intermediária) e, então, determinando-se o histograma de cor dessa área e o histograma de cor das 4 áreas de pontas de dedo detectadas. Finalmente, em alguma implantação, a comparação desses dois histogramas pode ser utilizada como um teste para a uniformidade de cor da mão e dedos para determinar a medição de vivacidade, especialmente, se o invasor usa moldes (isto é, dedos falsos) para falsificar o sistema. Além disso, o processador configurado também pode solicitar que usuário faça um ou mais gestos com seus dedos, por exemplo, espalhar e fechar os dedos ou mover determinados dedos de uma maneira particular.
[00132] Além disso, em algumas implantações, um classificador pode ser treinado para distinguir o ao vivo de uma falsificação. O classificador pode ser treinado de modo que aprenda a diferenciar entre imagens de dedo reais e várias imagens falsas. O processador que implanta o classificador seria, então, configurado para fornecer um resultado de falha de aprovação com base eu sem treinamento.
[00133] Adicionalmente, em algumas implantações, como um fator extra de vivacidade de biometria, as posições das impressões digitais na imagem podem ser levadas em consideração, isto é, o usuário genuíno terá um primeiro, segundo, terceiro e quarto dedos de comprimentos particulares. Assim, quando o usuário mantém sua mão com os dedos estendidos e próximos entre si, as posições das quatro (4) impressões digitais deve ter um posicionamento relativo que é consistente com esse usuário particular. Essas informações podem ser usadas como uma verificação de segurança adicional para auxiliar a impedir ataques de falsificação. Por exemplo, é improvável que um hacker que encontra impressões latentes em uma tela de telefone tenha capacidade para deduzir os comprimentos dos dedos do usuário e, assim, é improvável que os apresente corretamente.
[00134] Além dos sistemas e método exemplificativos descritos em relação à Figura 3, várias alternativas e variações são contempladas. Em algumas implantações, as imagens de registro dos dedos do usuário não são necessariamente capturadas pela câmera de dispositivo móvel. Em vez disso, os vetores de recurso de dedos podem ser adquiridos de uma fonte alternativa, tais como banco de dados pré-gravado de imagens de dedo.
[00135] Em algumas implantações, durante o processo de registro, para captura dos dedos (por exemplo, e sem limitação, quatro ou dez dedos com resolução aprimorada), a imagem de cada dedo pode ser capturada sequencialmente em imagens individuais. Nesse caso, durante o procedimento de registro, o processador configurado que exibe uma guia de dedo na tela pode solicitar que o usuário posicione um dedo na tela em um momento e o algoritmo de segmentação pode ser usado para identificar a falange distal e a região de impressão digital dos dedos individualmente.
[00136] Em algumas implantações, em vez de limitar o processo de correspondência (por exemplo, etapa 330) à comparação das regiões de ponta de dedo (por exemplo, falange distal), a comparação pode incluir outras partes da mão além das impressões digitais ou em vez das impressões digitais. Por exemplo, a região de interesse pode incluir quaisquer partes da mão com padrão detectável, ou as falanges distais e intermediárias ou os metacarpos. Algumas dessas regiões têm a vantagem adicional de que as mesmas são mais resistentes à ataque de falsificação, fornecendo, assim, um nível mais alto de segurança. Por exemplo, as impressões de ponta de dedo do usuário podem frequentemente ser encontradas no invólucro de telefone inteligente ou outras superfícies que o usuário tocou. Essas impressões digitais latentes podem ser copiadas por um impostor, e ser criado um molde que pode passar pela verificação. Entretanto, as impressões nos metacarpos são muito mais difíceis de encontrar, visto que é menos comum que essas regiões da mão entrem em contato com superfícies para deixar impressões latentes.
[00137] Em algumas implantações, em vez de usar pontos singulares para separar o agrupamento de quatro dedos em dedos separados, pode ser solicitado que o usuário espalhe seus dedos durante a captura. Os dedos podem, então, ser isolados com o uso de um algoritmo de segmentação, e um método de deformação de contorno pode ser usado para identificar as posições de cada ponta de dedo.
[00138] Em algumas implantações, a segmentação das regiões de dedo pertinentes pode ser realizada com o uso de cor de pele, frequência e orientação. Por exemplo, um operador Sobel pode ser implantado pelo processador configurado para enfatizar as regiões que estão em foco (isto é, os dedos em vez do segundo plano), para auxiliar o processo de segmentação. Adicional ou alternativamente, a segmentação também pode ser feita simplesmente extraindo-se regiões fixas da imagem capturada relacionadas às regiões que o usuário foi orientado a colocar seus dedos durante o processo de captura.
[00139] Em algumas implantações, durante o processo de autenticação, a segmentação pode ser realizada com o uso das informações de impressão registradas. Segmentando-se e identificando-se e /ou correlacionando-se as características de impressão digital com base em um gabarito de impressão gerado durante o registro pode fornecer aprimoramentos em relação às técnicas existentes. Por exemplo, técnicas de identificação de impressão digital com base em imagem existentes isolam uma impressão digital da mesma maneira durante o registro e a autenticação e, como resultado, isolam uma única impressão digital do acervo de imagens com sucesso insatisfatório para uso confiável. Em alguns casos, a isolamento bem-sucedido com o uso dos métodos existentes ocorre somente 96% das vezes, o que resulta em 4% de falsas rejeições durante a autenticação. Com o uso dessa técnica separadamente em múltiplos dedos, esse problema é composto.
[00140] Entretanto, de acordo com um ou mais das modalidades reveladas, um algoritmo diferente para isolamento de impressão digital é executado pelo processador configurado, a saber, um algoritmo que usa a impressão registrada para encontrar o dedo (ou dedos) e isolar/correlacionar as impressões durante a autenticação. Isso fornece um desempenho significativamente mais robusto. Em algumas implantações, o processador configurado pode implantar o processo de segmentação, por exemplo, extraindose os recursos do dedo (tais como minúcias) da imagem de quatro dedos, e localizando-se as regiões de dedo comparando-se exaustivamente todas as localizações na imagem com as características de dedo das impressões registradas. A região de dedo será conhecida por estar localizada onde o dedo registrado corresponde às características de dedo na imagem. Além disso, para minimizar a possibilidade de uma falsa correspondência por características aleatórias na imagem, a validade das regiões correspondentes podem ser verificadas, por exemplo, no caso de capturar o procedimento de quatro (4) dedos, assegurando-se que o 1°, 2°, 3° e 4° dedos sejam grosseiramente encontrados conforme esperado da imagem de sobreposição de guia do usuário, a cor de pele seja conforme esperado e semelhantes (por exemplo, correspondência de gabarito com o uso de gabarito de registro para orientar a comparação). Além disso, em vez de usar esse processo para pesquisar toda a imagem para localizações de dedo, a faixa de pesquisa pode ser restrita às áreas que os dedos são previstos da imagem de sobreposição de guia do usuário.
[00141] Adicional ou alternativamente, para basear o escalonamento de dedo na frequência de ressaltos fundamental, o processador 110 pode ser configurado para escalonar a impressão com base em uma ou mais dentre: a largura do agrupamento de quatro dedos segmentado, a largura ou comprimento de cada região de dedo de interesse ou em pontos específicos no dedo, tais como pontos singulares e as linhas mais espessas em uma junta de falange.
[00142] Assim como (ou em vez de) correlacionar dedos com base em minúcias, o processador 110 também pode ser configurado para correlacionar impressões com base em textura.
[00143] Além disso, em algumas implantações, em vez de usar uma imagem para os dedos, diversas imagens podem ser usadas para registrar ou autenticar um usuário. As múltiplas imagens podem ser capturadas pelo processador configurado 110 com o uso da câmera 145 em várias exposições e/ou distâncias focais para criar uma imagem com profundidade de campo e/ou faixa dinâmica melhoradas. A captura de acervo de imagens com tais exposições e/ou distâncias focais variáveis pode auxiliar a garantir que o foco das impressões em várias localizações através das mãos seja ideal. Consequentemente, o processador configurado pode selecionar ou analisar a imagem (ou imagens) ou porções da imagem que têm foco ideal na porção de dedo de interesse.
[00144] Adicional ou alternativamente, a detecção de vivacidade pode ser implantada verificando-se que outras métricas são consistentes com a de um dedo real em vez de uma impressão ou vídeo ou falsificação de dedo moldado. Essas métricas podem incluir a análise de reflexões especulares do flash capturado no acervo de imagens, análise de reflexões especulares do flash em comparação a uma imagem tomada sem o flash, cor, métricas de intensidade da cor (de modo a rejeitar falsificações em branco e preto e monocromáticas).
[00145] Em algumas implantações, a vivacidade pode ser detectada pela análise de reflexões especulares ou profundidade de informações de foco obtidas do acervo de imagens dos dedos. A título de exemplo não limitador, os sistemas e métodos exemplificativos para determinação de vivacidade com base em reflexões especulares e informações de profundidade de foco são descritos no presente documento e no Pedido de Patente copendente e cedido à mesma cessionária noU.S.62/066.957, intitulado SYSTEMS AND METHODS FOR PERFORMING IRIS IDENTIFICATION AND VERIFICATION USING MOBILE DEVICES UTILIZING VISIBLE SPECTRUM LIGHTING, depositado em 15 de outubro de 2014, que é incorporado ao presente documento a título de referência como se estivesse apresentado em sua totalidade no presente documento. A vivacidade também pode ser detectada pela análise de movimento dinâmico dos dedos (por exemplo, gestos de dedo), tal como inclinar os dedos, ou espalhar/estreitar os dedos, conforme apresentado ao longo de uma sequência de imagens capturadas pela câmera. A título de exemplo não limitador, os sistemas e métodos exemplificativos para determinação de vivacidade com base em movimento dinâmico de características biométricas e gestos são descritos no presente documento e no Pedido de patente copendente e cedido à mesma cessionária no U.S. 62/041.803, intitulado “SYSTEM AND METHOD FOR DETERMINING LIVENESS” depositado em 26 de agosto de 2014, que é incorporado ao presente documento a título de referência como se estivesse apresentado em sua totalidade no presente documento.
[00146] Em algumas implantações, a vivacidade pode ser detectada realizando-se uma análise de refletividade da luz emitida nos ressaltos do dedo durante a captura de acervo de imagens dos dedos. Os ressaltos do dedo ao vivo refletem flash de um modo não uniforme, enquanto os dedos impressos refletem o flash de modo uniforme. Consequentemente, as propriedades de refletividade de ressalto capturado no acervo de imagens dos dedos podem ser analisadas para determinar a vivacidade. Um processo exemplificativo para determinar a vivacidade com base na refletividade é descrito adicionalmente no presente documento em relação ao diagrama de fluxo da Figura 5, e imagens correspondentes nas Figuras 5B-5C. Na etapa 505, as entradas para o algoritmo de detecção de vivacidade são obtidas. As entradas incluem uma imagem (ou imagens) de alta resolução de um ou mais dentre os dedos capturada com o flash ligado, assim como como acervo de imagens de alta resolução dos dedos capturadas com o flash desligado. Imagens exemplificativas com flash 505A e sem flash 505B do dedo (ou dedos) são mostradas na Figura 5B. Nas etapas 510, a imagem (ou imagens) com flash é redimensionada de modo que a impressão digital dentro da imagem seja isolada. Nas etapas 515, as regiões na imagem (ou imagens) sem flash que inclui o dedo correspondente são segmentadas (por exemplo, de acordo com os algoritmos de segmentação de impressão digital exemplificativos acima). Consequentemente, a impressão digital ilustrada na imagem com flash e a impressão digital correspondente nas imagens sem flash são isoladas para processamento adicional. Imagens com flash e imagens sem flash isoladas exemplificativas da ponta de dedo são mostradas como as imagens 510A e 515B, respectivamente, na Figura 5B. Então, na etapa 520, um filtro passa-alta é aplicado para reter a porção das imagens que representam os ressaltos. Imagens com flash e imagens sem flash isoladas exemplificativas da ponta de dedo são mostradas como as imagens 520A e 520B na Figura 5B. Então, na etapa 525, a pontuação de vivacidade é calculada. Em uma disposição exemplificativa, a pontuação de vivacidade é calculada como uma função do desvio padrão (a) do histograma gerado a partir da imagem sem flash e do desvio padrão correspondente (b) do histograma gerado a partir da imagem com flash filtrada (isto é, pontuação de vivacidade = a/b). A título de exemplo, imagens semelhantes obtidas durante a aplicação do processo 500 em imagens falsas das impressões digitais são ilustradas na Figura 5C. Em outra implantação, outras medidas podem ser computadas a partir dos histogramas das imagens com flash e sem flash filtradas para calcular a pontuação de vivacidade. Tem-se a seguir alguns exemplos das medidas que podem ser usadas: (1) a diferença entre as médias dos histogramas, (2) a diferença entre as médias das frequências do histograma, (3) a razão entre o desvio padrão das frequências do histograma, (4) a diferença entre a curtose dos histogramas e/ou (5) o número de pontos-chave correspondentes nas imagens com flash e sem flash filtradas. Em alguma implantação, a diferença nas intensidades de pixel do segundo plano das imagens com flash e sem flash pode ser usada como uma medida de vivacidade.
[00147] As Figuras 6A a 6F representam imagens de ressalto de dedos capturadas em várias posições em relação ao campo de visão da câmera. Em particular, a Figura 6A representa uma imagem capturada e uma imagem de ressalto correspondente para os dedos que se encontram muito longe da câmera e têm uma resolução de impressão baixa. A Figura 6B representa uma imagem capturada e uma imagem de ressalto correspondente para os dedos que se encontram muito longe da câmera e têm uma resolução de impressão baixa. A Figura 6C representa uma imagem capturada e uma imagem de ressalto correspondente que têm boa resolução devido à colocação do dedo que é central no campo de visão e suficientemente próximo da câmera. A Figura 6D representa uma imagem capturada e uma imagem de ressalto correspondente que mostram uma perda de reflexões nas extremidades do dedo indicador e mínimo devido reflexões de LED de ângulo de cima. A Figura 6E representa uma imagem capturada e uma imagem de ressalto correspondente que mostram uma perda de reflexões nas pontas dos dedos devido a reflexões de LED de ângulo de cima conforme os dedos são colocados próximos à extremidade do campo de visão da câmera. A Figura 6F representa uma imagem capturada e uma imagem de ressalto correspondente que mostram uma perda de reflexões nas pontas dos dedos devido a reflexões de LED de ângulo de cima conforme os dedos são colocados próximos à extremidade do campo de visão da câmera.
[00148] Em algumas implantações, a autenticação baseada em impressão digital pode ser adicionalmente combinada com identificação facial para fornecer a segurança/confiabilidade melhorada de biometria multimodal. Por exemplo, no caso de um telefone inteligente, os quatro dedos do usuário podem ser capturados com o uso de uma câmara do telefone inteligente voltada para trás simultânea ou sequencialmente conforme se realiza a captura de face e/ou íris com o uso da câmera voltada para frente. A título de exemplo não limitador, sistemas e métodos exemplificativos para gerar identificadores biométricos híbridos e realizar a identificação/autenticação com o uso de identificadores biométricos híbridos são descritos no Pedido de patente copendente e cedido à mesma cessionária no U.S. 62/156.645, intitulado SYSTEM AND METHOD FOR GENERATING HYBRID BIOMETRIC IDENTIFIERS, depositado em 4 de maio de 2015, que é incorporado ao presente documento a título de referência como se estivesse apresentado em sua totalidade no presente documento.
[00149] A título de exemplo adicional, além de caracterizar um usuário através da geração de vetores de característica de dedo, de acordo com a rotina 300, conforme descrito acima, características biométricas adicionais podem ser extraídas da imagem (ou imagens) capturada na etapa 305, ou de informações biométricas capturadas separadamente. Tais características biométricas adicionais podem incluir, a título de exemplo e sem limitação, traços biométricos maleáveis (soft) e traços biométricos não maleáveis (hard). Os traços biométricos “maleáveis” são características humanas físicas, comportamentais ou aderidas enquanto que as biometrias não maleáveis, tais como, características de impressão digital, íris, perioculares e semelhantes, são geralmente invariantes. A título de exemplo adicional, traços biométricos maleáveis podem incluir traços físicos tais como texturas de pele ou cores de pele. As biometrias maleáveis também podem incluir o movimento, conforme detectado por um giroscópio/acelerômetro de telefone inteligente, características de movimento de olho, conforme detectado por algoritmos de rastreamento de olho, e características de movimento de cabeça, conforme detectado pelo rastreamento do movimento de uma face e/ou cabeça. Tais características biométricas podem ser extraídas e caracterizadas de acordo com o método supracitado, assim como de algoritmos de análise biométrica existentes. Além disso, as caracterizações adicionais das características biométricas do usuário podem ser codificadas como parte do identificador biométrico gerado na etapa 320, ou de outro modo incluídas em um identificador biométrico compósito que inclui o identificador biométrico de impressão digital, por exemplo, através da fusão de múltiplos identificadores biométricos.
[00150] Em uma ou mais modalidades exemplificativas, a captura de imagem dos dedos pode ser realizada em uma distância maior do que realizada tipicamente por um usuário com o uso de um dispositivo portátil, tal como um telefone inteligente. As modalidades exemplificativas podem ser implantadas de modo semelhante com o uso de sistemas configurados para capturar um acervo de imagens com o uso das possíveis modalidades de aquisição de imagem de curto alcance a longo alcance. A aquisição de imagem em uma distância pode ser realizada com modalidades ópticas, tais como sistemas de base óptica de vários tipos, por exemplo, com o uso de lente teleobjetiva, assim como sistemas baseados em foco a laser e sistemas baseados em sonda. As aplicações desses tipos de modalidades de captura de imagem de alcance mais longo podem ser de importância crítica para imposição de leis, atividades militares e de inteligência, e podem, por fim, ser implementadas em ambientes comerciais.
[00151] Além disso, a captura de imagem pode ser realizada enquanto a pessoa não está estacionária, tais implantações são referidas, no presente documento, como sistemas de impressão digital em movimentação (FOM). Esse tipo de captura oportunista pode ocorrer concomitantemente ao longo do tempo conforme as impressões digitais de um indivíduo se tornam visíveis para operadores especiais encarregados com tal tarefa em operação secreta e/ou em modos de vigilância.
[00152] Para a captura a uma distância, técnicas de superresolução podem ser implantadas para aumentar a qualidade de impressão através do uso de dados de múltiplos quadros, e para juntar regiões de impressão parcial de diferentes quadros umas às outras em uma imagem de impressão maior. A título de exemplo não limitador, sistemas e métodos exemplificativos para realizar técnicas de superresolução para gerar identificadores com base em capturas de múltiplas imagens e realizar identificação/autenticação com o uso das mesmas são descritos no presente documento e no Pedido de patente copendente e cedido à mesma cessionária no U.S. 62/066.957, intitulado SYSTEMS AND METHODS FOR PERFORMING IRIS IDENTIFICATION AND VERIFICATION USING MOBILE DEVICES UTILIZING VISIBLE SPECTRUM LIGHTING, depositado em 15 de outubro de 2014, que foi previamente incorporado ao presente documento a título de referência.
[00153] Além disso, pode-se entender que os procedimentos anteriormente mencionados para realizar a aquisição e identificação de impressão digital podem ser realizados de modo semelhante com o uso do acervo de imagens capturado no espectro de luz de NIR e luz de IR, e com o uso de dispositivos equipados com emissores de luz de NIR e/ou IR. Esta implantação pode ser especificamente útil para incorporar identificação de padrão de veias como um fator biométrico adicional. A título de exemplo não limitador, sistemas e métodos exemplificativos para capturar acervo de imagens biométricas nas faixas espectrais de NIR e IR com o uso de emissores de luz de NIR e IR e realizar a identificação/autenticação são descritos no presente documento e no Pedido de patente copendente e cedido à mesma cessionária no U.S. 62/129.277, intitulado “SYSTEMS AND METHODS FOR PERFORMING IRIS IDENTIFICATION AND VERIFICATION USING MOBILE DEVICES” depositado em 6 de março de 2015, que é incorporado ao presente documento a título de referência, como se estivesse apresentado em sua totalidade no presente documento.
[00154] Nessa conjuntura, deve-se observar que, embora grande parte da descrição precedente tenha sido direcionada a sistemas e métodos para autenticar um usuário de acordo com as características biométricas do usuário que são capturadas com o uso de dispositivos de telefone inteligente convencionais, os sistemas e métodos revelados no presente documento podem ser implementados e/ou implantados de modo semelhante em cenários, situações e ambientes além dos cenários referenciados.
[00155] Embora este relatório descritivo contenha diversos detalhes de implantação específicos, os mesmos não devem ser interpretados como limitações ao escopo de qualquer implantação ou do que for reivindicado, mas, em vez disso, como descrições de características que podem ser específicas para modalidades particulares de implantações particulares. Certas características que são descritas neste relatório descritivo no contexto de modalidades separadas também podem ser implantadas em combinação em uma única modalidade. Inversamente, várias características que são descritas no contexto de uma única modalidade podem também ser implantadas em múltiplas modalidades de maneira separada ou em qualquer subcombinação adequada. Além disso, embora as características possam ser descritas acima como agindo em certas combinações e mesmo inicialmente reivindicado como tal, uma ou mais características de uma combinação reivindicada podem, em alguns casos, ser removidas da combinação e a combinação reivindicada pode ser direcionada para uma subcombinação ou variação de uma subcombinação.
[00156] De modo similar, embora operações sejam mostradas nos desenhos em uma ordem específica, isso não deve ser compreendido como uma exigência de que tais operações sejam desempenhadas na ordem específica mostrada ou em ordem sequencial, ou que todas as operações ilustradas sejam desempenhadas, para se alcançar resultados desejáveis. Em certas circunstâncias, o processamento paralelo e de múltiplas tarefas pode ser vantajoso. Ademais, a separação de vários componentes de sistema nas modalidades descritas acima não deve ser entendida com exigências para tal separação em todas as modalidades e deve- se compreender que os sistemas e componentes de programa descritos podem ser geralmente integrados em um único produto de software ou empacotados em múltiplos produtos de software.
[00157] A terminologia usada no presente documento é apenas para o propósito de descrição de modalidades específicas e não se destina a limitar a invenção. Conforme usado no presente documento, as formas singulares "um", "uma" e "o/a" têm como intenção incluir as formas plurais também, a menos que o contexto claramente indique o contrário. Será adicionalmente compreendido que os termos "compreende" e/ou "que compreende", quando usados neste relatório descritivo, especificam a presença de características, números inteiros, etapas, operações, elementos e/ou componentes citados, mas não excluem a presença ou adição de uma ou mais outras características, números inteiros, etapas, operações, elementos, componentes e/ou grupos dos mesmos. Deve-se observar que o uso de termos ordinais, tal como “primeiro”, “segundo”, “terceiro”, etc., nas reivindicações para modificar um elemento de reivindicação não implica, por si só, em qualquer prioridade, procedência ou ordem de um elemento de reivindicação sobre outro ou a ordem temporal em que as ações de um método devem ser realizadas, mas são usados somente como rótulos para distinguir um elemento de reivindicação que tem um certo nome de um outro elemento que tem um mesmo nome (mas para o uso do termo ordinal) para distinguir os elementos de reivindicação. Além disso, a fraseologia e terminologia usadas na presente invenção têm o propósito de descrição e não devem ser consideradas limitadoras. O uso de “que inclui”, “que compreende” ou “que tem”, “que contém”, “que envolve” e variações dos mesmos no presente documento tem como objetivo abranger os itens listados desde então e equivalentes dos mesmos, bem como itens adicionais. Deve-se compreender que números semelhantes nos desenhos representam elementos semelhantes através das diversas figuras e que nem todos os componentes e/ou etapas descritos e ilustrados com referência às figuras são necessários para todas as modalidades ou disposições.
[00158] Portanto, as modalidades e disposições ilustrativas dos presentes sistemas e métodos fornecem um método implantado por computador, sistema de computador e produto de programa de computador para autenticar um usuário de acordo com a biometria do usuário. O fluxograma e o diagrama de blocos nas figuras ilustram a arquitetura, funcionalidade e operação de possíveis implantações de sistemas, métodos e produtos de programa de computador, de acordo com várias modalidades e disposições. Nesse sentido, cada bloco no fluxograma ou nos diagramas de blocos pode representar um módulo, segmento ou porção de código, que compreende uma ou mais instruções executáveis para implantar a função (ou funções) lógica especificada. Deve-se observar também que, em algumas implantações alternativas, as funções citadas no bloco podem ocorrer fora da ordem citada nas Figuras. Por exemplo, dois blocos mostrados em sucessão podem, de fato, ser executados de modo substancialmente simultâneo ou os blocos podem, algumas vezes, ser executados na ordem inversa, dependendo da funcionalidade envolvida. Também será observado que cada bloco da ilustração de diagramas de blocos e/ou fluxograma, e combinações de blocos na ilustração de diagramas de blocos e/ou fluxograma, pode ser implantado por sistemas com base em hardware de propósito especial que realizam as funções ou atos especificados ou combinações de hardware de propósito especial e instruções de computador.
[00159] A matéria descrita acima é fornecida a título de ilustração apenas e não deve ser interpretada como limitativa. Várias modificações e alterações podem ser realizadas à matéria descrita no presente documento sem seguir as modalidades e aplicações exemplificativas ilustradas e descritas e sem se afastar do espírito e do escopo real da presente invenção, que são apresentados nas reivindicações a seguir.

Claims (15)

1. Método para realizar reconhecimento de impressão digital, sendo que o método é caracterizado pelo fato de que compreende: capturar, através de um dispositivo móvel que tem uma câmera, uma mídia de armazenamento, instruções armazenadas na mídia de armazenamento, um visor e um processador configurado executando-se as instruções, uma ou mais imagens, sendo que cada uma dentre a uma ou mais imagens representa um dedo da pessoa; detectar, com o processador, aplicando uma pluralidade de algoritmos de detecção de dedo, o dedo representado em uma ou mais imagens, em que a pluralidade de algoritmos de detecção de dedo inclui classificadores em cascata; com base na detecção, processamento, com o processador, de pelo menos uma imagem usando um algoritmo de segmentação para identificar um respectivo segmento de ponta de dedo para o dedo detectado como sendo representado em pelo menos uma imagem; extrair, com o processador para o dedo, características discriminantes do respectivo segmento de ponta de dedo; e gerar um identificador biométrico que inclui as características discriminantes extraídas; armazenar o identificador biométrico gerado na memória com o processador.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a etapa de processamento da pelo menos uma imagem para identificar o respectivo segmento de ponta de dedo compreende, ainda: analisar, com o processador, pelo menos uma porção de uma ou mais imagens que representam o dedo com o uso de um ou mais classificadores menores para identificar uma pluralidade de segmentos de ponta de dedo candidatos; e filtrar, com o processador, a pluralidade de segmentos de ponta de dedo candidatos de acordo com as características físicas medidas e as características físicas esperadas relacionadas ao dedo.
3. Método, de acordo com a reivindicação 3, caracterizado pelo fato de que compreende, ainda, melhorar o respectivo segmento de ponta de dedo identificado antes da etapa de extrair as características discriminantes dos respectivos segmentos de ponta de dedo.
4. Método, de acordo com a reivindicação 3, caracterizado pelo fato de que melhorar o respectivo segmento de ponta de dedo compreende: gerar, com o processador, um mapa de orientação de ressalto suavizado para o respectivo segmento de ponta de dedo; e melhorar o mapa de orientação de ressalto suavizado.
5. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende, ainda: capturar, através do processador com o uso da câmera, uma ou mais imagens iniciais que representam o dedo da pessoa; detectar, com o processador com o uso de um algoritmo de verificação de dedo, o dedo representado na uma ou mais imagens iniciais; e determinar, com o processador a partir da uma ou mais imagens iniciais, que o dedo representado na uma ou mais imagens iniciais está em foco; disparar, com o processador, a câmera para capturar a uma ou mais imagens em reposta à detecção de dedo em uma ou mais imagens iniciais e determinar que o dedo está em foco; e em que a etapa de identificar o respectivo segmento de ponta de dedo para o dedo se baseia na uma ou mais imagens.
6. Método para realizar reconhecimento de impressão digital, sendo que o método é caracterizado pelo fato de que compreende: capturar, através de um dispositivo móvel que tem uma câmera, uma mídia de armazenamento, instruções armazenadas na mídia de armazenamento e um processador configurado executando-se as instruções, imagens que representam uma pluralidade de dedos de uma pessoa; detectar, com o processador aplicando uma pluralidade de algoritmos de detecção de dedo, a pluralidade de dedos representada em uma ou mais dentre as imagens, em que a pluralidade de algoritmos de detecção de dedo inclui uma cascata de classificadores; com base na detecção, processamento, com o processor, de pelo menos uma imagem usando o algoritmo de segmentação para identificar um segmento de dedo respectivo para um ou mais dos dedos detectados como sendo representados em pelo menos uma imagem; extrair, com o processador para cada dedo, características discriminantes do respectivo segmento de ponta de dedo; e gerar um identificador biométrico que inclui as características discriminantes extraídas; armazenar o identificador biométrico gerado na memória com o processador.
7. Método, de acordo com a reivindicação 6, caracterizado pelo fato de que a etapa de detectar a pluralidade de dedos compreende aplicar a pluralidade de algoritmos de detecção de dedo em uma ordem.
8. Método, de acordo com a reivindicação 6, caracterizado pelo fato de que a etapa de detectar a pluralidade de dedos compreende: selecionar um primeiro algoritmo de detecção de dedo dentre uma pluralidade de algoritmos de detecção de dedo; detectar, através do processador com o uso do primeiro algoritmo de detecção de dedo, pelo menos um conjunto candidato de dedos representados na uma ou mais imagens; computar uma métrica de qualidade que representa uma chance de o pelo menos um conjunto de dedos candidato representar a pluralidade de dedos; e com base na qualidade não atender um limiar prescrito, selecionar outro algoritmo de detecção de dedo e repetir as etapas de detecção e computação anteriores.
9. Método, de acordo com a reivindicação 8, caracterizado pelo fato de que a primeira e a segunda detecção de dedo são classificadores que são treinados de forma diferente.
10. Método, de acordo com a reivindicação 6, caracterizado pelo fato de que compreende, ainda: determinar, com o processador a partir de uma ou mais dentre as imagens, que a pluralidade de dedos dentro da uma ou mais imagens é posicionalmente estável.
11. Método, de acordo com a reivindicação 1 ou 6, caracterizado pelo fato de que compreende, ainda: determinar, com o processador, que o identificador biométrico gerado é representativo de uma pessoa viva.
12. Método, de acordo com a reivindicação 1 ou 6, caracterizado pelo fato de que extrair características discriminantes para o respectivo segmento de ponta de dedo compreende: extrair, a partir do respectivo segmento de ponta de dedo, minúcias do dedo de acordo com um algoritmo de extração de minúcias; e em que gerar o identificador biométrico compreende codificar vetores de característica que representam a minúcia extraída na memória.
13. Método, de acordo com a reivindicação 1 ou 6, caracterizado pelo fato de que compreende, ainda: correlacionar, com o processador, o identificador biométrico gerado a um identificador biométrico previamente armazenado associado ao usuário; gerar, com base na correlação, uma pontuação de similaridade entre o identificador biométrico gerado e o identificador biométrico armazenado; verificar que a pessoa é o usuário com base na pontuação de similaridade.
14. Método para realizar reconhecimento de impressão digital, sendo que o método é caracterizado pelo fato de que compreende: capturar, através de um dispositivo móvel que tem uma câmera, uma mídia de armazenamento, instruções armazenadas na mídia de armazenamento e um processador configurado executando-se as instruções, imagens que representam uma pluralidade de dedos de uma pessoa e em que a captura inclui capturar uma primeira imagem que representa uma pluralidade de dedos em uma primeira posição em relação à câmera; e uma segunda imagem que representa uma pluralidade de dedos em uma segunda posição em relação à câmera, em que a primeira e segunda posições são diferentes; detectar, com o processador usando um algoritmo de detecção de dedo, a pluralidade de dedos representados em uma ou mais das imagens; processamento, com o processador de pelo menos uma imagem usando um algoritmo de segmentação, para identificar um respectivo segmento de ponta do dedo para um ou mais dedos representados na pelo menos uma imagem; extrair, com o processador para cada dedo, características discriminatórias do respectivo segmento da ponta do dedo; gerar um identificador biométrico incluindo as características discriminatórias extraídas; armazenar o identificador biométrico gerado na memória com o processador; determinar, a partir de pelo menos a primeira e segunda imagens que representam o um ou mais dedos a partir de diferentes posições respectivas em relação à câmera, que o primeiro e ou mais dedos são objetos tridimensionais; e verificar que a pessoa é uma pessoa viva com base na determinação de que o um ou mais dedos são objetos tridimensionais.
15. Método para realizar reconhecimento de impressão digital, sendo que o método é caracterizado pelo fato de que compreende: capturar, através de um dispositivo móvel que tem uma câmera, uma mídia de armazenamento, instruções armazenadas na mídia de armazenamento e um processador configurado executando-se as instruções, imagens que representam uma pluralidade de dedos de uma pessoa; detectar, com o processador usando um algoritmo de detecção de dedo, a pluralidade de dedos representados em uma ou mais das imagens; processamento, com o processador de pelo menos uma imagem usando um algoritmo de segmentação, para identificar um respectivo segmento de ponta do dedo para um ou mais dedos representados na pelo menos uma imagem; extrair, com o processador para cada dedo, características discriminatórias do respectivo segmento da ponta do dedo; e gerar um identificador biométrico incluindo as características discriminatórias extraídas, em que gerar o identificador biométrico inclui: determinar, para o respectivo segmento de impressão digital, uma frequência de ressaltos de impressão digital; e dimensionar o identificador biométrico com base na frequência de ressaltos de impressão digital e uma frequência de referência prescrita; e armazenar o identificador biométrico gerado na memória com o processador.
BR112017016942-8A 2015-02-06 2016-01-29 Sistemas e métodos para realizar autenticação de usuário com base em impressão digital com o uso de acervo de imagens capturado com o uso de dispositivos móveis BR112017016942B1 (pt)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201562112961P 2015-02-06 2015-02-06
US62/112,961 2015-02-06
US14/819,639 2015-08-06
US14/819,639 US9361507B1 (en) 2015-02-06 2015-08-06 Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US14/988,833 US9424458B1 (en) 2015-02-06 2016-01-06 Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US14/988,833 2016-01-06
PCT/IB2016/000569 WO2016125030A2 (en) 2015-02-06 2016-01-29 Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices

Publications (2)

Publication Number Publication Date
BR112017016942A2 BR112017016942A2 (pt) 2018-04-03
BR112017016942B1 true BR112017016942B1 (pt) 2023-12-05

Family

ID=56564833

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112017016942-8A BR112017016942B1 (pt) 2015-02-06 2016-01-29 Sistemas e métodos para realizar autenticação de usuário com base em impressão digital com o uso de acervo de imagens capturado com o uso de dispositivos móveis

Country Status (12)

Country Link
US (5) US9424458B1 (pt)
EP (1) EP3254232A2 (pt)
JP (2) JP6650946B2 (pt)
KR (2) KR20230149320A (pt)
CN (2) CN107438854B (pt)
AU (1) AU2016214084B2 (pt)
BR (1) BR112017016942B1 (pt)
CA (2) CA3199703A1 (pt)
CO (1) CO2017008821A2 (pt)
MX (5) MX2020003007A (pt)
WO (1) WO2016125030A2 (pt)
ZA (1) ZA201705814B (pt)

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103268469B (zh) * 2006-04-26 2016-07-06 阿瓦尔有限公司 指纹预检质量和分割
US9268991B2 (en) * 2012-03-27 2016-02-23 Synaptics Incorporated Method of and system for enrolling and matching biometric data
JP6152892B2 (ja) * 2013-08-21 2017-06-28 日本電気株式会社 指紋照合用指紋コア抽出装置、指紋照合システム、指紋コア抽出方法、及びそのプログラム
WO2016081726A1 (en) * 2014-11-19 2016-05-26 Booz Allen & Hamilton Device, system, and method for forensic analysis
US9424458B1 (en) 2015-02-06 2016-08-23 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US11263432B2 (en) 2015-02-06 2022-03-01 Veridium Ip Limited Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US10339362B2 (en) * 2016-12-08 2019-07-02 Veridium Ip Limited Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US10387704B2 (en) * 2015-06-29 2019-08-20 Qualcomm Incorporated Method and apparatus for enabling the touchscreen display of a mobile device
US10339178B2 (en) * 2015-06-30 2019-07-02 Samsung Electronics Co., Ltd. Fingerprint recognition method and apparatus
US20170026836A1 (en) * 2015-07-20 2017-01-26 University Of Maryland, College Park Attribute-based continuous user authentication on mobile devices
CN105069435A (zh) * 2015-08-14 2015-11-18 福建联迪商用设备有限公司 指纹识别的方法及系统
US10068078B2 (en) * 2015-10-15 2018-09-04 Microsoft Technology Licensing, Llc Electronic devices with improved iris recognition and methods thereof
US10176377B2 (en) 2015-11-02 2019-01-08 Fotonation Limited Iris liveness detection for mobile devices
US10130429B1 (en) * 2016-01-06 2018-11-20 Ethicon Llc Methods, systems, and devices for controlling movement of a robotic surgical system
US10373019B2 (en) * 2016-01-13 2019-08-06 Ford Global Technologies, Llc Low- and high-fidelity classifiers applied to road-scene images
KR102448863B1 (ko) * 2016-03-08 2022-09-30 엘지전자 주식회사 이동단말기 및 그 제어방법
FR3049090B1 (fr) * 2016-03-21 2021-06-25 Sebastien Jean Serge Dupont Dispositif d'authentification biometrique adaptatif par echographie, photographies en lumiere visible de contraste et infrarouge, sans divulgation, a travers un reseau informatique decentralise
US10438041B2 (en) * 2016-04-13 2019-10-08 AMI Research & Development, LLC Techniques for fingerprint detection and user authentication
US11048786B2 (en) 2016-04-13 2021-06-29 AMI Research & Development, LLC Techniques for fingerprint detection and user authentication
EP3232369B1 (en) * 2016-04-15 2021-06-16 Nxp B.V. Fingerprint authentication system and method
US10040574B1 (en) * 2016-04-26 2018-08-07 James William Laske, Jr. Airplane anti-hijacking system
US10133857B2 (en) * 2016-05-18 2018-11-20 Bank Of America Corporation Phalangeal authentication device
US9905267B1 (en) * 2016-07-13 2018-02-27 Gracenote, Inc. Computing system with DVE template selection and video content item generation feature
US10198613B2 (en) * 2016-09-09 2019-02-05 MorphoTrak, LLC Latent fingerprint pattern estimation
GB2556625A (en) * 2016-10-27 2018-06-06 Zwipe As Secure enrolment of biometric data
US10121054B2 (en) * 2016-11-10 2018-11-06 Synaptics Incorporated Systems and methods for improving spoof detection based on matcher alignment information
BR112019011205A8 (pt) * 2016-12-08 2023-04-11 Veridium Ip Ltd Sistemas e métodos para realizar a autenticação de usuário baseada em impressão digital usando imagens capturadas com o uso de dispositivos móveis
US10552662B2 (en) * 2016-12-30 2020-02-04 Beyond Time Investments Limited Optical identification method
JP6862899B2 (ja) * 2017-02-21 2021-04-21 富士通株式会社 情報処理装置、生体認証方法、生体認証プログラム
WO2018175616A1 (en) * 2017-03-21 2018-09-27 Sri International Robust biometric access control based on dynamic structural changes in tissue
US20180279940A1 (en) * 2017-03-30 2018-10-04 James Campbell Disease Detection Device and Method for Detection of Abnormal Immunological Activity
US10331937B2 (en) 2017-04-19 2019-06-25 International Business Machines Corporation Method and system for context-driven fingerprint scanning to track unauthorized usage of mobile devices
CN110826516B (zh) 2017-05-03 2023-04-18 Oppo广东移动通信有限公司 光学指纹验证方法及相关产品
SE1750720A1 (en) * 2017-06-07 2018-12-08 Fingerprint Cards Ab Fingerprint authentication method and system for rejecting spoof attempts
US11095678B2 (en) * 2017-07-12 2021-08-17 The Boeing Company Mobile security countermeasures
US11734944B2 (en) * 2017-08-03 2023-08-22 Himax Technologies Limited Display device with embedded biometric detection function in active region
EP3679519A4 (en) * 2017-09-07 2021-06-02 Fingerprint Cards AB METHOD AND FINGERPRINT DETECTION SYSTEM FOR DETERMINING FINGER CONTACT WITH A FINGERPRINT SENSOR
US11580775B2 (en) * 2017-10-18 2023-02-14 Fingerprint Cards Anacatum Ip Ab Differentiating between live and spoof fingers in fingerprint analysis by machine learning
US11023757B2 (en) 2018-02-14 2021-06-01 Samsung Electronics Co., Ltd. Method and apparatus with liveness verification
EP3540633B1 (en) * 2018-03-16 2020-09-23 Identy Inc. Method for identifying an object within an image and mobile device for executing the method
KR102017749B1 (ko) * 2018-04-24 2019-09-03 울산과학기술원 다중 생체신호를 이용한 개인 인증 방법 및 시스템
CN108764093B (zh) * 2018-05-21 2021-06-04 中国人民解放军战略支援部队信息工程大学 基于相机的非接触指纹图像采集装置及方法
US11171951B2 (en) * 2018-06-07 2021-11-09 Paypal, Inc. Device interface output based on biometric input orientation and captured proximate data
CN112385180A (zh) * 2018-07-03 2021-02-19 蒂诺克股份有限公司 基于交易时间戳将身份和易于获得的个人标识符信息进行匹配的系统和方法
KR20200004701A (ko) 2018-07-04 2020-01-14 삼성전자주식회사 지문 인식 방법 및 디바이스
US11481615B1 (en) * 2018-07-16 2022-10-25 Xilinx, Inc. Anti-spoofing of neural networks
US11216541B2 (en) * 2018-09-07 2022-01-04 Qualcomm Incorporated User adaptation for biometric authentication
EP3849416A4 (en) 2018-09-11 2022-06-01 Alex Lee PRESSURE REGISTRATION METHODS AND SYSTEMS FOR BIOMETRIC IDENTIFICATION
US10990805B2 (en) * 2018-09-12 2021-04-27 Apple Inc. Hybrid mode illumination for facial recognition authentication
WO2020055569A1 (en) * 2018-09-13 2020-03-19 Hong Chang Systems and methods for secure biometric identification using recorded pressure
WO2020067990A1 (en) * 2018-09-27 2020-04-02 Coolpay Pte. Ltd. Biometric identification method
US10929516B2 (en) * 2018-10-08 2021-02-23 Advanced New Technologies Co., Ltd. Dynamic grip signature for personal authentication
CN109614844B (zh) * 2018-10-16 2023-01-24 创新先进技术有限公司 一种链路验证方法、装置及设备
KR102383669B1 (ko) 2018-10-23 2022-04-06 한국전자통신연구원 Hlbp 디스크립터 정보를 이용한 시차 최소화 스티칭 장치 및 방법
CN109391622A (zh) * 2018-10-31 2019-02-26 北京中电华大电子设计有限责任公司 一种加载规则的指纹认证云安全系统和方法
CN109239900B (zh) * 2018-11-07 2020-10-16 华东师范大学 一种用于显微数字图像大视野采集的全自动快速聚焦方法
CN111259691B (zh) * 2018-11-30 2024-01-19 上海耕岩智能科技有限公司 一种生物特征分析方法及存储介质
CN109738061B (zh) * 2019-01-11 2020-02-18 华南理工大学 一种面向照度计检定的照度计位置自动对准方法及系统
EP4036795A1 (en) * 2019-02-26 2022-08-03 Identy Inc. Method for verifying the identity of a user by identifying an object within an image that has a biometric characteristic of the user and separating a portion of the image comprising the biometric characteristic from other portions of the image
US10832485B1 (en) * 2019-06-24 2020-11-10 Verizon Patent And Licensing Inc. CAPTCHA authentication via augmented reality
KR102665968B1 (ko) * 2019-06-27 2024-05-16 삼성전자주식회사 블러 추정 방법 및 장치
US11017198B2 (en) * 2019-07-01 2021-05-25 Gemalto Cogent Inc Slap segmentation of contactless fingerprint images
US10984219B2 (en) * 2019-07-19 2021-04-20 Idmission, Llc Fingerprint processing with liveness detection
US11244135B2 (en) * 2019-08-01 2022-02-08 Novatek Microelectronics Corp. Electronic circuit having display driving function, touch sensing function and fingerprint sensing function
US11625939B2 (en) * 2019-08-01 2023-04-11 Novatek Microelectronics Corp. Electronic circuit having display driving function, touch sensing function and fingerprint sensing function
KR20210017269A (ko) * 2019-08-07 2021-02-17 삼성전자주식회사 보정 데이터의 획득을 위한 방법 및 이를 위한 전자 장치
EP3772699A1 (en) * 2019-08-09 2021-02-10 Siemens Aktiengesellschaft Method for user verification, communication device and computer program
US11941629B2 (en) * 2019-09-27 2024-03-26 Amazon Technologies, Inc. Electronic device for automated user identification
EP3832407B1 (fr) * 2019-12-06 2024-03-27 Tissot S.A. Procédé de connexion sécurisée d'une montre à un serveur distant
WO2021117877A1 (ja) * 2019-12-12 2021-06-17 パナソニックIpマネジメント株式会社 指紋登録方法およびユーザ端末装置
CN111144331B (zh) * 2019-12-27 2023-06-13 中国计量大学 手肘静脉图像肘正中静脉的识别方法及手肘图像采集装置
CN111339932B (zh) * 2020-02-25 2022-10-14 南昌航空大学 一种掌纹图像预处理方法和系统
DE102020202946A1 (de) 2020-03-08 2021-09-09 Volkswagen Aktiengesellschaft Verfahren zum Bereitstellen des Zugangs zu einem Gerät sowie Kraftfahrzeug
KR20210119647A (ko) * 2020-03-25 2021-10-06 삼성전자주식회사 센서를 포함하는 전자 장치 및 이를 이용한 생체 정보 획득 방법
EP4133448A1 (en) * 2020-04-10 2023-02-15 Smith&Nephew, Inc. Reciprocal optical tracking system and methods thereof
CN111898470B (zh) * 2020-07-09 2024-02-09 武汉华星光电技术有限公司 屏外指纹提取装置及方法、终端
CN111563561A (zh) 2020-07-13 2020-08-21 支付宝(杭州)信息技术有限公司 指纹图像的处理方法及装置
CN111862178B (zh) * 2020-07-31 2022-09-30 易思维(杭州)科技有限公司 改进的lbp特征提取方法
KR20220030704A (ko) * 2020-09-03 2022-03-11 삼성전자주식회사 우선순위에 따른 지문 스캔 방법 및 장치
WO2022068931A1 (zh) * 2020-09-30 2022-04-07 墨奇科技(北京)有限公司 非接触指纹识别方法、装置、终端及存储介质
CN112232157B (zh) * 2020-09-30 2022-03-18 墨奇科技(北京)有限公司 指纹区域检测方法、装置、设备、存储介质
CN112232155B (zh) * 2020-09-30 2021-12-17 墨奇科技(北京)有限公司 非接触指纹识别的方法、装置、终端及存储介质
CN112395965A (zh) * 2020-11-06 2021-02-23 山东鲁能软件技术有限公司 一种基于电力内网的移动终端人脸识别系统及方法
TWI799092B (zh) * 2021-02-09 2023-04-11 大陸商廣州印芯半導體技術有限公司 辨識系統的辨識方法
US11423689B1 (en) * 2021-02-09 2022-08-23 Guangzhou Tyrafos Semiconductor Tech. Co., Ltd. Identification method for an identification system
CN112966255A (zh) * 2021-03-15 2021-06-15 珠海艾派克微电子有限公司 芯片及成像盒
US11734949B1 (en) * 2021-03-23 2023-08-22 Amazon Technologies, Inc. System for biometric identification
US11462047B1 (en) * 2021-05-05 2022-10-04 Lenovo (Singapore) Pte. Ltd. Device having a camera overlaid by display as biometric sensor
CA3218184A1 (en) * 2021-06-28 2023-01-05 Dae Hyun Pak Method for photographing object for identifying companion animal, and electronic device
KR102444928B1 (ko) * 2021-06-28 2022-09-21 주식회사 펫나우 반려 동물의 식별을 위한 객체를 검출하기 위한 방법 및 장치
KR102452192B1 (ko) * 2021-06-28 2022-10-11 주식회사 펫나우 반려 동물의 식별을 위한 객체의 이미지를 필터링하기 위한 방법 및 장치
KR102586144B1 (ko) * 2021-09-23 2023-10-10 주식회사 딥비전 딥러닝을 이용한 손 움직임 추적방법 및 장치
CN113936307B (zh) * 2021-12-17 2022-03-15 北京圣点云信息技术有限公司 一种基于薄膜传感器的静脉图像识别方法及装置
US11688204B1 (en) * 2022-01-28 2023-06-27 Armatura Llc System and method for robust palm liveness detection using variations of images
US11941911B2 (en) 2022-01-28 2024-03-26 Armatura Llc System and method for detecting liveness of biometric information
US11721132B1 (en) 2022-01-28 2023-08-08 Armatura Llc System and method for generating region of interests for palm liveness detection
US12008836B2 (en) 2023-05-04 2024-06-11 Google Llc Spatially and temporally dynamic illumination for fingerprint authentication

Family Cites Families (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5335288A (en) 1992-02-10 1994-08-02 Faulkner Keith W Apparatus and method for biometric identification
US5659626A (en) * 1994-10-20 1997-08-19 Calspan Corporation Fingerprint identification system
US6292576B1 (en) * 2000-02-29 2001-09-18 Digital Persona, Inc. Method and apparatus for distinguishing a human finger from a reproduction of a fingerprint
JP3825222B2 (ja) 2000-03-24 2006-09-27 松下電器産業株式会社 本人認証装置および本人認証システムならびに電子決済システム
JP2003058889A (ja) * 2001-08-10 2003-02-28 S Stuff:Kk 個人識別方法及び個人識別装置
JP2003178306A (ja) 2001-12-12 2003-06-27 Toshiba Corp 個人認証装置および個人認証方法
JP4217646B2 (ja) * 2004-03-26 2009-02-04 キヤノン株式会社 認証方法及び認証装置
JP4298644B2 (ja) 2004-12-17 2009-07-22 三菱電機株式会社 指紋照合装置、指紋照合方法、指紋照合プログラム、および指紋登録装置
US7515741B2 (en) * 2005-01-07 2009-04-07 Motorola, Inc. Adaptive fingerprint matching method and apparatus
US20070112701A1 (en) * 2005-08-15 2007-05-17 Microsoft Corporation Optimization of cascaded classifiers
KR100891324B1 (ko) * 2005-08-29 2009-03-31 삼성전자주식회사 휴대용 개인단말장치를 이용한 지문인식 시스템 및지문특징 추출장치 및 방법
CN103268469B (zh) 2006-04-26 2016-07-06 阿瓦尔有限公司 指纹预检质量和分割
JP5034359B2 (ja) 2006-08-07 2012-09-26 富士通株式会社 画像認証装置、画像認証方法、画像認証プログラム、記録媒体及び電子機器
US7660442B2 (en) 2006-09-01 2010-02-09 Handshot, Llc Method and system for capturing fingerprints, palm prints and hand geometry
JP4680158B2 (ja) 2006-09-13 2011-05-11 株式会社日立製作所 生体認証装置
KR100795187B1 (ko) * 2006-11-29 2008-01-16 엘지전자 주식회사 지문 인식 장치 및 방법
US20140233810A1 (en) 2007-06-11 2014-08-21 Lumidigm, Inc. Dermatoglyphic hand sensor
US8031981B2 (en) 2007-12-21 2011-10-04 Daon Holdings Limited Method and systems for generating a subset of biometric representations
US8200037B2 (en) 2008-01-28 2012-06-12 Microsoft Corporation Importance guided image transformation
CN101960491A (zh) 2008-03-18 2011-01-26 汤姆森许可贸易公司 自适应感兴趣特征颜色模型参数估计的方法和设备
JP5065965B2 (ja) 2008-03-31 2012-11-07 富士通株式会社 非接触型生体認証装置の生体誘導制御方法及び非接触型生体認証装置
JP5077956B2 (ja) 2008-04-23 2012-11-21 Kddi株式会社 情報端末装置
US8411913B2 (en) 2008-06-17 2013-04-02 The Hong Kong Polytechnic University Partial fingerprint recognition
US8358336B2 (en) 2008-07-25 2013-01-22 Handshot, Llc Frontal hand capture of fingerprints, palm prints and hand geometry using contactless photography
US10445555B2 (en) 2009-01-27 2019-10-15 Sciometrics, Llc Systems and methods for ridge-based fingerprint analysis
KR101549556B1 (ko) * 2009-03-06 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
CN102045162A (zh) * 2009-10-16 2011-05-04 电子科技大学 一种三模态生物特征持证人身份鉴别系统及其控制方法
US8325993B2 (en) 2009-12-23 2012-12-04 Lockheed Martin Corporation Standoff and mobile fingerprint collection
CN101773394B (zh) * 2010-01-06 2011-09-07 中国航天员科研训练中心 身份识别方法及应用该方法的身份识别系统
JP5800175B2 (ja) * 2010-02-05 2015-10-28 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び電子機器
US9295415B2 (en) * 2010-03-04 2016-03-29 Nec Corporation Foreign object determination device, foreign object determination method and foreign object determination program
KR101863033B1 (ko) 2010-04-30 2018-06-01 얀센 바이오테크 인코포레이티드 안정화된 파이브로넥틴 도메인 조성물, 방법 및 용도
US8649575B2 (en) * 2010-08-24 2014-02-11 Samsung Electronics Co., Ltd. Method and apparatus of a gesture based biometric system
WO2012048177A1 (en) 2010-10-08 2012-04-12 Advanced Optical Systems, Inc. Contactless fingerprint acquisition and processing
US8724861B1 (en) 2010-12-06 2014-05-13 University Of South Florida Fingertip force, location, and orientation sensor
US8548206B2 (en) 2011-01-20 2013-10-01 Daon Holdings Limited Methods and systems for capturing biometric data
EP2678809A1 (en) * 2011-02-22 2014-01-01 Thomson Reuters Global Resources Entity fingerprints
US8971588B2 (en) 2011-03-30 2015-03-03 General Electric Company Apparatus and method for contactless high resolution handprint capture
JP5747642B2 (ja) 2011-05-06 2015-07-15 富士通株式会社 生体認証装置、生体認証システム、生体認証サーバ、生体認証クライアント及び生体認証装置制御方法
US8897491B2 (en) * 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US20130067545A1 (en) * 2011-09-13 2013-03-14 Sony Computer Entertainment America Llc Website Security
WO2013089662A1 (en) * 2011-12-12 2013-06-20 Intel Corporation Scene segmentation using pre-capture image motion
JP5799817B2 (ja) 2012-01-12 2015-10-28 富士通株式会社 指位置検出装置、指位置検出方法及び指位置検出用コンピュータプログラム
JP6003124B2 (ja) 2012-03-15 2016-10-05 オムロン株式会社 認証装置、認証装置の制御方法、制御プログラム、および記録媒体
US9569655B2 (en) * 2012-04-25 2017-02-14 Jack Harper Digital voting logic for manufacturable finger asperity wafer-scale solid state palm print scan devices
US20130322705A1 (en) * 2012-05-30 2013-12-05 Google Inc. Facial and fingerprint authentication
US9727969B2 (en) 2012-08-17 2017-08-08 Sony Corporation Image processing device, image processing method, program, and image processing system
DE102012108838A1 (de) * 2012-09-19 2014-05-28 Cross Match Technologies Gmbh Verfahren und Vorrichtung zur Aufnahme von Fingerabdrücken auf Basis von Fingerabdruckscannern in zuverlässig hoher Qualität
US10140537B2 (en) * 2012-10-26 2018-11-27 Daon Holdings Limited Methods and systems for capturing biometric data
US9495526B2 (en) * 2013-03-15 2016-11-15 Eyelock Llc Efficient prevention of fraud
US9818020B2 (en) 2013-04-02 2017-11-14 Precise Biometrics Ab Fingerprint pore analysis for liveness detection
EP2797030B1 (en) * 2013-04-24 2021-06-16 Accenture Global Services Limited Biometric recognition
US9294475B2 (en) 2013-05-13 2016-03-22 Hoyos Labs Ip, Ltd. System and method for generating a biometric identifier
US9003196B2 (en) 2013-05-13 2015-04-07 Hoyos Labs Corp. System and method for authorizing access to access-controlled environments
JP6095478B2 (ja) * 2013-05-16 2017-03-15 スタンレー電気株式会社 入力操作装置
KR20150003501A (ko) * 2013-07-01 2015-01-09 삼성전자주식회사 전자 디바이스 및 전자 디바이스에서 지문을 이용한 인증 방법
JP6221505B2 (ja) * 2013-08-22 2017-11-01 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US9025067B2 (en) 2013-10-09 2015-05-05 General Electric Company Apparatus and method for image super-resolution using integral shifting optics
KR101809543B1 (ko) * 2013-11-22 2017-12-18 삼성전자주식회사 비접촉식 지문 인식하는 방법 및 이를 수행하기 위한 전자 기기
FR3017230B1 (fr) 2014-02-04 2016-03-11 Morpho Procede de validation de l'utilisation d'un vrai doigt comme support d'une empreinte digitale
US9489560B2 (en) 2014-02-12 2016-11-08 Advanced Optical Systems, Inc. On-the go touchless fingerprint scanner
CN105096347B (zh) 2014-04-24 2017-09-08 富士通株式会社 图像处理装置和方法
US20150309663A1 (en) * 2014-04-28 2015-10-29 Qualcomm Incorporated Flexible air and surface multi-touch detection in mobile platform
CN104036273A (zh) * 2014-05-22 2014-09-10 南京信息工程大学 一种基于复合窗口sivv特征的指纹图像分割方法
US9785323B2 (en) * 2014-07-23 2017-10-10 Adobe Systems Incorporated Touch-based user interface control tiles
CN104580143A (zh) * 2014-11-09 2015-04-29 李若斌 一种基于手势识别的安全认证方法、终端、服务器和系统
WO2016081726A1 (en) * 2014-11-19 2016-05-26 Booz Allen & Hamilton Device, system, and method for forensic analysis
US9361507B1 (en) * 2015-02-06 2016-06-07 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US10339362B2 (en) * 2016-12-08 2019-07-02 Veridium Ip Limited Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US11263432B2 (en) * 2015-02-06 2022-03-01 Veridium Ip Limited Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US9424458B1 (en) * 2015-02-06 2016-08-23 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices

Also Published As

Publication number Publication date
WO2016125030A3 (en) 2016-11-10
US20200110921A1 (en) 2020-04-09
CN107438854B (zh) 2021-11-09
MX2020003009A (es) 2021-10-08
US9785823B2 (en) 2017-10-10
US20220165087A1 (en) 2022-05-26
MX2021012376A (es) 2022-11-17
EP3254232A2 (en) 2017-12-13
JP2018508888A (ja) 2018-03-29
US20180018501A1 (en) 2018-01-18
WO2016125030A2 (en) 2016-08-11
AU2016214084B2 (en) 2021-05-27
US20160321496A1 (en) 2016-11-03
CA2976049C (en) 2023-07-18
CA2976049A1 (en) 2016-08-11
US10521643B2 (en) 2019-12-31
CN107438854A (zh) 2017-12-05
MX2020003007A (es) 2021-10-08
MX2020003006A (es) 2021-10-08
KR20230149320A (ko) 2023-10-26
BR112017016942A2 (pt) 2018-04-03
AU2016214084A1 (en) 2017-08-31
MX2017010166A (es) 2018-03-23
KR102587193B1 (ko) 2023-10-06
JP2020074174A (ja) 2020-05-14
KR20170134356A (ko) 2017-12-06
US9424458B1 (en) 2016-08-23
CO2017008821A2 (es) 2017-11-21
CA3199703A1 (en) 2016-08-11
CN114120375A (zh) 2022-03-01
US11188734B2 (en) 2021-11-30
JP6650946B2 (ja) 2020-02-19
US20160232401A1 (en) 2016-08-11
ZA201705814B (en) 2018-08-29

Similar Documents

Publication Publication Date Title
US11188734B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US10339362B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US9361507B1 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
CN110326001B (zh) 使用利用移动设备捕捉的图像执行基于指纹的用户认证的系统和方法
US11263432B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US10922399B2 (en) Authentication verification using soft biometric traits
Methani Camera based palmprint recognition
Al-Rashid Biometrics Authentication: Issues and Solutions
Galdi Design and development of multi-biometric systems

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 29/01/2016, OBSERVADAS AS CONDICOES LEGAIS