BR112021002904A2 - methods and apparatus for facial recognition - Google Patents

methods and apparatus for facial recognition Download PDF

Info

Publication number
BR112021002904A2
BR112021002904A2 BR112021002904-4A BR112021002904A BR112021002904A2 BR 112021002904 A2 BR112021002904 A2 BR 112021002904A2 BR 112021002904 A BR112021002904 A BR 112021002904A BR 112021002904 A2 BR112021002904 A2 BR 112021002904A2
Authority
BR
Brazil
Prior art keywords
biometric
face
visible light
applicant
generating
Prior art date
Application number
BR112021002904-4A
Other languages
Portuguese (pt)
Inventor
James Trani
David Douglas DUNLAP
Original Assignee
Stone Lock Global, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stone Lock Global, Inc. filed Critical Stone Lock Global, Inc.
Publication of BR112021002904A2 publication Critical patent/BR112021002904A2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/08Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
    • H04L9/0861Generation of secret information including derivation or calculation of cryptographic keys or passwords
    • H04L9/0866Generation of secret information including derivation or calculation of cryptographic keys or passwords involving user or device identifiers, e.g. serial number, physical or biometrical information, DNA, hand-signature or measurable physical characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • H04L9/3226Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using a predetermined code, e.g. password, passphrase or PIN
    • H04L9/3231Biological data, e.g. fingerprint, voice or retina

Abstract

MÉTODOS E APARELHOS PARA RECONHECIMENTO FACIAL. Aspectos da presente divulgação incluem métodos para gerar um mapa de calor incluindo uma pluralidade de pontos de amostragem tendo uma pluralidade de valores característicos associados à luz não visível detectada, identificando um ou mais macroblocos, cada um inclui um subconjunto da pluralidade de pontos de amostragem, calculando um número de ocorrências do valor de padrão local dentro de cada subconjunto da pluralidade dos pontos de amostragem para cada um dos um ou mais macroblocos, gerando uma primeira matriz incluindo uma pluralidade de valores ponderados calculando a pluralidade de valores ponderados com base no número de ocorrências do valor padrão local e tamanhos correspondentes de um ou mais macroblocos, atribuindo um índice único a cada um da pluralidade de valores ponderados, gerando uma segunda matriz do índice único classificando a pluralidade de valores ponderados e gerando uma terceira matriz incluindo uma pluralidade de distâncias de classificação.METHODS AND APPARATUS FOR FACIAL RECOGNITION. Aspects of the present disclosure include methods for generating a heat map including a plurality of points samples having a plurality of characteristic values associated with the detected non-visible light, identifying one or more macroblocks, each including a subset of the plurality of sampling points, calculating a number of occurrences of the local pattern value within each subset of the plurality of sampling points for each of the one or more macroblocks, generating a first matrix including a plurality of weighted values by calculating the plurality of weighted values based on the number of occurrences of the local standard value and corresponding sizes of one or more macroblocks, assigning an index unique to each of the plurality of weighted values, generating a second matrix of the unique index ranking the plurality of weighted values, and generating a third matrix including a plurality of ranking distances.

Description

MÉTODOS E APARELHOS PARA RECONHECIMENTO FACIALMETHODS AND APPARATUS FOR FACIAL RECOGNITION REFERÊNCIA CRUZADA AOS PEDIDOS RELACIONADOSCROSS REFERENCE TO RELATED ORDERS

[001] Este pedido é uma continuação em parte do pedido de patente dos Estados Unidos da América No.[001] This application is a continuation in part of United States patent application No.

15/649.144, depositado em 13 de julho de 2017, que é uma continuação do pedido de patente dos Estados Unidos da América No. 14/022.080, depositado em 9 de setembro de 2013, agora Patente dos Estados Unidos da América No.15/649,144, filed July 13, 2017, which is a continuation of United States Patent Application No. 14/022,080, filed September 9, 2013, now United States Patent No.

9.740.917, emitida em 22 de agosto de 2017, que reivindica o benefício do Pedido Provisório dos Estados Unidos da América No. 61/792.922, depositado em 15 de março de 2013, e do Pedido Provisório dos Estados Unidos da América No.9,740,917, issued August 22, 2017, which claims the benefit of United States Provisional Application No. 61/792,922, filed March 15, 2013, and United States Provisional Application No.

61/698.347, depositado em 7 de setembro de 2012, cujos conteúdos são incorporados por referência em sua totalidade.61/698,347, filed September 7, 2012, the contents of which are incorporated by reference in their entirety.

ANTECEDENTESBACKGROUND

[002] Tem havido uma necessidade crescente de uma verificação de identidade mais forte para proteger os bens pessoais, tanto físicos quanto eletrônicos. Por exemplo, é importante controlar o acesso a instalações, veículos e propriedades pessoais para que apenas solicitantes autorizados tenham acesso permitido. Um solicitante pode ser um usuário/pessoa que solicita acesso a ativos e/ou infraestrutura de acesso controlado. Em um exemplo tradicional, um solicitante pode carregar e usar uma chave,[002] There has been a growing need for stronger identity verification to protect personal assets, both physical and electronic. For example, it is important to control access to facilities, vehicles and personal property so that only authorized applicants are allowed access. A requester can be a user/person requesting access to controlled access assets and/or infrastructure. In a traditional example, a requester might load and use a key,

que é projetada para se encaixar em uma fechadura para permitir que o solicitante da chave abra a fechadura e obtenha entrada. Uma perda ou dano à chave, entretanto, pode tornar o acesso impossível. Em outro exemplo, um solicitante pode usar um chaveiro para trancar ou destrancar remotamente as portas de um veículo, por exemplo, pressionando um botão no chaveiro para gerar um sinal infravermelho ("IR") ou de radiofrequência ("RF"), que é detectado por um sensor no veículo, que controla as portas. Esses sistemas de acesso sem chave do veículo podem exigir que o solicitante opere o sistema de ignição. Outras implementações de acesso sem chave semelhantes podem envolver a inserção e apresentação de um cartão magnético ou semelhante em uma abertura ou um leitor/detector de cartão, ou permitindo que um solicitante autorizado digite um código numérico ou alfanumérico em um teclado fornecido.which is designed to fit into a lock to allow the key seeker to open the lock and gain entry. A loss or damage to the key, however, can make access impossible. In another example, an applicant can use a keyring to remotely lock or unlock a vehicle's doors, for example, by pressing a button on the keyring to generate an infrared ("IR") or radio frequency ("RF") signal, which is detected by a sensor in the vehicle, which controls the doors. These vehicle keyless access systems may require the applicant to operate the ignition system. Other similar keyless access implementations may involve inserting and presenting a swipe or similar card into an opening or a card reader/detector, or allowing an authorized requester to enter a numeric or alphanumeric code on a provided keyboard.

Em cada uma dessas técnicas convencionais, entretanto, é muito difícil determinar se a pessoa que possui a chave/cartão é o solicitante autorizado. Um impostor pode roubar ou duplicar uma chave válida e obter acessos não autorizados ao local, veículo e/ou propriedade pessoal.In each of these conventional techniques, however, it is very difficult to determine whether the person holding the key/card is the authorized requester. An imposter can steal or duplicate a valid key and gain unauthorized access to location, vehicle and/or personal property.

[003] Embora os sistemas de controle de acesso biométrico tradicionais possam mitigar algumas deficiências dos sistemas de controle de acesso baseados em chaves/cartões, pode haver limitações também. Sensores biométricos tradicionais, como sensores de detecção de íris, podem ser limitados a condições de luz específicas, reduzindo significativamente a eficácia do sensor biométrico, bem como os ambientes possíveis para aplicá-lo.[003] Although traditional biometric access control systems can mitigate some shortcomings of key/card based access control systems, there may be limitations as well. Traditional biometric sensors, such as iris detection sensors, can be limited to specific light conditions, significantly reducing the effectiveness of the biometric sensor as well as the possible environments for applying it.

O desempenho dos sensores biométricos pode ser comprometido sob a luz solar direta devido a brilhos, sombras e outros artefatos. Mesmo com o surgimento da tecnologia de câmera mega-pixel, as características de cada rosto podem ser obscurecidas pela iluminação ambiente, a posição do rosto, mudanças no rosto, o fundo atrás do rosto e a qualidade da câmera. Desfoque de movimento, resolução insuficiente, impactos ambientais, iluminação, plano de fundo e ângulos de câmera conluiam para obscurecer os detalhes do assunto, dificultando o reconhecimento facial heterogêneo (a correspondência de vídeo e outras imagens de sonda com grandes bancos de dados de fotografias frontais).The performance of biometric sensors can be compromised in direct sunlight due to glare, shadows and other artifacts. Even with the advent of mega-pixel camera technology, the characteristics of each face can be obscured by ambient lighting, the position of the face, changes in the face, the background behind the face and the quality of the camera. Motion blur, insufficient resolution, environmental impacts, lighting, background, and camera angles all collude to obscure subject details, making heterogeneous facial recognition difficult (matching video and other probe images to large databases of frontal photographs ).

[004] Outros fatores também podem aumentar a falsa aceitação e/ou as taxas de falso reconhecimento de sensores biométricos tradicionais. Por exemplo, os sensores biométricos também têm dificuldade em obter os dados necessários na ausência de luz. O sombreamento da fonte de luz e outras mudanças na intensidade podem criar contrastes no rosto que podem ser mal interpretados como características faciais e/ou distorcer levemente a medição das características faciais reais. Outra fonte importante de imprecisão é o aumento da probabilidade de características medidas semelhantes entre faces em uma população crescente. Além disso, o problema de capturar as características de cada rosto pode ser agravado pelo desejo de sistemas de reconhecimento facial de baixa manutenção e/ou baixa complexidade. Portanto, a melhoria no controle de acesso pode ser desejada.[004] Other factors can also increase the false acceptance and/or false recognition rates of traditional biometric sensors. For example, biometric sensors also have difficulty obtaining the necessary data in the absence of light. Light source shading and other changes in intensity can create contrasts in the face that can be misinterpreted as facial features and/or slightly distort the measurement of actual facial features. Another important source of inaccuracy is the increased probability of similar measured features across faces in a growing population. Furthermore, the problem of capturing the characteristics of each face can be aggravated by the desire for low maintenance and/or low complexity face recognition systems. Therefore, improvement in access control may be desired.

SUMÁRIOSUMMARY

[005] A seguir é apresentado um sumário simplificado de um ou mais aspectos, a fim de fornecer uma compreensão básica de tais aspectos. Este resumo não é uma visão geral abrangente de todos os aspectos contemplados e não tem a intenção de identificar os elementos-chave ou críticos de todos os aspectos, nem delinear o escopo de algum ou todos os aspectos. Seu único propósito é apresentar alguns conceitos de um ou mais aspectos de uma forma simplificada como um prelúdio para a descrição mais detalhada que será apresentada posteriormente.[005] The following is a simplified summary of one or more aspects in order to provide a basic understanding of such aspects. This summary is not a comprehensive overview of all aspects contemplated and is not intended to identify the key or critical elements of all aspects, nor to delineate the scope of any or all aspects. Its sole purpose is to present some concepts of one or more aspects in a simplified form as a prelude to the more detailed description that will be presented later.

[006] Alguns aspectos da presente divulgação incluem métodos para gerar um mapa de calor incluindo uma pluralidade de pontos de amostragem tendo uma pluralidade de valores característicos associados à luz não visível detectada, identificando um ou mais macroblocos, cada um incluindo um subconjunto da pluralidade de pontos de amostragem, selecionando um valor padrão local, calculando um número de ocorrências do valor padrão local dentro de cada subconjunto da pluralidade dos pontos de amostragem para cada um dos um ou mais macroblocos, gerando uma primeira matriz incluindo uma pluralidade de valores ponderados calculando o pluralidade de valores ponderados com base no número de ocorrências do valor padrão local e tamanhos correspondentes de um ou mais macroblocos, atribuindo um índice único a cada um da pluralidade de valores ponderados, gerando uma segunda matriz do índice único classificando a pluralidade de valores ponderados e gerando uma terceira matriz incluindo uma pluralidade de distâncias de classificação.[006] Some aspects of the present disclosure include methods for generating a heat map including a plurality of sampling points having a plurality of characteristic values associated with the detected non-visible light, identifying one or more macroblocks, each including a subset of the plurality of sampling points, selecting a local default value, calculating a number of occurrences of the local default value within each subset of the plurality of sampling points for each of the one or more macroblocks, generating a first matrix including a plurality of weighted values calculating the plurality of weighted values based on the number of occurrences of the local default value and corresponding sizes of one or more macroblocks, assigning a unique index to each of the plurality of weighted values, generating a second matrix of the unique index ranking the plurality of weighted values and generating a third matrix including a plurality of classification distances.

[007] Certos aspectos da presente divulgação incluem um placa frontal tendo uma fonte de iluminação configurada para emitir uma luz incidente não visível, um sensor óptico configurado para detectar uma luz não visível detectada, em que a luz não visível detectada inclui uma luz não visível refletida e uma luz não visível irradiada, um ou mais processadores operativamente acoplados à fonte de iluminação e ao sensor óptico, um ou mais processadores são configurados para construir um modelo biométrico de um solicitante solicitando acesso a um ponto de entrada, gerando um mapa de calor incluindo uma pluralidade de pontos de amostragem tendo uma pluralidade de valores característicos associados com a luz não visível detectada,[007] Certain aspects of the present disclosure include a faceplate having an illumination source configured to emit non-visible incident light, an optical sensor configured to detect a detected non-visible light, wherein the detected non-visible light includes non-visible light. reflected and radiated non-visible light, one or more processors operatively coupled to the light source and optical sensor, one or more processors are configured to build a biometric model of a requester requesting access to an entry point, generating a heat map including a plurality of sampling points having a plurality of characteristic values associated with the detected non-visible light,

identificando um ou mais macroblocos, cada um inclui um subconjunto da pluralidade de pontos de amostragem, selecionando um valor padrão local, calculando um número de ocorrências do valor padrão local dentro de cada subconjunto da pluralidade dos pontos de amostragem para cada um dos um ou mais macroblocos, gerando uma primeira matriz incluindo uma pluralidade de valores ponderados calculando a pluralidade de valores ponderados com base no número de ocorrências do valor padrão local e tamanhos correspondentes de um ou mais macroblocos, atribuindo um índice único a cada um da pluralidade de valores ponderados, gerando uma segunda matriz do índice único classificando a pluralidade de valores ponderados e gerando uma terceira matriz incluindo uma pluralidade de distâncias de classificação.identifying one or more macroblocks, each includes a subset of the plurality of sampling points, selecting a local default value, calculating a number of occurrences of the local default value within each subset of the plurality of sampling points for each of the one or more macroblocks, generating a first array including a plurality of weighted values by calculating the plurality of weighted values based on the number of occurrences of the local standard value and corresponding sizes of one or more macroblocks, assigning a unique index to each of the plurality of weighted values, generating a second matrix of the unique index ranking the plurality of weighted values and generating a third matrix including a plurality of ranking distances.

[008] Os aspectos da presente divulgação incluem um meio legível por computador tendo código armazenado nele que, quando executado por um ou mais processadores, faz com que um ou mais processadores executem o código para gerar um mapa de calor incluindo uma pluralidade de pontos de amostragem tendo uma pluralidade de valores característicos associados à luz não visível detectada, código para identificar um ou mais macroblocos, cada um inclui um subconjunto da pluralidade de pontos de amostragem, código para selecionar um valor padrão local, código para calcular um número de ocorrências do valor padrão local dentro cada subconjunto da pluralidade dos pontos de amostragem para cada um dos um ou mais macroblocos, código para gerar uma primeira matriz incluindo uma pluralidade de valores ponderados, calculando a pluralidade de valores ponderados com base no número de ocorrências do valor padrão local e correspondente tamanhos de um ou mais macroblocos, código para atribuir um índice único a cada um da pluralidade de valores ponderados, gerando uma segunda matriz do índice único classificando a pluralidade de valores ponderados, e código para gerar uma terceira matriz incluindo uma pluralidade de distâncias de classificação.[008] Aspects of the present disclosure include a computer-readable medium having code stored therein that, when executed by one or more processors, causes one or more processors to execute code to generate a heat map including a plurality of points of sampling having a plurality of characteristic values associated with detected non-visible light, code to identify one or more macroblocks each includes a subset of the plurality of sampling points, code to select a local standard value, code to calculate a number of occurrences of the local pattern value within each subset of the plurality of sampling points for each of the one or more macroblocks, code for generating a first matrix including a plurality of weighted values, calculating the plurality of weighted values based on the number of occurrences of the local pattern value and corresponding sizes of one or more macroblocks, code to assign a unique index to each of the plurality of weighted values, generating a second matrix of the unique index ranking the plurality of weighted values, and code to generate a third matrix including a plurality of ranking distances.

[009] Um aspecto da presente divulgação inclui um sistema tendo meios para gerar um mapa de calor incluindo uma pluralidade de pontos de amostragem tendo uma pluralidade de valores característicos associados com a luz não visível detectada, meios para identificar um ou mais macroblocos cada um incluindo um subconjunto da pluralidade de pontos de amostragem, meios para selecionar um valor padrão local, meios para calcular um número de ocorrências do valor padrão local dentro de cada subconjunto da pluralidade dos pontos de amostragem para cada um dos um ou mais macroblocos, meios para gerar um primeira matriz incluindo uma pluralidade de valores ponderados calculando a pluralidade de valores ponderados com base no número de ocorrências do valor padrão local e tamanhos correspondentes de um ou mais macroblocos, meios para atribuir um índice único a cada um da pluralidade de valores ponderados, gerando uma segunda matriz do índice único classificando a pluralidade de valores ponderados e meios para gerar uma terceira matriz incluindo uma pluralidade de distâncias de classificação.[009] An aspect of the present disclosure includes a system having means for generating a heat map including a plurality of sampling points having a plurality of characteristic values associated with the detected non-visible light, means for identifying one or more macroblocks each including a subset of the plurality of sampling points, means for selecting a local standard value, means for calculating a number of occurrences of the local standard value within each subset of the plurality of sampling points for each of the one or more macroblocks, means for generating a first array including a plurality of weighted values calculating the plurality of weighted values based on the number of occurrences of the local standard value and corresponding sizes of one or more macroblocks, means for assigning a unique index to each of the plurality of weighted values, generating a second matrix of the single index sorting the plurality of weighted values and means for generating a third matrix including a plurality of classification distances.

[0010] Os aspectos da presente divulgação incluem uma infraestrutura tendo um ponto de entrada de acesso controlado, um placa frontal configurado para emitir uma luz incidente não visível em uma face de um solicitante, detectar uma luz não visível detectada na face do solicitante, em que a luz não visível detectada inclui uma luz não visível refletida e uma luz não visível irradiada, gerar um modelo biométrico do solicitante gerando um mapa de calor incluindo uma pluralidade de pontos de amostragem tendo uma pluralidade de valores característicos associados com a luz não visível detectada, identificar um ou mais macroblocos, cada um incluindo um subconjunto da pluralidade de pontos de amostragem, selecionar um valor padrão local, calcular um número de ocorrências do valor padrão local dentro de cada subconjunto da pluralidade de pontos de amostragem para cada um do um ou mais macroblocos, gerar uma primeira matriz incluindo uma pluralidade de valores ponderados pelo cálculo da pluralidade de valores ponderados com base no número de ocorrências do valor padrão local e tamanhos correspondentes de um ou mais macroblocos, atribuir um índice único a cada um da pluralidade de valores ponderados, gerar uma segunda matriz do índice único classificando a pluralidade de valores ponderados e gerar um terceira matriz incluindo uma pluralidade de distâncias de classificação, armazenar uma pluralidade de modelos biométricos de pessoal autorizado, comparar o modelo biométrico do solicitante com a pluralidade de modelos biométricos de pessoal autorizado, gerar um sinal de correspondência positivo em resposta à identificação de uma correspondência entre os dados do modelo biométrico do solicitante e um da pluralidade de modelos biométricos de pessoal autorizado, e transmitir o sinal de correspondência positivo para um porta para conceder ao solicitante acesso ao ponto de entrada.[0010] Aspects of the present disclosure include an infrastructure having a controlled access entry point, a faceplate configured to emit non-visible incident light on a face of a requester, detect a non-visible light detected on the face of the requester, in that the detected non-visible light includes a reflected non-visible light and a radiated non-visible light, generate a biometric model of the applicant by generating a heat map including a plurality of sampling points having a plurality of characteristic values associated with the detected non-visible light , identify one or more macroblocks each including a subset of the plurality of sampling points, select a local default value, calculate a number of occurrences of the local default value within each subset of the plurality of sampling points for each of the one or more macroblocks, generate a first matrix including a plurality of values weighted by calculating the plurality. ade of weighted values based on the number of occurrences of the local default value and corresponding sizes of one or more macroblocks, assign a unique index to each of the plurality of weighted values, generate a second matrix of the single index by sorting the plurality of weighted values, and generate a third matrix including a plurality of classification distances, store a plurality of biometric templates of authorized personnel, compare the applicant's biometric template with the plurality of biometric templates of authorized personnel, generate a positive match signal in response to the identification of a matching the applicant's biometric template data to one of the plurality of authorized personnel biometric templates, and transmitting the positive match signal to a gateway to grant the applicant access to the point of entry.

BREVE DESCRIÇÃO DOS DESENHOSBRIEF DESCRIPTION OF THE DRAWINGS

[0011] Os recursos que se acredita serem característicos de aspectos da divulgação são apresentados nas reivindicações anexas. Na descrição que se segue, partes semelhantes são marcadas ao longo do relatório descritivo e dos desenhos com os mesmos números, respectivamente. As figuras do desenho não são necessariamente desenhadas em escala e certas figuras podem ser mostradas de forma exagerada ou generalizada para fins de clareza e concisão. A própria divulgação, no entanto, bem como um modo de uso preferido, outros objetos e vantagens dos mesmos, serão melhor compreendidos por referência à seguinte descrição detalhada de aspectos ilustrativos da divulgação quando lidos em conjunto com os desenhos anexos.[0011] Features believed to be characteristic of aspects of the disclosure are set forth in the appended claims. In the description that follows, like parts are marked throughout the specification and drawings with the same numbers, respectively. Drawing figures are not necessarily drawn to scale and certain figures may be shown exaggerated or generalized for clarity and brevity. The disclosure itself, however, as well as a preferred mode of use, other objects and advantages thereof, will be better understood by reference to the following detailed description of illustrative aspects of the disclosure when read in conjunction with the accompanying drawings.

[0012] A FIG. 1 é um exemplo de sistema simultâneo de verificação de identidade e autenticação em tempo real, de acordo com alguns aspectos da presente divulgação.[0012] FIG. 1 is an example of a real-time simultaneous identity verification and authentication system, in accordance with some aspects of the present disclosure.

[0013] A FIG. 2 mostra uma vista em perspectiva de um exemplo de um dispositivo de autenticação e verificação de identidade em tempo real simultâneo, de acordo com alguns aspectos da presente divulgação.[0013] FIG. 2 shows a perspective view of an example of a simultaneous real-time authentication and identity verification device, in accordance with some aspects of the present disclosure.

[0014] A FIG. 3 mostra uma vista frontal de um exemplo de um dispositivo de autenticação e verificação de identidade em tempo real simultâneo, de acordo com alguns aspectos da presente divulgação.[0014] FIG. 3 shows a front view of an example of a simultaneous real-time authentication and identity verification device, in accordance with some aspects of the present disclosure.

[0015] A FIG. 4 mostra outra vista em perspectiva de um exemplo de um dispositivo de autenticação e verificação de identidade em tempo real simultâneo, de acordo com alguns aspectos da presente divulgação.[0015] FIG. 4 shows another perspective view of an example of a simultaneous real-time authentication and identity verification device, in accordance with some aspects of the present disclosure.

[0016] A FIG. 5 é um diagrama de blocos de um exemplo de componente de processamento de um dispositivo simultâneo de verificação de identidade e autenticação em tempo real, de acordo com alguns aspectos da presente divulgação.[0016] FIG. 5 is a block diagram of an example processing component of a simultaneous real-time identity verification and authentication device, in accordance with some aspects of the present disclosure.

[0017] A FIG. 6 mostra um diagrama de fluxo de um método de reconhecimento facial, de acordo com alguns aspectos da presente divulgação.[0017] FIG. 6 shows a flow diagram of a facial recognition method, in accordance with some aspects of the present disclosure.

[0018] A FIG. 7 (a) mostra uma imagem facial para uma pessoa, de acordo com alguns aspectos da presente divulgação.[0018] FIG. 7(a) shows a facial image for a person, in accordance with some aspects of the present disclosure.

[0019] A FIG. 7 (b) mostra uma imagem facial diferente para a mesma pessoa, de acordo com alguns aspectos da presente divulgação.[0019] FIG. 7(b) shows a different facial image for the same person, in accordance with some aspects of the present disclosure.

[0020] A FIG. 8 mostra um exemplo de processo para calcular o recurso de padrão binário local (LBP), de acordo com alguns aspectos da presente divulgação.[0020] FIG. 8 shows an example process for calculating the local binary pattern resource (LBP) in accordance with some aspects of the present disclosure.

[0021] A FIG. 9 mostra um exemplo de processo para calcular o recurso de padrão ternário local (LTP), de acordo com alguns aspectos da presente divulgação.[0021] FIG. 9 shows an example process for calculating the local ternary pattern resource (LTP), in accordance with some aspects of the present disclosure.

[0022] A FIG. 10 mostra posições de três características-chave de exemplo selecionadas entre uma ou mais imagens de rosto, de acordo com alguns aspectos da presente divulgação.[0022] FIG. 10 shows positions of three example key features selected from one or more face images, in accordance with some aspects of the present disclosure.

[0023] A FIG. 11 mostra um exemplo de uma curva de característica de operação do receptor (ROC) para testar um banco de dados de face, de acordo com alguns aspectos da presente divulgação.[0023] FIG. 11 shows an example of a receiver operating characteristic (ROC) curve for testing a face database, in accordance with some aspects of the present disclosure.

[0024] A FIG. 12 ilustra um exemplo de criptografia biométrica assimétrica para confidencialidade, de acordo com alguns aspectos da presente divulgação.[0024] FIG. 12 illustrates an example of asymmetric biometric encryption for confidentiality, in accordance with some aspects of the present disclosure.

[0025] A FIG. 13 ilustra outro exemplo de criptografia biométrica e assimétrica para autenticação, de acordo com alguns aspectos da presente divulgação.[0025] FIG. 13 illustrates another example of biometric and asymmetric cryptography for authentication, in accordance with some aspects of the present disclosure.

[0026] A FIG. 14 ilustra uma vista esquemática de um exemplo de um ambiente para implementar uma ou mais portas para controle de acesso.[0026] FIG. 14 illustrates a schematic view of an example of an environment for implementing one or more doors for access control.

[0027] A FIG. 15 ilustra um exemplo de um sistema de computador para implementar um método de gerenciamento de dados de acordo com aspectos da presente divulgação.[0027] FIG. 15 illustrates an example of a computer system for implementing a data management method in accordance with aspects of the present disclosure.

[0028] A FIG. 16 ilustra um diagrama de blocos de vários componentes de sistema exemplares, de acordo com aspectos da presente divulgação.[0028] FIG. 16 illustrates a block diagram of various exemplary system components, in accordance with aspects of the present disclosure.

[0029] A FIG. 17 ilustra um exemplo de um placa frontal para identificar modelos biométricos, de acordo com aspectos da presente divulgação.[0029] FIG. 17 illustrates an example of a faceplate for identifying biometric templates, in accordance with aspects of the present disclosure.

[0030] A FIG. 18 ilustra um exemplo dos componentes da placa frontal da FIG. 17, de acordo com aspectos da presente divulgação.[0030] FIG. 18 illustrates an example of the faceplate components of FIG. 17, in accordance with aspects of the present disclosure.

[0031] A FIG. 19 ilustra outro exemplo dos componentes da placa frontal da FIG. 17, de acordo com aspectos da presente divulgação.[0031] FIG. 19 illustrates another example of the faceplate components of FIG. 17, in accordance with aspects of the present disclosure.

[0032] A FIG. 20 ilustra um exemplo de um mapa de calor, de acordo com aspectos da presente divulgação.[0032] FIG. 20 illustrates an example of a heat map, in accordance with aspects of the present disclosure.

[0033] A FIG. 21 ilustra um exemplo de operação LBP em pontos de medição do mapa de calor da FIG. 20, de acordo com aspectos da presente divulgação.[0033] FIG. 21 illustrates an example of LBP operation on measurement points of the heat map of FIG. 20, in accordance with aspects of the present disclosure.

[0034] A FIG. 22 ilustra exemplos de submatrizes.[0034] FIG. 22 illustrates examples of sub-matrices.

[0035] A FIG. 23 ilustra um exemplo de uma tabela de resultados para conversão de sequência, de acordo com aspectos da presente divulgação.[0035] FIG. 23 illustrates an example of a results table for sequence conversion, in accordance with aspects of the present disclosure.

[0036] A FIG. 24 ilustra um exemplo de um fluxograma para converter uma sequência, de acordo com aspectos da presente divulgação.[0036] FIG. 24 illustrates an example of a flowchart for converting a sequence, in accordance with aspects of the present disclosure.

[0037] A FIG. 25 ilustra um exemplo de uma tabela de cálculos de verificação de acordo com aspectos da presente divulgação.[0037] FIG. 25 illustrates an example of a check calculation table in accordance with aspects of the present disclosure.

[0038] A FIG. 26 ilustra um exemplo de deep learning.[0038] FIG. 26 illustrates an example of deep learning.

[0039] A FIG. 27 ilustra o exemplo de deep learning na FIG. 27.[0039] FIG. 27 illustrates the deep learning example in FIG. 27.

[0040] A FIG. 28 ilustra um fluxograma de um método para identificar modelos biométricos.[0040] FIG. 28 illustrates a flowchart of a method for identifying biometric templates.

DESCRIÇÃO DETALHADADETAILED DESCRIPTION

[0041] O seguinte inclui definições de termos selecionados aqui empregados. As definições incluem vários exemplos e/ou formas de componentes que se enquadram no escopo de um termo e que podem ser usados para implementação. Os exemplos não pretendem ser limitativos.[0041] The following includes definitions of selected terms used herein. Definitions include various examples and/or forms of components that fall within the scope of a term and that can be used for implementation. The examples are not intended to be limiting.

[0042] Um "processador", conforme usado neste documento, processa sinais e realiza computação geral e funções aritméticas. Os sinais processados pelo processador podem incluir sinais digitais, sinais de dados, instruções de computador, instruções de processador, mensagens, um bit, um fluxo de bits ou outra computação que pode ser recebida, transmitida e/ou detectada.[0042] A "processor", as used in this document, processes signals and performs general computation and arithmetic functions. The signals processed by the processor can include digital signals, data signals, computer instructions, processor instructions, messages, a bit, a bit stream, or other computation that can be received, transmitted and/or detected.

[0043] Um "barramento", como usado neste documento, refere-se a uma arquitetura interconectada que é acoplada comunicativamente para transferir dados entre componentes de computador dentro de um único ou múltiplos sistemas. O barramento pode ser um barramento de memória, um controlador de memória, um barramento periférico, um barramento externo, uma comutação de barra transversal e/ou um barramento local, entre outros. O barramento também pode ser um barramento veicular que interliga componentes dentro de um veículo por meio de protocolos, como CAN (Controller Area Network), LIN (Local Interconnect Network), entre outros.[0043] A "bus", as used in this document, refers to an interconnected architecture that is communicatively coupled to transfer data between computer components within a single or multiple systems. The bus can be a memory bus, a memory controller, a peripheral bus, an external bus, a crossbar switch and/or a local bus, among others. The bus can also be a vehicle bus that interconnects components within a vehicle through protocols such as CAN (Controller Area Network), LIN (Local Interconnect Network), among others.

[0044] Uma "memória", conforme usada neste documento, pode incluir memória volátil e/ou memória não volátil. A memória não volátil pode incluir, por exemplo, ROM (memória de apenas leitura), PROM (memória de apenas leitura programável), EPROM (PROM apagável) e EEPROM (PROM apagável eletricamente). A memória volátil pode incluir, por exemplo, RAM (memória de acesso aleatório), RAM síncrona (SRAM), RAM dinâmica (DRAM), DRAM síncrona (SDRAM), SDRAM de dupla taxa de dados (DDR SDRAM) e/ou barramento RAM de RAM direta (DRRAM).[0044] A "memory", as used in this document, may include volatile memory and/or non-volatile memory. Non-volatile memory can include, for example, ROM (read-only memory), PROM (programmable read-only memory), EPROM (erasable PROM) and EEPROM (electrically erasable PROM). Volatile memory can include, for example, RAM (random access memory), synchronous RAM (SRAM), dynamic RAM (DRAM), synchronous DRAM (SDRAM), double data rate SDRAM (DDR SDRAM) and/or bus RAM of direct RAM (DRRAM).

[0045] Conforme usado no relatório descritivo e nas reivindicações anexas, as formas singulares "um", "uma" e "o/a" incluem referentes plurais, a menos que o contexto indique claramente o contrário.[0045] As used in the specification and appended claims, the singular forms "a", "an" and "the" include plural referents, unless the context clearly indicates otherwise.

[0046] Os intervalos podem ser expressos neste documento como a partir de "cerca de", "substancialmente" ou "aproximadamente" um valor particular e/ou para "cerca de", "substancialmente" ou "aproximadamente" outro valor particular. Quando tal intervalo é expresso, outra implementação inclui a partir de um valor particular e/ou para outro valor particular.Ranges may be expressed herein as from "about", "substantially" or "approximately" a particular value and/or to "about", "substantially" or "approximately" another particular value. When such a range is expressed, another implementation includes from a particular value and/or to another particular value.

[0047] Por "compreendendo" ou "contendo" ou "incluindo" entende-se que pelo menos o composto, elemento, partícula ou etapa do método nomeado está presente na composição ou artigo ou método, mas não exclui a presença de outros compostos, materiais, partículas, etapas do método, mesmo se os outros compostos, materiais, partículas, etapas do método tenham a mesma função que o que é nomeado.[0047] By "comprising" or "containing" or "including" it is meant that at least the named compound, element, particle or method step is present in the composition or article or method, but does not exclude the presence of other compounds, materials, particles, method steps, even if the other compounds, materials, particles, method steps have the same function as the one named.

[0048] Também deve ser entendido que a menção de uma ou mais etapas do método não exclui a presença de etapas adicionais do método ou etapas intermediárias do método entre essas etapas expressamente identificadas. Da mesma forma, também deve ser entendido que a menção de um ou mais componentes em um dispositivo ou sistema não exclui a presença de componentes adicionais ou componentes intervenientes entre aqueles componentes expressamente identificados.[0048] It should also be understood that the mention of one or more method steps does not exclude the presence of additional method steps or intermediate method steps between those expressly identified steps. Likewise, it should also be understood that the mention of one or more components in a device or system does not exclude the presence of additional components or intervening components among those expressly identified components.

[0049] As técnicas de identificação biométrica geralmente se referem a técnicas de reconhecimento de padrões que realizam um processo de identificação do solicitante ao determinar a autenticidade de uma característica fisiológica ou comportamental específica possuída pelo solicitante. Em alguns casos, a identificação biométrica pode ser preferida aos métodos tradicionais envolvendo senhas e números de identificação pessoal (PINs) por vários motivos. Por exemplo, com a identificação biométrica, a pessoa (por exemplo, solicitante) a ser identificada normalmente deve estar fisicamente presente no ponto de identificação. Além disso, a identificação com base em técnicas biométricas evita a necessidade de lembrar uma senha ou carregar um token (ou seja, um dispositivo de segurança usado para obter acesso a um ponto de entrada de acesso controlado).[0049] Biometric identification techniques generally refer to pattern recognition techniques that perform an applicant identification process by determining the authenticity of a specific physiological or behavioral characteristic possessed by the applicant. In some cases, biometric identification may be preferred over traditional methods involving passwords and personal identification numbers (PINs) for a variety of reasons. For example, with biometric identification, the person (eg applicant) to be identified normally must be physically present at the point of identification. Furthermore, identification based on biometric techniques avoids the need to remember a password or carry a token (ie, a security device used to gain access to a controlled access point of entry).

[0050] Um tipo de recurso de padrão binário local baseado em textura ("LBP") descreve as informações faciais que produzem resultados de reconhecimento desejáveis. O recurso de padrão ternário local aprimorado ("LTP") pode ser uma melhoria adicional em relação aos métodos LBP convencionais. Os recursos LBP e LTP podem não ser sensíveis a variações de luz e expressão e são computacionalmente eficientes, mas também apresentam deficiências, como redundância de informações devido à correlação entre o histograma positivo e o histograma negativo.[0050] A type of texture-based local binary pattern ("LBP") resource describes facial information that produces desirable recognition results. The enhanced local ternary pattern ("LTP") feature can be an additional improvement over conventional LBP methods. The LBP and LTP features may not be sensitive to light and expression variations and are computationally efficient, but they also have shortcomings, such as information redundancy due to the correlation between the positive histogram and the negative histogram.

[0051] É, portanto, desejável contemplar técnicas simultâneas de verificação de identidade e autenticação em tempo real para criar dados de assinatura biométrica para fornecer acesso sem chave a solicitantes autorizados a um veículo, edifício ou semelhante com vários graus de segurança, utilizando vários tipos de dados de biometria de solicitantes autorizados. Conforme discutido acima, em algumas implementações da presente divulgação, os dados de assinatura biométrica podem ser intercambiáveis em uma ampla variedade de aplicações. Por conseguinte, em alguns exemplos da presente divulgação, os mesmos dados de assinatura biométrica para uma pessoa podem ser usados para autenticar essa pessoa em um ou mais locais e para uma ou mais aplicações. Além disso, um exemplo de um sistema biométrico na presente divulgação permite que os dados de assinatura biométrica sejam alterados com base em um nível de segurança desejado. Assim, o tipo de dados de assinatura biométrica que pode ser usado para um aplicativo específico e/ou relacionados a um solicitante específico pode variar dependendo do nível de segurança desejado para aquele aplicativo e/ou solicitante específico. Embora algumas implementações aqui discutidas sejam discutidas no contexto de dados biométricos faciais, aquelas pessoas versadas na técnica entenderiam que várias implementações da presente divulgação podem empregar muitos tipos de dados biométricos, incluindo, mas não se limitando a, dados de impressão digital, dados de varredura de íris e retina, dados de fala, termogramas faciais, dados de geometria de mão e semelhantes.[0051] It is therefore desirable to contemplate simultaneous identity verification and real-time authentication techniques to create biometric signature data to provide keyless access to authorized requesters to a vehicle, building or the like with varying degrees of security, using various types biometrics data from authorized applicants. As discussed above, in some implementations of the present disclosure, biometric signature data may be interchangeable in a wide variety of applications. Therefore, in some examples of the present disclosure, the same biometric signature data for a person can be used to authenticate that person at one or more locations and for one or more applications. Furthermore, an example of a biometric system in the present disclosure allows biometric signature data to be altered based on a desired level of security. Thus, the type of biometric signature data that can be used for a specific application and/or related to a specific requester may vary depending on the level of security desired for that specific application and/or requester. Although some implementations discussed herein are discussed in the context of facial biometric data, those skilled in the art would understand that various implementations of the present disclosure can employ many types of biometric data, including, but not limited to, fingerprint data, scan data. of iris and retina, speech data, facial thermograms, hand geometry data, and the like.

[0052] Em algumas implementações da presente divulgação, os dados biométricos associados ao destinatário pretendido (por exemplo, um modelo biométrico) podem ser obtidos por meio de um sensor biométrico de um sistema de controle de acesso com base biométrica. Como será discutido abaixo, variações na luz, temperatura, distância do sensor biométrico de um alvo podem impactar a quantidade e a qualidade dos dados biométricos obtidos por meio do sensor biométrico. Por exemplo, variações na intensidade da luz e no ângulo podem criar sombras no rosto de um solicitante,[0052] In some implementations of the present disclosure, biometric data associated with the intended recipient (for example, a biometric template) may be obtained by means of a biometric sensor of a biometric-based access control system. As will be discussed below, variations in light, temperature, distance of the biometric sensor from a target can impact the quantity and quality of biometric data obtained through the biometric sensor. For example, variations in light intensity and angle can create shadows on an applicant's face,

tornando o reconhecimento facial mais difícil. Se os dados biométricos para identificar um solicitante forem obscurecidos, mais modelos podem ser necessários para autenticar adequadamente o solicitante, aumentando assim a quantidade de dados biométricos necessários. Para reduzir o impacto indesejável desses fatores ambientais, o sensor biométrico pode utilizar luz infravermelha próxima (IR) ou ultravioleta (UV) ou uma combinação de IR e UV nas intensidades desejadas. Em uma implementação, o método usa luz infravermelha próxima. Uma matriz de diodo emissor de luz infravermelha (LED) pode ser utilizada no dispositivo de reconhecimento facial ou sensor biométrico para minimizar o impacto da iluminação circundante na captura da singularidade facial. A câmera e a matriz de LED são empacotadas em um dispositivo de borda dedicado (por exemplo, um placa frontal) montado em um local que requer verificação e/ou identificação/análise, como uma porta que requer controle de acesso.making face recognition more difficult. If the biometric data to identify an applicant is obscured, more templates may be needed to properly authenticate the applicant, thus increasing the amount of biometric data needed. To reduce the undesirable impact of these environmental factors, the biometric sensor can utilize near infrared (IR) or ultraviolet (UV) light or a combination of IR and UV at the desired intensities. In one implementation, the method uses near infrared light. An infrared light emitting diode (LED) array can be used in the facial recognition device or biometric sensor to minimize the impact of surrounding lighting in capturing the facial uniqueness. The camera and LED array are packaged in a dedicated edge device (eg a faceplate) mounted in a location that requires verification and/or identification/analysis, such as a door that requires access control.

[0053] Em algumas implementações, um sistema de controle de acesso pode utilizar IR ou nova iluminação e detecção de IR para identificar características faciais. IR ou nova iluminação IR pode penetrar na derme do rosto. O IR ou a nova iluminação IR pode penetrar na derme em 10 micrômetros, 20 micrômetros, 50 micrômetros, 100 micrômetros, 200 micrômetros, 500 micrômetros, 1 milímetro,[0053] In some implementations, an access control system may use IR or new lighting and IR detection to identify facial features. IR or new IR illumination can penetrate the dermis of the face. The IR or new IR illumination can penetrate the dermis at 10 micrometers, 20 micrometers, 50 micrometers, 100 micrometers, 200 micrometers, 500 micrometers, 1 millimeter,

2 milímetros, 5 milímetros e/ou 10 milímetros. Outras profundidades de penetração são possíveis. As profundidades de penetração podem depender da localização do corpo, comprimento de onda da iluminação infravermelha e/ou intensidade da iluminação infravermelha. A penetração pode expor características da pele que podem ser difíceis de ver na luz visível, incluindo (manchas senis, vasinhos, hiperpigmentação, rosácea, acne e porfirinas). A identificação dessas características subdérmicas pode ser usada para ajustar/complementar a identificação única do solicitante. Esses recursos na face do solicitante podem ser únicos porque são baseados na exposição do solicitante à natureza e ao sol durante a vida do solicitante. O reconhecimento facial com base em características subdérmicas pode identificar a singularidade do rosto no momento da captura para fornecer oportunidades de análise de identificação. O número de características subdérmicas pode aumentar ao longo do tempo com a exposição ao sol e diariamente.2mm, 5mm and/or 10mm. Other penetration depths are possible. Penetration depths may depend on body location, wavelength of infrared illumination and/or intensity of infrared illumination. Penetration can expose skin features that may be difficult to see in visible light, including (age spots, spider veins, hyperpigmentation, rosacea, acne, and porphyrins). The identification of these subdermal characteristics can be used to adjust/add to the applicant's unique identification. These features on the applicant's face may be unique because they are based on the applicant's exposure to nature and sun during the applicant's lifetime. Facial recognition based on subdermal features can identify the uniqueness of the face at the time of capture to provide opportunities for identification analysis. The number of subdermal features can increase over time with sun exposure and daily.

[0054] Em outro exemplo, um sistema de controle de acesso pode utilizar iluminação ultravioleta e detecção para identificar características faciais. A luz ultravioleta pode penetrar na derme do rosto. A iluminação UV pode penetrar na derme em 10 micrômetros, 20 micrômetros, 50 micrômetros, 100 micrômetros, 200 micrômetros, 500 micrômetros, 1 milímetro, 2 milímetros, 5 milímetros e/ou 10 milímetros. Outras profundidades de penetração são possíveis. As profundidades de penetração podem depender da localização do corpo, comprimento de onda da iluminação ultravioleta e/ou intensidade da iluminação ultravioleta. A penetração pode expor características da pele que podem ser difíceis de ver na luz visível, incluindo (manchas senis, vasinhos, hiperpigmentação, rosácea, acne e porfirinas). A identificação dessas características subdérmicas pode ser usada para ajustar/complementar a identificação única do solicitante.[0054] In another example, an access control system can use ultraviolet lighting and detection to identify facial features. Ultraviolet light can penetrate the dermis of the face. UV illumination can penetrate the dermis at 10 micrometers, 20 micrometers, 50 micrometers, 100 micrometers, 200 micrometers, 500 micrometers, 1mm, 2mm, 5mm and/or 10mm. Other penetration depths are possible. Penetration depths may depend on body location, wavelength of ultraviolet illumination and/or intensity of ultraviolet illumination. Penetration can expose skin features that may be difficult to see in visible light, including (age spots, spider veins, hyperpigmentation, rosacea, acne, and porphyrins). The identification of these subdermal characteristics can be used to adjust/add to the applicant's unique identification.

Esses recursos na face do solicitante podem ser únicos porque são baseados na exposição do solicitante à natureza e ao sol durante a vida do solicitante. O reconhecimento facial com base em características subdérmicas pode identificar a singularidade do rosto no momento da captura para fornecer oportunidades de análise de identificação. O número de características subdérmicas pode aumentar ao longo do tempo com a exposição ao sol e diariamente. O sistema de reconhecimento facial da presente divulgação pode estimar a idade de uma pessoa com base na quantidade e natureza das características subdérmicas. O sistema de controle de acesso também pode rastrear a mudança nesses recursos ao longo do tempo para confirmar a identidade do indivíduo e estabelecer estilo de vida e rotinas diárias com base em interpretações dos recursos subdérmicos. O reconhecimento facial subdérmico também pode aumentar a dificuldade de criar uma duplicata (por exemplo, duplicata de um modelo biométrico) do rosto devido à sua eliminação da dependência de características faciais capazes de serem capturadas por fotografia de comprimento de onda visível padrão e tecnologia de câmera. O sistema de controle de acesso também pode ofuscar ainda mais o conteúdo da captura ultravioleta, introduzindo filtros de polarização cruzada sequenciados no tempo para o processo de captura que elimina ainda mais a capacidade de apresentar uma duplicata artificial da face para o sistema de controle de acesso.These features on the applicant's face may be unique because they are based on the applicant's exposure to nature and sun during the applicant's lifetime. Facial recognition based on subdermal features can identify the uniqueness of the face at the time of capture to provide opportunities for identification analysis. The number of subdermal features can increase over time with sun exposure and daily. The facial recognition system of the present disclosure can estimate a person's age based on the amount and nature of subdermal features. The access control system can also track the change in these features over time to confirm the individual's identity and establish lifestyle and daily routines based on interpretations of the subdermal features. Subdermal facial recognition can also increase the difficulty of creating a duplicate (eg, duplicate of a biometric template) of the face due to its elimination of reliance on facial features capable of being captured by standard visible wavelength photography and camera technology . The access control system can also further obfuscate the ultraviolet capture content by introducing time-sequenced cross polarization filters to the capture process that further eliminates the ability to present an artificial duplicate of the face to the access control system .

[0055] Um benefício do sistema na presente divulgação inclui permitir a substituição de um único sistema de credencial por PINs, senhas e autenticação multifatorial que seja transparente para o solicitante. Com essa arquitetura implementada, o(s) solicitante(s) do sistema pode(m) contar com uma única solução de gerenciamento de credencial. O sistema da presente divulgação pode suportar portas lógicas e físicas. Em algumas implementações da presente divulgação, o sistema pode fornecer proteção em casa e no trabalho.[0055] A benefit of the system in this disclosure includes allowing the replacement of a single credential system with PINs, passwords and multifactor authentication that is transparent to the requester. With this architecture in place, the system requester(s) can rely on a single credential management solution. The system of the present disclosure can support both logical and physical gates. In some implementations of the present disclosure, the system can provide protection at home and at work.

[0056] Os aspectos da presente divulgação podem incluir um método referido como "reforço em camadas". O método consiste em tirar a imagem do rosto do sensor biométrico e sobrepor várias camadas de caixas de pixels de tamanhos diferentes na imagem. Essa disposição em camadas de caixas de pixels de diferentes tamanhos tem um impacto amplificador na análise da singularidade do rosto. As áreas mais exclusivas do rosto são ampliadas. As áreas que são mais comuns entre os rostos não são enfatizadas. Como resultado, o reforço em camadas pode melhorar o desempenho do algoritmo enquanto permite que o método lide com um grande número de usuários em vários locais onde o painel do sensor biométrico é implantado. O "reforço de camada" do método pode permitir o processamento do mesmo número de solicitantes em um processador de Máquina de Computação com Conjunto de Instruções Reduzidas Avançadas (ARM) local no painel do sensor biométrico onde a imagem é capturada pela primeira vez, reduzindo assim os requisitos de hardware e processamento e contribuindo para a precisão e a confiabilidade do método, visto que uma falha de rede não pode impedir que o painel do sensor biométrico processe uma verificação de face.[0056] Aspects of the present disclosure may include a method referred to as "layered reinforcement". The method consists of taking the face image of the biometric sensor and superimposing several layers of pixel boxes of different sizes on the image. This layering of pixel boxes of different sizes has an amplifying impact on the analysis of the uniqueness of the face. The most exclusive areas of the face are enlarged. Areas that are most common between faces are not emphasized. As a result, layered reinforcement can improve algorithm performance while allowing the method to handle large numbers of users in multiple locations where the biometric sensor panel is deployed. The "layer reinforcement" of the method can allow processing the same number of requesters on an Advanced Reduced Instruction Set (ARM) Computer Machine processor located on the biometric sensor panel where the image is captured for the first time, thereby reducing the hardware and processing requirements and contributing to the accuracy and reliability of the method, as a network failure cannot prevent the biometric sensor panel from processing a face check.

[0057] Alguns aspectos desta modalidade da invenção cobrem o uso de uma porta (descrita abaixo) para gerenciar os dados analisados pelos vários algoritmos para aumentar o desempenho, diminuindo os resultados falsos negativos e falsos positivos através dos seguintes processos: análise hierárquica da caixa de pixel para criar árvore binária de características dominantes (ou seja, determinar qual é a característica mais distinta); análise de domínio de tempo de caixa de pixel com mapas de calor (ou seja, determinar características ao longo do tempo que são problemáticas devido à sobreposição entre os indivíduos); e colisão de árvore binária (sinalizando sobreposição de dados de assinatura biométrica para dois indivíduos que podem causar um falso positivo e endereçamento de forma proativa).[0057] Some aspects of this modality of the invention cover the use of a port (described below) to manage the data analyzed by the various algorithms to increase performance, decreasing false negative and false positive results through the following processes: hierarchical analysis of the box. pixel to create a binary tree of dominant features (that is, determine which is the most distinct feature); pixel box time domain analysis with heat maps (ie, determining features over time that are problematic due to overlap between individuals); and binary tree collision (signaling biometric signature data overlap for two individuals that can cause a false positive and proactively addressing).

[0058] Os benefícios para o sistema da presente divulgação incluem melhor desempenho quando a precisão requer redução de resultados falsos negativos e falsos positivos. A melhoria também permite os benefícios da comparação 1:1 em um ambiente 1:N como um substituto potencial para a vigilância por vídeo e comparação, abrindo assim o mercado de vigilância em massa para uma precisão significativamente aumentada.[0058] Benefits to the system of the present disclosure include improved performance when accuracy requires reduction of false negative and false positive results. The enhancement also enables the benefits of 1:1 comparison in a 1:N environment as a potential replacement for video surveillance and comparison, thus opening the mass surveillance market to significantly increased accuracy.

[0059] Com referência à FIG. 1, um exemplo de um sistema de identificação 100 para verificação simultânea de identidade em tempo real e autenticação para uso em, por exemplo, permitir o acesso por um solicitante autorizado a um veículo, edifício ou semelhante é ilustrado de acordo com aspectos da presente divulgação.[0059] With reference to FIG. 1, an example of an identification system 100 for simultaneous real-time identity verification and authentication for use in, for example, allowing access by an authorized applicant to a vehicle, building, or the like is illustrated in accordance with aspects of the present disclosure. .

[0060] Deve ser reconhecido que a FIG. 1 se destina a descrever aspectos da divulgação para habilitar aquelas pessoas versadas na técnica. Outras implementações podem ser utilizadas e mudanças podem ser feitas sem se afastar do escopo da presente divulgação.[0060] It should be recognized that FIG. 1 is intended to describe aspects of disclosure to enable those skilled in the art. Other implementations may be used and changes may be made without departing from the scope of this disclosure.

[0061] O sistema de identificação 100 compreende um dispositivo simultâneo de verificação e autenticação de identidade em tempo real 102, incluindo pelo menos um sensor biométrico 104, um processador 106, memória 108, uma tela 110 e mecanismo de entrada/saída 112. O sistema de identificação 100 pode ser usado para proteger ou controlar o acesso a uma área protegida, dispositivo ou informação, como uma área de embarque de aeroporto, edifício, estádio, banco de dados, porta trancada, veículo ou outros ativos/infraestrutura de acesso controlado.[0061] The identification system 100 comprises a simultaneous real-time identity verification and authentication device 102, including at least one biometric sensor 104, a processor 106, memory 108, a screen 110 and input/output mechanism 112. identification system 100 can be used to secure or control access to a secured area, device, or information, such as an airport departure area, building, stadium, database, locked door, vehicle, or other controlled access assets/infrastructure .

[0062] O(s) sensor (es) biométrico(s) 104 pode(m) incluir uma câmera, um leitor de impressão digital, scanner de retina, scanner de reconhecimento facial, sensor de peso, sensor de altura, sensor de temperatura corporal, sensor de movimento, sensor de batimento cardíaco ou qualquer outro sensor ou dispositivo capaz de detectar uma característica biométrica de uma pessoa. Conforme mostrado nas FIGS. 2 a 4, em uma implementação exemplar da presente divulgação, o(s) sensor (es) biométrico(s) 104 pode(m) ser um sensor óptico, como uma câmera.[0062] The biometric sensor(s) 104 may include a camera, a fingerprint reader, retina scanner, facial recognition scanner, weight sensor, height sensor, temperature sensor body, motion sensor, heart rate sensor or any other sensor or device capable of detecting a biometric characteristic of a person. As shown in FIGS. 2-4, in an exemplary implementation of the present disclosure, the biometric sensor(s) 104 may be an optical sensor, such as a camera.

[0063] Em alguns aspectos, o(s) sensor (es) biométrico(s) 104 pode(m) incluir um sensor óptico que captura dados visuais. Por exemplo, o(s) sensor (es)[0063] In some aspects, the biometric sensor(s) 104 may include an optical sensor that captures visual data. For example, the sensor(s)

biométrico(s) 104 pode(m) ser uma câmera que detecta as informações visuais de um solicitante, como as características faciais da pessoa. As características faciais da pessoa podem incluir as texturas, tez, estruturas ósseas, manchas, marcas de nascença, contornos, coloração do rosto da pessoa. O(s) sensor (es) biométrico(s) 104 pode(m) capturar as características faciais da pessoa e converter a informação visual em informação digital detectada (como discutido abaixo).biometric(s) 104 can be a camera that detects a requester's visual information, such as the person's facial features. A person's facial features can include the person's textures, complexion, bone structures, blemishes, birthmarks, contours, coloration of the person's face. The biometric sensor(s) 104 can capture the person's facial features and convert the visual information into detected digital information (as discussed below).

[0064] O processador 106 pode ser configurado para comparar a informação detectada via sensor(es) biométrico(s) 104 com características conhecidas de uma pessoa em uma tentativa de identificar a pessoa por meio de dados de assinatura biométrica. O processador 106 pode incluir qualquer número de processadores, controladores, circuitos integrados, dispositivos lógicos programáveis ou outros dispositivos de computação. O processador 106 pode ser acoplado comunicativamente com o(s) sensor (es) biométrico(s) 104 e outros componentes do sistema 100 por meio de conexões com ou sem fio para permitir que as informações sejam trocadas entre o dispositivo 102 e os dispositivos externos 114 ou os sistemas (por exemplo, rede 116) para permitir a comparação dos dados de assinatura biométrica armazenados com as informações detectadas obtidas a partir do(s) sensor(es) biométrico(s) 104.[0064] Processor 106 may be configured to compare information detected via biometric sensor(s) 104 with known characteristics of a person in an attempt to identify the person by means of biometric signature data. Processor 106 can include any number of processors, controllers, integrated circuits, programmable logic devices, or other computing devices. Processor 106 can be communicatively coupled with biometric sensor(s) 104 and other components of system 100 via wired or wireless connections to allow information to be exchanged between device 102 and external devices. 114 or systems (e.g., network 116) for enabling comparison of the stored biometric signature data with detected information obtained from the biometric sensor(s) 104.

[0065] O processador 106 pode implementar um programa de computador e/ou segmentos de código armazenados na memória 108 para executar algumas das funções aqui descritas.[0065] Processor 106 can implement a computer program and/or code segments stored in memory 108 to perform some of the functions described herein.

O programa de computador pode incluir uma lista ordenada de instruções executáveis para implementar funções lógicas no dispositivo 102. O programa de computador pode ser incorporado em qualquer meio legível por computadorThe computer program may include an ordered list of executable instructions for implementing logic functions in device 102. The computer program may be incorporated into any computer-readable medium

(por exemplo, memória 108) para uso por ou em conexão com um sistema de execução de instrução, aparelho, ou dispositivo, e executar as instruções.(eg, memory 108) for use by or in connection with an instruction execution system, apparatus, or device, and executing the instructions.

A memória 108 pode conter, armazenar, comunicar, propagar ou transportar o programa para uso por ou em conexão com o sistema de execução de instrução, aparelho ou dispositivo.Memory 108 may contain, store, communicate, propagate or transport the program for use by or in connection with the instruction execution system, apparatus or device.

Exemplos de memória 108 podem incluir uma conexão elétrica com um ou mais fios, uma memória de acesso aleatório (RAM), uma memória de apenas leitura (ROM), uma memória de apenas leitura apagável, programável (EPROM ou memória Flash), uma memória de apenas leitura de disquete portátil de computador ou de disco compacto portátil (CDROM). A memóriaExamples of memory 108 may include an electrical connection with one or more wires, a random access memory (RAM), a read-only memory (ROM), an erasable, programmable read-only memory (EPROM or Flash memory), a memory portable computer floppy disk or portable compact disk (CDROM) read-only option. The memory

108 pode ser integral com o dispositivo 102, uma memória autônoma ou uma combinação de ambos.108 may be integral with device 102, a self-contained memory, or a combination of both.

A memória 108 pode incluir, por exemplo, elementos de memória removíveis e não removíveis, como RAM, ROM, Flash, dispositivos de memória magnéticos, ópticos, USB e/ou outros elementos de memória convencionais.Memory 108 can include, for example, removable and non-removable memory elements such as RAM, ROM, Flash, magnetic, optical, USB, and/or other conventional memory elements.

[0066] Em alguns aspectos, a memória 108 pode armazenar as características conhecidas de uma série de pessoas e vários outros dados associados à operação do sistema 100, como o programa de computador e os segmentos de código mencionados acima, ou outros dados para instruir o dispositivo 102 e os outros elementos de dispositivo para realizar os aspectos aqui descritos. Os vários dados armazenados na memória 108 podem ser associados a uma ou mais bases de dados (não mostradas) para facilitar a recuperação da informação, por exemplo, através dos dispositivos externos 114 ou da rede 116. Embora a memória 108 como mostrado na FIG. 1 esteja integrada no dispositivo 102, deve ser reconhecido que a memória 108 pode ser memória autônoma posicionada no mesmo gabinete que o dispositivo 102, ou pode ser memória externa acessível pelo dispositivo 102.[0066] In some aspects, the memory 108 can store the known characteristics of a number of people and various other data associated with the operation of the system 100, such as the computer program and code segments mentioned above, or other data to instruct the device 102 and the other device elements for carrying out the aspects described herein. The various data stored in memory 108 can be associated with one or more databases (not shown) to facilitate retrieval of the information, for example, via external devices 114 or network 116. Although memory 108 as shown in FIG. 1 is integrated in device 102, it should be recognized that memory 108 may be stand-alone memory located in the same cabinet as device 102, or it may be external memory accessible by device 102.

[0067] Em um aspecto, a tela 110 pode ser configurada para exibir várias informações relacionadas ao sistema 100 e suas operações subjacentes. Por exemplo, um dispositivo de notificação pode ser incluído (não mostrado) para indicar a característica biométrica detectada ou o sinal detectado que falha em corresponder às características conhecidas da pessoa e pode incluir um alarme sonoro, um alarme visual e/ou qualquer outro dispositivo de notificação.[0067] In one aspect, screen 110 can be configured to display various information related to system 100 and its underlying operations. For example, a notification device may be included (not shown) to indicate the detected biometric feature or the detected signal that fails to match the person's known characteristics and may include an audible alarm, a visual alarm and/or any other notification device. notification.

[0068] Em um aspecto, o dispositivo 102 também pode incluir mecanismo de entrada/saída 112 para facilitar a troca de dados e outras informações entre os diferentes componentes dentro do dispositivo 102 ou com vários dispositivos externos 114 ou sistemas através da rede 116.[0068] In one aspect, device 102 may also include input/output mechanism 112 to facilitate the exchange of data and other information between different components within device 102 or with various external devices 114 or systems over network 116.

[0069] Por exemplo, várias portas de E/S podem ser contempladas, incluindo uma abertura para cartão SD (Secure Disk Digital), abertura para cartão SD Mini, abertura para cartão SD Micro ou semelhante para receber cartões SD removíveis, cartões SD Mini, cartões SD Micro, ou semelhantes, e uma porta USB para acoplar um cabo USB comunicativamente acoplado a outro dispositivo de computação, como um computador pessoal. Em alguns aspectos, o mecanismo de entrada/saída 112 pode incluir um dispositivo de entrada (não mostrado) para receber informações de identificação sobre uma pessoa a ser identificada. O dispositivo de entrada pode incluir um leitor de bilhetes, um leitor de cartão de crédito, um leitor de identificação, um teclado, uma tela de toque ou qualquer outro dispositivo. Em alguns outros aspectos, como descrito acima, o mecanismo de entrada/saída 112 pode ser configurado para permitir que o dispositivo 102 se comunique com outros dispositivos eletrônicos através da rede 116, como a Internet, uma rede local, uma rede ampla, um ad hoc ou rede ponto a ponto, ou uma conexão direta como[0069] For example, several I/O ports can be contemplated, including an SD (Secure Disk Digital) card slot, Mini SD card slot, Micro SD card slot or similar for receiving removable SD cards, Mini SD cards , Micro SD cards, or the like, and a USB port for attaching a communicatively attached USB cable to another computing device, such as a personal computer. In some aspects, the input/output mechanism 112 may include an input device (not shown) for receiving identifying information about a person to be identified. The input device may include a ticket reader, a credit card reader, an ID reader, a keyboard, a touch screen or any other device. In some other aspects, as described above, the input/output mechanism 112 can be configured to allow the device 102 to communicate with other electronic devices over the network 116, such as the Internet, a local network, a wide network, an ad. hoc or peer-to-peer network, or a direct connection like

USB, Firewire ou conexão BluetoothTM, etc. Em um exemplo, características conhecidas sobre pessoas podem ser armazenadas e recuperadas em bancos de dados remotos ou memória por meio da rede 116. O mecanismo de entrada/saída 112 pode, assim, comunicar-se com a rede 116 utilizando métodos de transferência de dados com fio ou métodos de transferência de dados sem fio, como WiFi (802.11), Wi-Max, BluetoothTM, ANT®, banda ultralarga, infravermelho, telefonia celular, radiofrequência, etc. Em um aspecto, o mecanismo de entrada/saída 112 pode incluir um transceptor celular para transmitir e receber comunicações através de uma rede de comunicações operável com GSM (Sistema Global para Comunicações Móveis), CDMA (Divisão de Código de Acesso Múltiplo) ou quaisquer outros padrões conhecidos.USB, Firewire or BluetoothTM connection, etc. In one example, known characteristics about people can be stored and retrieved in remote databases or memory via the network 116. The input/output mechanism 112 can thus communicate with the network 116 using data transfer methods. wired or wireless data transfer methods such as WiFi (802.11), Wi-Max, BluetoothTM, ANT®, ultra wideband, infrared, cellular telephony, radio frequency, etc. In one aspect, the input/output mechanism 112 may include a cellular transceiver for transmitting and receiving communications over a communications network operable with GSM (Global System for Mobile Communications), CDMA (Multiple Access Code Division) or any others. known patterns.

[0070] O dispositivo 102 também pode incluir uma fonte de alimentação (não mostrada) para fornecer energia elétrica para os vários componentes nele contidos. A fonte de alimentação pode incluir baterias, pacotes de bateria, conduítes de alimentação, conectores e receptáculos operáveis para receber baterias, conectores de bateria ou cabos de alimentação.[0070] Device 102 may also include a power supply (not shown) to provide electrical power to the various components contained therein. The power supply may include batteries, battery packs, power conduits, connectors and receptacles operable to receive batteries, battery connectors, or power cables.

[0071] Em um aspecto, o dispositivo 102 pode ser instalado e posicionado em um ponto de entrada de controle de acesso (não mostrado), como um portão, porta trancada, etc. para evitar que pessoas acessem certas áreas até que o dispositivo 102 determine que a característica biométrica e/ou o sinal correspondam às características conhecidas. Em alguns outros aspectos, como mostrado nas FIGS. 2 a 4, o dispositivo 102 pode ser um dispositivo autônomo, compacto, manual e portátil. Em um exemplo, pode-se usar tal dispositivo autônomo, compacto, manual e portátil para proteger documentos ou informações sensíveis que são armazenados eletronicamente e acessados na Internet e/ou em uma intranet. Em alguns aspectos, uma unidade de acesso de instalação de verificação de identidade simultânea pode usar dados de assinatura biométrica para criar autenticação intercambiável para uma variedade de usos (por exemplo, escritório, casa, telefone inteligente, computador, instalações).[0071] In one aspect, device 102 can be installed and positioned at an access control entry point (not shown), such as a gate, locked door, etc. to prevent people from accessing certain areas until device 102 determines that the biometric characteristic and/or the signal matches the known characteristics. In some other aspects, as shown in FIGS. 2 to 4, device 102 can be a self-contained, compact, handheld, and portable device. In one example, such a self-contained, compact, handheld and portable device can be used to protect sensitive documents or information that are electronically stored and accessed on the Internet and/or an intranet. In some aspects, a simultaneous identity verification facility access unit can use biometric signature data to create interchangeable authentication for a variety of uses (eg office, home, smart phone, computer, premises).

[0072] Com referência à FIG. 5, o processador 106 na FIG. 1 pode ser configurado para incluir, entre outros recursos, um módulo de detecção 502 e um módulo de reconhecimento 508 para fornecer verificação de identidade em tempo real ou quase em tempo real e autenticação com acesso sem chave para solicitantes autorizados a instalações ou informações seguras. O módulo de detecção 502 pode incluir um módulo de detecção de rosto 504 para detectar características faciais de um solicitante. O módulo de detecção 502 pode incluir um módulo de detecção de olho 506 para identificar as localizações dos olhos de um solicitante. Em algumas implementações, o módulo de detecção 520 pode incluir um ou ambos o módulo de detecção de rosto 504 e/ou o módulo de detecção de olho 506. Em alguns aspectos, o processador 106 pode receber entradas (digitais ou analógicas) do(s) sensor(es) 104.[0072] With reference to FIG. 5, processor 106 in FIG. 1 can be configured to include, among other features, a detection module 502 and a recognition module 508 to provide real-time or near real-time identity verification and authentication with keyless access for authorized requesters to secure facilities or information. Detection module 502 may include a face detection module 504 for detecting facial features of an applicant. Detection module 502 may include an eye detection module 506 to identify the locations of an applicant's eyes. In some implementations, detection module 520 may include one or both of face detection module 504 and/or eye detection module 506. In some aspects, processor 106 may receive inputs (digital or analog) from ) sensor(s) 104.

[0073] A FIG. 6 descreve um procedimento de exemplo de seleção de características-chave de um banco de dados com um grande número de informações faciais e construção de um classificador que pode distinguir diferentes faces adequadamente. LBP e LTP podem ser usados para fornecer uma descrição completa das informações de rosto e, em seguida, com o uso de um algoritmo de aprendizagem de reforço adaptativo ("adaboost"), pode-se selecionar características-chave e construir um classificador para distinguir diferentes faces, criando dados de assinatura biométrica. Esses dados de assinatura biométrica podem ser usados para criar verificação e autenticação universal que pode ser usada para uma variedade de aplicativos (por exemplo, computador, acesso a edifícios, smartphone, automóvel, criptografia de dados) com vários graus de acesso e segurança (por exemplo, acesso à rede, mas com maior segurança para o computador do solicitante). No bloco 602, criar um banco de dados de amostra de face. Por exemplo, o processador 106 e o módulo de reconhecimento 508 podem criar um banco de dados de amostra de rosto usando amostras de rosto não reconhecidas. Em uma implementação, o processador 106 e o módulo de reconhecimento 508 podem armazenar, na memória 108, 1000, pessoas diferentes com cada pessoa mostrando 10 posturas e/ou expressões diferentes.[0073] FIG. 6 describes an example procedure of selecting key features from a database with a large amount of facial information and constructing a classifier that can distinguish different faces adequately. LBP and LTP can be used to provide a complete description of the face information and then, using an adaptive reinforcement learning algorithm ("adaboost"), you can select key features and build a classifier to distinguish different faces creating biometric signature data. This biometric signature data can be used to create universal verification and authentication that can be used for a variety of applications (eg computer, building access, smartphone, automobile, data encryption) with varying degrees of access and security (by eg network access, but with greater security for the requester's computer). In block 602, create a face sample database. For example, processor 106 and recognition module 508 can create a face sample database using unrecognized face samples. In one implementation, processor 106 and recognition module 508 can store, in memory 108, 1000, different people with each person showing 10 different postures and/or expressions.

[0074] No bloco 604, extrair os recursos LBP e LTP.[0074] In block 604, extract the LBP and LTP resources.

Por exemplo, o módulo de detecção 502 e/ou o módulo de detecção de rosto 504 podem extrair recursos LBP e LTP de diferentes blocos em diferentes posições de cada amostra de rosto.For example, detection module 502 and/or face detection module 504 can extract LBP and LTP resources from different blocks at different positions of each face sample.

[0075] No bloco 606, calcular a amostra positiva e a amostra negativa. Por exemplo, pelo menos um do módulo de detecção de rosto 502, módulo de detecção de rosto 504 e módulo de detecção de olho 506 podem calcular a distância de valor absoluto da característica para a mesma posição de quaisquer duas imagens diferentes de uma pessoa e definir essa distância como banco de dados de amostra de características positivas. Além disso, o módulo de detecção de rosto 502 e o módulo de detecção de rosto 504 podem, em conjunto ou separadamente, calcular a distância de valor absoluto da característica para a mesma posição de quaisquer duas imagens diferentes de pessoa diferente e definir essa distância como banco de dados de amostra de características negativas.[0075] In block 606, calculate the positive sample and the negative sample. For example, at least one of the face detection module 502, face detection module 504 and eye detection module 506 can calculate the absolute value distance of the feature for the same position of any two different images of a person and define this distance as a sample database of positive traits. In addition, the face detection module 502 and the face detection module 504 can, together or separately, calculate the absolute value distance of the feature for the same position of any two different images of different person and define that distance as sample database of negative characteristics.

[0076] No bloco 608, criar um classificador adaboost. Por exemplo, o módulo de detecção de rosto 502 e o módulo de detecção de rosto 504 podem selecionar a característica-chave mais distinguível do banco de dados de características candidatas com adaboost e criar um classificador de rosto.[0076] In block 608, create an adaboost classifier. For example, face detection module 502 and face detection module 504 can select the most distinguishable key feature from the candidate feature database with adaboost and create a face classifier.

[0077] No bloco 610, gerar o resultado de reconhecimento. Por exemplo, o módulo de reconhecimento 508 pode gerar resultado de reconhecimento. Uma vez que existe um conjunto de dados fixo de macroblocos e o LPB específico variando de 1 a 255 é determinado, um valor é atribuído a essa unidade do conjunto de dados com base no número de pixels dentro do bloco que satisfaz aquele LBP específico.[0077] In block 610, generate the recognition result. For example, recognition module 508 can generate recognition result. Once there is a fixed dataset of macroblocks and the specific LPB ranging from 1 to 255 is determined, a value is assigned to that dataset unit based on the number of pixels within the block that satisfy that specific LBP.

Por exemplo, assumindo um macrobloco de 10 x 10 na unidade número 1 de 255 e LBP de 20, o método 600 determina o número de pixels no histograma que se enquadra nesse LBP de 20 no valor escalar. O método 600 calcula o valor escalar e, em seguida, normaliza o valor em uma segunda matriz para resolver o problema de determinar o valor dentro de vários tamanhos de macrobloco. O valor escalar baseado no método conhecido foi baseado no tamanho do macrobloco, onde o valor máximo pode ser de 100 a 1600, dependendo do tamanho do macrobloco. O valor escalar nesta segunda matriz pode agora ser uma porcentagem do total de pixels disponíveis naquele macrobloco para normalizar os dados para a avaliação subsequente. A normalização faz com que os dados não sejam distorcidos com base no tamanho do macrobloco.For example, assuming a 10 x 10 macroblock in unit number 1 of 255 and LBP of 20, method 600 determines the number of pixels in the histogram that fall within that LBP of 20 in scalar value. Method 600 calculates the scalar value and then normalizes the value into a second array to solve the problem of determining the value within various macroblock sizes. The scalar value based on the known method was based on the macroblock size, where the maximum value can be from 100 to 1600, depending on the macroblock size. The scalar value in this second matrix can now be a percentage of the total pixels available in that macroblock to normalize the data for subsequent evaluation. Normalization makes the data not skewed based on macroblock size.

Após a normalização sob o método melhorado, cada unidade do conjunto de dados nesta segunda matriz tem o mesmo peso.After normalization under the improved method, each unit of the dataset in this second matrix has the same weight.

Esses dados normalizados podem ser classificados para estabelecer e atribuir um valor de 1 a 2165, onde a escala reflete o valor normalizado mais alto indo para o topo da classificação. Por exemplo, se o conjunto de dados 2000 tivesse o valor mais alto na matriz, seria atribuído um valor de 1 com valor decrescente refletindo os conjuntos de dados que têm valores mais baixos. A segunda matriz normalizada pode, então, ser convertida em uma terceira matriz simulada de sequenciamento de dna, onde a posição é estabelecida dentro desta terceira matriz com base em seu valor na classificação anterior. A terceira matriz avalia a posição e calcula as diferenças entre onde o conjunto de dados aparece na sequência (por exemplo, distância de classificação). Este método aprimorado analisa as características em oposição ao valor escalar com base na exclusividade das características dentro da face e não apenas em valores escalares.This normalized data can be ranked to establish and assign a value from 1 to 2165, where the scale reflects the highest normalized value going to the top of the ranking. For example, if dataset 2000 had the highest value in the array, it would be assigned a value of 1 with descending value reflecting the datasets that have the lowest values. The second normalized matrix can then be converted to a simulated third DNA sequencing matrix, where the position is established within this third matrix based on its value in the previous ranking. The third matrix evaluates the position and calculates the differences between where the dataset appears in the sequence (for example, rank distance). This enhanced method analyzes features as opposed to scalar value based on uniqueness of features within the face and not just scalar values.

[0078] No bloco 620, testar a amostra de face. Por exemplo, o módulo de detecção 502 pode opcionalmente testar amostras de rosto.[0078] In block 620, test the face sample. For example, detection module 502 can optionally test face samples.

[0079] No bloco 622, extrair os recursos LBP e LTP.[0079] In block 622, extract the LBP and LTP resources.

Por exemplo, o módulo de detecção 502 e/ou o módulo de detecção de rosto 504 podem extrair recursos LBP e LTP de diferentes blocos em diferentes posições de cada amostra de rosto.For example, detection module 502 and/or face detection module 504 can extract LBP and LTP resources from different blocks at different positions of each face sample.

[0080] Além disso, o reconhecimento online pode incluir as seguintes etapas: (1) Calcular a principal característica extraída do estágio offline de diferentes blocos em diferentes posições para que a amostra de rosto seja identificada.[0080] In addition, online recognition can include the following steps: (1) Calculate the main characteristic extracted from the offline stage of different blocks in different positions so that the face sample is identified.

(2) Calcular a característica chave selecionada na etapa (1) com a de cada amostra de rosto no banco de dados e determinar se elas pertencem à mesma pessoa ou não. Se a distância calculada for menor que o limite definido, pode ser determinado que elas são a mesma pessoa, caso contrário, pode ser determinado que elas não são.(2) Calculate the key characteristic selected in step (1) with that of each face sample in the database and determine whether they belong to the same person or not. If the calculated distance is less than the defined threshold, it can be determined that they are the same person, otherwise it can be determined that they are not.

[0081] Conforme mostrado na FIG. 8, um processo de exemplo começa com a criação de um banco de dados de rosto com diferentes posturas e diferentes expressões. Por exemplo, pode-se incluir as imagens de, por exemplo, 1000, pessoas diferentes e cada pessoa mostra, por exemplo, 10 imagens de forma diferente. A FIG. 7 (a) mostra a imagem de rosto diferente de uma mesma pessoa, e a FIG. 7 (b) se refere à imagem de rosto diferente de pessoa diferente.[0081] As shown in FIG. 8, an example process starts with creating a face database with different postures and different expressions. For example, you can include the images of, for example, 1000 different people and each person shows, for example, 10 images differently. FIG. 7(a) shows the different face image of the same person, and FIG. 7(b) refers to the different face image of a different person.

[0082] LBP e LTP podem ser usados para descrever o rosto. A FIG. 8 mostra um processo de cálculo de recursos LBP, e a FIG. 9 mostra um processo de cálculo de recursos LTP. A fim de obter tantos recursos para descrever as informações do rosto, diferentes tamanhos de bloco podem ser divididos em diferentes posições da amostra de rosto.[0082] LBP and LTP can be used to describe the face. FIG. 8 shows an LBP resource calculation process, and FIG. 9 shows an LTP resource calculation process. In order to get so many features for describing face information, different block sizes can be divided into different face swatch positions.

Por exemplo, o tamanho da face pode ser 100 x 100, o tamanho do bloco pode ser w x h, os valores w e h podem variar de 2 a 100 e blocos de 7837 podem ser selecionados como resultado. O sistema de identificação 100 pode selecionar os recursos de bin de LBP e LTP em diferentes tamanhos de bloco e torná-lo o banco de dados de recurso candidato final.For example, face size can be 100 x 100, block size can be w x h, w and h values can range from 2 to 100, and blocks from 7837 can be selected as a result. The identification system 100 can select LBP and LTP bin resources in different block sizes and make it the final candidate resource database.

[0083] A próxima etapa é calcular amostras positivas e amostras negativas. A distância de valor absoluto do recurso bin da mesma posição para diferentes imagens de uma mesma pessoa pode ser calculada e definida como a amostra positiva. Além disso, a distância do valor absoluto do recurso bin da mesma posição para pessoas diferentes pode ser calculada e definida como a amostra negativa. Por exemplo, o resultado pode envolver o cálculo de 32356 amostras positivas e 58747698 amostras negativas.[0083] The next step is to calculate positive samples and negative samples. The absolute value distance of the bin feature from the same position for different images of the same person can be calculated and defined as the positive sample. Also, the distance of the absolute value of the bin resource from the same position to different people can be calculated and defined as the negative sample. For example, the result may involve calculating 32356 positive samples and 58747698 negative samples.

[0084] Depois disso, o recurso de compartimento chave que pode distinguir todas as amostras positivas e negativas entre o grande número de banco de dados de recursos pode ser selecionado com um algoritmo de aprendizagem. Por exemplo, pode-se escolher o algoritmo de aprendizagem de adaboost discreto para selecionar o recurso e construir um classificador.[0084] After that, the key compartment resource that can distinguish all positive and negative samples among the large number of resource database can be selected with a learning algorithm. For example, one can choose the discrete adaboost learning algorithm to select the resource and build a classifier.

[0085] Um algoritmo de exemplo de uso de adaboost para classificar pode incluir as seguintes etapas computacionais:[0085] An example algorithm of using adaboost to sort may include the following computational steps:

1. Dada f como a taxa de erro de amostra negativa máxima, d como a taxa correta de amostra positiva mínima, Ftar como a meta da taxa de erro de amostra negativa e Dtar como a meta da taxa de correção de amostra positiva que o classificador em cascata deve atingir. P, N são o banco de dados positivo e negativo, respectivamente.1. Given f as the maximum negative sample error rate, d as the minimum positive sample correct rate, Ftar as the target negative sample error rate, and Dtar as the target positive sample correction rate that the classifier cascading must reach. P, N are the positive and negative database, respectively.

2. Definir F0 = 1,0, D0 = 1,0 e i = 0;2. Set F0 = 1.0, D0 = 1.0 and i = 0;

3. Quando Fi > Ftar, i = i + 1, ni = 0, Fi = Fi-1; quando Fi > fx Fi-1, ni = ni+1.3. When Fi > Ftar, i = i + 1, ni = 0, Fi = Fi-1; when Fi > fx Fi-1, ni = ni+1.

4. Calcular o classificador forte com n recursos via adaboost no banco de dados P e N; calcular Fi e Di para o classificador em cascata atual, ajustar o valor limite do classificador forte atual até que a taxa não seja inferior a dxDi-1, N é definido como não vazio.4. Calculate the strong classifier with n resources via adaboost in database P and N; calculate Fi and Di for current cascade classifier, adjust threshold value of current strong classifier until rate is not less than dxDi-1, N is defined as non-empty.

5. Se Fi > Ftar, classificar o classificador em cascata obtido atualmente em outra imagem de amostra negativa e determinar, colocar a imagem determinada incorretamente em N.5. If Fi > Ftar, sort the currently obtained cascade classifier onto another negative sample image and determine, place the incorrectly determined image into N.

1) Dado n amostra de computação (xi, yi),... , (xn, yn), yi = 0, 1, xi apresenta etiqueta de amostra negativa e etiqueta de amostra positiva, respectivamente.1) Given n computation sample (xi, yi),... , (xn, yn), yi = 0, 1, xi presents negative sample tag and positive sample tag, respectively.

2) Inicializar ponderação ωI,i = 1/2m, 1/2l, onde o número de amostras positivas é l e o número de amostras negativas é m.2) Initialize weight ωI,i = 1/2m, 1/2l, where the number of positive samples is l and the number of negative samples is m.

3) Tentar t de 1 a T e executar as etapas abaixo repetidamente: a) Normalizar a ponderação b) Calcular um classificador fraco hj para cada característica fj e marcar a taxa de erro desse classificador c) Averiguar o classificador ht com a menor taxa de erro ωt entre todos os classificadores fracos calculados na última etapa, d) Atualizar a ponderação entre os quais3) Try t from 1 to T and perform the steps below repeatedly: a) Normalize the weighting b) Calculate a weak classifier hj for each characteristic fj and plot the error rate of that classifier c) Find the classifier ht with the lowest rate of ωt error between all weak classifiers calculated in the last step, d) Update the weighting between which

Se x, está classificado corretamente, ei = 0. Caso contrário, ei = 1.If x is classified correctly, ei = 0. Otherwise, ei = 1.

Pegar o classificador forte por último: se então h(x) = 1, caso contrário, h(x) = 0. Lá,Get the strong classifier last: if then h(x) = 1, otherwise h(x) = 0. There,

[0086] A FIG. 10 mostra a posição das três primeiras características-chave selecionadas dentre a imagem do rosto, fazendo testes online para banco de dados de rosto de 100 pessoas com base nas características selecionadas offline e no classificador.[0086] FIG. 10 shows the position of the first three key features selected from the face image, taking online tests for face database of 100 people based on the selected offline features and the classifier.

[0087] A FIG. 11 mostra os resultados de reconhecimento para 100 pessoas, em que o eixo X representa a taxa de aceitação falsa, o que significa a taxa identificada incorretamente de amostras de rosto. O eixo Y representa a taxa de verificação, o que significa a taxa de amostras de rosto reconhecidas corretamente. Como mostrado na FIG. 11, quando a taxa de aceitação falsa está abaixo de 10-4, pode atingir uma taxa de reconhecimento de 95%. O reconhecimento de rosto neste exemplo não só melhora a robustez da amostra de rosto, mas também reduz sua complexidade computacional, melhorando significativamente o reconhecimento de rosto.[0087] FIG. 11 shows the recognition results for 100 people, where the X-axis represents the false acceptance rate, which means the incorrectly identified rate of face samples. The Y-axis represents the verification rate, which means the rate of correctly recognized face samples. As shown in FIG. 11, when the false acceptance rate is below 10-4, it can reach a 95% recognition rate. Face recognition in this example not only improves the robustness of the face sample, but also reduces its computational complexity, significantly improving face recognition.

[0088] Referindo-se novamente à FIG. 5, em alguns aspectos, o módulo de detecção 502 pode ser configurado para usar, entre outros recursos, um módulo de detecção de rosto 504 e um módulo de detecção de olhos 506 para processar a imagem adquirida da pessoa a ser identificada como segue.[0088] Referring again to FIG. 5, in some aspects, detection module 502 may be configured to use, among other features, a face detection module 504 and an eye detection module 506 to process the acquired image of the person to be identified as follows.

Módulo de detecção de rosto 504 - Entradas: Imagem frontal da face adquirida (imagem cinza), classificador de face - Saídas: Posições do quadro do rosto e o número de rostos - Fluxo: a. Reduzir a imagem adquirida da face frontal para o tamanho definido pelo usuário b. Calcular uma imagem integral da imagem reduzida c. Inicializar uma janela transversal com base no tamanho definido pelo classificador de face, por exemplo, 20 x 20 d. Mover a janela transversal na imagem integral da esquerda para a direita e depois de cima para baixo com cada distância de movimento correspondendo a uma distância definida pelo usuário. No entanto, se a distância definida pelo usuário for zero, definir a distância de movimento como 1/20 da largura da janela transversal.Face Detection Module 504 - Inputs: Front face image acquired (gray image), face classifier - Outputs: Face frame positions and number of faces - Flow: a. Reduce acquired front face image to user defined size b. Calculate a full image of the reduced image c. Initialize a transverse window based on the size defined by the face classifier, for example, 20 x 20 d. Move the transverse window on the full image from left to right and then top to bottom with each movement distance corresponding to a user-defined distance. However, if the user-defined distance is zero, set the move distance to 1/20 the width of the transverse window.

e. Usar o classificador de face para determinar se a posição atual da janela transversal define uma parte válida de uma face. Nesse caso, salvar a posição atual do quadro retangular da janela transversal como resultado.and. Use the face classifier to determine if the current position of the transverse window defines a valid part of a face. In that case, save the current position of the cross-window rectangular frame as a result.

f. Depois de percorrer toda a imagem integral, aumentar a largura e o comprimento da janela transversal em 1,1 vezes e repetir a etapa e até que o tamanho da janela transversal exceda o tamanho da imagem ou o buffer alocado para salvar os resultados ser usado.f. After traversing the entire entire image, increase the width and length of the traverse window by 1.1 times and repeat step e until the size of the traverse window exceeds the image size or the buffer allocated to save the results is used.

g. Voltar para a posição da moldura do rosto e faces Módulo de detecção de olhos 506 - Entradas: Imagem frontal adquirida do rosto (imagem cinza), posições da moldura do rosto, classificador para olhos esquerdo e direito, classificador do olho esquerdo, classificador do olho direito, classificador de detecção grosseira do olho esquerdo, classificador da detecção grosseira do olho direito - Saídas: posição da moldura para ambos os olhos, posição da moldura do olho esquerdo e posição da moldura do olho direito - Fluxo:g. Return to Face Frame Position and Faces Eye Detection Module 506 - Inputs: Acquired Front Face Image (Gray Image), Face Frame Positions, Sorter for Left and Right Eyes, Left Eye Sorter, Eye Sorter right, left eye coarse detection classifier, right eye coarse detection classifier - Outputs: frame position for both eyes, left eye frame position and right eye frame position - Flow:

a. Obter a imagem facial a partir da imagem frontal adquirida b. Se o classificador definido pelo usuário para os olhos esquerdo e direito estiver disponível, usar a função de detecção de rosto definida de forma correspondente para detectar os olhos esquerdo e direito da imagem de rosto obtida. Caso contrário, estimar as posições dos olhos esquerdo e direito com base na experiência.The. Obtain facial image from acquired frontal image b. If the user-defined classifier for left and right eyes is available, use the correspondingly defined face detection function to detect the left and right eyes of the acquired face image. Otherwise, estimate left and right eye positions based on experience.

c. Se o classificador de detecção do curso do olho esquerdo/direito definido pelo usuário para o olho esquerdo/direito estiver disponível, detectar o olho esquerdo/direito na metade correspondente da imagem facial obtida. Além disso, com base no resultado da detecção grosseira, determinar se o indivíduo humano detectado está usando óculos ou não. Se houver óculos, detectar a imagem facial obtida e retornar com os resultados. Se não houver óculos, continuar a detectar a imagem do rosto obtida com base no resultado da detecção grosseira e retornar o resultado da detecção sem considerar a presença de óculos.ç. If user defined left/right eye course detection classifier for left/right eye is available, detect left/right eye in corresponding half of obtained facial image. Also, based on the gross detection result, determine whether the detected human individual is wearing glasses or not. If there are glasses, detect the facial image obtained and return with the results. If there are no glasses, continue to detect the obtained face image based on the coarse detection result and return the detection result without considering the presence of glasses.

(Se o classificador definido pelo usuário para o indivíduo que usa óculos não estiver disponível, detectar a imagem do rosto obtida sem considerar a presença de óculos).(If the user-defined classifier for the individual wearing glasses is not available, detect the obtained face image without considering the presence of glasses).

d. Se os classificadores de detecção de curso definidos pelo usuário não estiverem disponíveis, determinar se os óculos estão presentes detectando diretamente a metade esquerda/direita da imagem facial obtida. Se houver óculos, detectar a imagem facial obtida e retornar com os resultados. Se não houver óculos, continuar a detectar a imagem do rosto obtida com base no resultado da detecção grosseira e retornar o resultado da detecção sem considerar a presença de óculos. (Se o classificador definido pelo usuário para o indivíduo que usa óculos não estiver disponível, detectar a imagem do rosto obtida sem considerar a presença de óculos).d. If user-defined course detection classifiers are not available, determine if glasses are present by directly detecting the left/right half of the acquired facial image. If there are glasses, detect the facial image obtained and return with the results. If there are no glasses, continue to detect the obtained face image based on the coarse detection result and return the detection result without considering the presence of glasses. (If the user-defined classifier for the individual wearing glasses is not available, detect the obtained face image without considering the presence of glasses).

e. Retornarand. Turn back

[0089] Em alguns aspectos, o processador 106 pode ainda usar, por exemplo, um módulo de reconhecimento 508, para extrair características faciais pertinentes obtidas a partir do módulo de detecção 502 para comparar com características conhecidas e/ou informações de um número de pessoas autorizadas como segue.[0089] In some aspects, processor 106 can further use, for example, a recognition module 508, to extract pertinent facial features obtained from detection module 502 to compare with known features and/or information from a number of people authorized as follows.

Módulo de Reconhecimento 508 Normalização - Entradas: imagem a ser normalizada (imagem cinza), as coordenadas dos centros dos olhos esquerdo e direito no eixo da imagem (a origem está localizada no canto superior esquerdo da imagem). Os significados dos parâmetros: 1x se refere à coordenada x do ponto central do olho esquerdo (direção horizontal) na imagem de saída dividida pela largura da imagem de saída e 1y se refere à coordenada x do ponto central do olho esquerdo (direção vertical) na imagem de saída dividida pela altura da imagem de saída.Recognition Module 508 Normalization - Inputs: image to be normalized (gray image), the coordinates of the left and right eye centers on the image axis (the origin is located in the upper left corner of the image). The meanings of the parameters: 1x refers to the x coordinate of the center point of the left eye (horizontal direction) in the output image divided by the width of the output image and 1y refers to the x coordinate of the center point of the left eye (vertical direction) in the output image divided by the height of the output image.

- Saída: imagem de saída Extração de característica - Entradas: Imagem normalizada (imagem cinza) e tipos de recursos - Saídas: Se o buffer de saída for NULL, retorna os graus dimensionais do recurso. Caso contrário, supor que o tamanho do buffer de saída seja igual aos graus dimensionais do recurso, gravar os recursos da imagem no buffer e retornar os graus dimensionais do recurso. Certos recursos estão associados a determinado tamanho de imagem.- Output: output image Feature extraction - Inputs: Normalized image (gray image) and resource types - Outputs: If output buffer is NULL, returns the dimensional degrees of the resource. Otherwise, assume the output buffer size equals the resource's dimensional degrees, write the image's resources into the buffer, and return the resource's dimensional degrees. Certain features are associated with a certain image size.

Por exemplo, o recurso # 6 pode exigir o tamanho da imagem de 100 por 100. Portanto, quando a imagem de entrada falha no requisito de tamanho de imagem definido correspondente, um resultado zero pode ser retornado.For example, feature #6 may require the image size of 100 by 100. Therefore, when the input image fails the corresponding defined image size requirement, a zero result may be returned.

Comparação de recursos - Entradas: dois recursos a serem comparados e o método de comparação - Saída: Quanto menor o resultado da comparação (um ponto flutuante), maior será a similaridade.Resource comparison - Inputs: two resources to be compared and the comparison method - Output: The smaller the comparison result (a floating point), the greater the similarity.

Obtendo Informações de Algoritmo - Função: instruir o solicitante a atribuir corretamente os parâmetros do algoritmoGetting Algorithm Information - Function: instruct the requestor to correctly assign algorithm parameters

- Entrada: tipo de algoritmo baseado no contexto de uso - Saídas: informações de parâmetros do algoritmo, incluindo tipo de recurso, graus dimensionais do recurso, tamanho da imagem normalizada, distância mínima, intervalo sugerido e tipo de distância.- Input: Algorithm type based on usage context - Outputs: Algorithm parameter information including feature type, feature dimensional degrees, normalized image size, minimum distance, suggested range and distance type.

[0090] Muitos dos sistemas e métodos descritos acima podem ser usados para criar arquivos de dados de assinatura biométrica ("BSD") que permitem a um sistema identificar e distinguir os solicitantes com alto grau de precisão. Várias implementações da presente divulgação podem empregar os arquivos BSD para criar uma chave de criptografia/descriptografia, aumentando assim a segurança de tais chaves. Exemplos da presente divulgação podem gerar chaves assimétricas com base em um ou mais arquivos BSD de tal forma que, utilizando um sensor biométrico, a medição biométrica de uma pessoa pode atuar como a chave privada dessa pessoa. As implementações da presente divulgação também podem incorporar arquivos BSD na segurança de gerenciamento de direitos digitais (DRM) de tal forma que os arquivos não podem ser descriptografados ou acessados por qualquer pessoa que não seja o solicitante ou grupo de solicitantes pretendido, ou criptografados de uma forma que os proprietários originais, como uma empresa, não podem mais acessar os arquivos. Consequentemente, ao usar implementações da presente divulgação empregando arquivos BSD, quando um arquivo é acessado, pode haver garantia da identidade do solicitante que acessou o arquivo.[0090] Many of the systems and methods described above can be used to create biometric signature data ("BSD") files that allow a system to identify and distinguish applicants with a high degree of accuracy. Various implementations of the present disclosure can employ BSD files to create an encryption/decryption key, thereby increasing the security of such keys. Examples of the present disclosure can generate asymmetric keys based on one or more BSD files such that, using a biometric sensor, a person's biometric measurement can act as that person's private key. Implementations of the present disclosure may also incorporate BSD files into digital rights management (DRM) security in such a way that the files cannot be decrypted or accessed by anyone other than the intended requestor or group of requesters, or encrypted by a so that the original owners, such as a company, can no longer access the files. Consequently, when using implementations of the present disclosure employing BSD files, when a file is accessed, the identity of the requester that accessed the file can be guaranteed.

[0091] Arquivos BSD podem ser gerados pela análise algorítmica de dados de um sensor A/D IR e/ou UV. Por conseguinte, muitos desses elementos podem ser considerados ao construir a chave privada do par assimétrico (ou seja, valores analógicos e/ou digitais). Assim, em algumas implementações da presente divulgação, vários elementos de um sensor podem contribuir com dados em tempo real ou dados analógicos em tempo real relacionados a um evento de reconhecimento a fim de descriptografar, garantindo assim um evento em tempo real (ou seja, a medição real da pessoa pretendida) acionou a autenticação.[0091] BSD files can be generated by algorithmic analysis of data from an A/D IR and/or UV sensor. Therefore, many of these elements can be considered when constructing the asymmetric pair's private key (ie, analog and/or digital values). Thus, in some implementations of the present disclosure, various elements of a sensor can contribute real-time data or real-time analog data related to a recognition event in order to decrypt, thus ensuring a real-time event (ie, the actual measurement of the intended person) triggered authentication.

[0092] Conforme mostrado nas FIGS. 12 a 13, de acordo com algumas implementações da presente divulgação, as mensagens podem ser enviadas da seguinte forma. Um solicitante pode se registrar, por exemplo, em um computador e criar uma chave pública para o solicitante. O solicitante então publica a chave pública para que ela seja conhecida publicamente. Outras pessoas, sistemas ou entidades podem usar a chave pública do solicitante para criptografar mensagens para o solicitante e enviar essas mensagens para o solicitante. O solicitante pode descriptografar a mensagem usando sua chave privada criada por um ou mais arquivos BSD ativos associados ao solicitante. Consequentemente, o remetente da mensagem tem a garantia de que o solicitante é realmente a pessoa que descriptografa a mensagem, porque a chave privada usada para descriptografar a mensagem pode ser gerada pelos dados biométricos ativos do solicitante. Esses sistemas e métodos de criptografia fornecem vantagens substanciais sobre os sistemas e métodos convencionais. Por exemplo, em vez de simplesmente combinar códigos assimétricos anônimos, usando BSD arquivado no processo de criptografia, autenticar porque inerente à própria chave.[0092] As shown in FIGS. 12-13, in accordance with some implementations of the present disclosure, messages may be sent as follows. A requester can register, for example, on a computer and create a public key for the requester. The requester then publishes the public key so that it is publicly known. Other people, systems, or entities can use the requestor's public key to encrypt messages to the requestor and send those messages to the requester. The requestor can decrypt the message using its private key created by one or more active BSD files associated with the requestor. Consequently, the sender of the message is assured that the requester is actually the person who decrypts the message, because the private key used to decrypt the message can be generated by the requestor's active biometric data. These encryption systems and methods provide substantial advantages over conventional systems and methods. For example, instead of simply combining anonymous asymmetric codes, using BSD filed in the encryption process, authenticate because it is inherent in the key itself.

[0093] Várias implementações da presente divulgação também podem melhorar o DRM. Por exemplo, as regras de DRM podem permitir que conteúdo adicional seja adicionado a um arquivo e que regras adicionais sejam necessárias. As regras de DRM podem ser expressas em muitas linguagens de gerenciamento de direitos conhecidas na técnica, incluindo, mas não se limitando a, XrML (linguagem de marcação de direitos extensíveis), XMCL (linguagem de comércio de mídia extensível), ODRL (linguagem de direitos digitais abertos) e semelhantes. As regras podem especificar as ações permitidas (por exemplo, descriptografar, criptografar, transferir, copiar, editar, etc.). As regras também podem especificar as pessoas autorizadas a executar ações e as condições sob as quais essas ações são permitidas. Os arquivos BSD podem ser usados para autenticar um solicitante para determinar se o solicitante é uma das pessoas especificadas nas regras.[0093] Several implementations of this disclosure can also improve DRM. For example, DRM rules can allow additional content to be added to a file and additional rules to be required. DRM rules can be expressed in many rights management languages known in the art, including, but not limited to, XrML (Extensible Rights Markup Language), XMCL (Extensible Media Trading Language), ODRL (Extensible Rights Markup Language), open digital rights) and the like. Rules can specify the allowed actions (eg decrypt, encrypt, transfer, copy, edit, etc.). Rules can also specify the people authorized to perform actions and the conditions under which those actions are allowed. BSD files can be used to authenticate a requestor to determine if the requestor is one of the people specified in the rules.

[0094] Vários sistemas e métodos para criptografia biométrica e autenticação também podem encontrar aplicação em configurações corporativas, onde, por exemplo, os funcionários usam dispositivos corporativos para uso pessoal, bem como negócios, ou quando, por exemplo, um funcionário usa um dispositivo pessoal e o digital corporativo os ativos são transferidos de e para o dispositivo pessoal. Ao aplicar regras a documentos que têm certas assinaturas digitais, pode haver segmentação controlável entre interesses privados e comerciais. Ambas as partes podem ter acesso às partes às quais têm direito, mas podem ser impedidas de acessar as partes que não têm direito de acesso. Por exemplo, os aplicativos possíveis incluem, mas não estão limitados a, fornecer acesso remoto, fazer compras e segurança condicional.[0094] Various systems and methods for biometric encryption and authentication may also find application in corporate settings, where, for example, employees use corporate devices for personal use as well as business, or when, for example, an employee uses a personal device and corporate digital assets are transferred to and from the personal device. By applying rules to documents that have certain digital signatures, there can be controllable segmentation between private and commercial interests. Both parties can have access to the parties to which they are entitled, but they may be prevented from accessing the parties that are not entitled to access. For example, possible apps include, but are not limited to, providing remote access, shopping, and conditional security.

[0095] No caso de acesso remoto, várias implementações da presente divulgação podem gerar arquivos BSD usados para autenticar um solicitante, fornecendo acesso seguro para qualquer conexão de rede remota, ou seja, servidor VPN, acesso seguro ao e-mail da rede e/ou informações de propriedade da empresa, a partir de um dispositivo remoto.[0095] In the case of remote access, various implementations of the present disclosure can generate BSD files used to authenticate a requestor, providing secure access to any remote network connection, ie VPN server, secure access to network email and/ or company-owned information from a remote device.

[0096] Além disso, as técnicas de autenticação biométrica da presente invenção podem ser usadas para fazer compras/transações online autenticadas. Por exemplo, os limites de gastos podem ser baseados no solicitante ou no perfil do grupo de uma conta. Para que um solicitante faça uma compra, um sistema pode usar as técnicas de autenticação biométrica da presente divulgação para autenticar a verdadeira identidade desse solicitante para verificar se o solicitante tem o direito de fazer a compra desejada.[0096] In addition, the biometric authentication techniques of the present invention can be used to make authenticated online purchases/transactions. For example, spending limits can be based on the applicant or an account's group profile. In order for an applicant to make a purchase, a system can use the biometric authentication techniques of this disclosure to authenticate that applicant's true identity to verify that the applicant is entitled to make the desired purchase.

[0097] As técnicas de autenticação biométrica também podem ser usadas para fornecer segurança condicional a vários arquivos digitais. Por exemplo, os arquivos que contêm informações confidenciais só podem ser acessados por solicitantes autorizados, que podem ser autenticados usando os arquivos BSD ativos do solicitante.[0097] Biometric authentication techniques can also be used to provide conditional security to various digital files. For example, files that contain sensitive information can only be accessed by authorized requesters, who can be authenticated using the requester's active BSD files.

Criptografia biométrica e aplicativo de autenticação para cinema digitalBiometric encryption and authentication app for digital cinema

[0098] A criptografia biométrica e as técnicas de autenticação aqui descritas encontram muitas aplicações na indústria do cinema digital. Filmes são bens populares, especialmente antes do lançamento em DVD. Para maximizar a eficiência da produção e as oportunidades de distribuição, os filmes precisam ser acessados e gerenciados por muitos estratos diferentes de solicitantes. Pessoas versadas na técnica reconhecem que as técnicas capazes de proteger ativos digitais na indústria do cinema digital podem ser usadas para proteger ativos digitais em quase qualquer indústria. Consequentemente, os princípios descritos neste documento não se limitam à aplicação na indústria do cinema digital, mas podem ser aplicados a qualquer indústria para uma finalidade semelhante.[0098] The biometric encryption and authentication techniques described here find many applications in the digital cinema industry. Movies are popular goods, especially before DVD release. To maximize production efficiency and distribution opportunities, films need to be accessed and managed by many different strata of applicants. People skilled in the art recognize that techniques capable of protecting digital assets in the digital cinema industry can be used to protect digital assets in almost any industry. Consequently, the principles described in this document are not limited to application in the digital cinema industry, but can be applied to any industry for a similar purpose.

[0099] A segurança do cinema digital se vê como um processo de ponta a ponta, desde a produção, passando pela distribuição até o consumo. SMPTE DC28, o órgão responsável pelos padrões de cinema digital, identificou cinco áreas distintas de cinema digital: (1) captura; (2) produção; (3) Master (cinema, casa, vídeo, trailers, projeções de teste); (4) distribuição (satélite, fibra, empacotado); e (5) exposição (segurança do projetor digital). Em cada área identificada pelo SMPTE DC28, um filme é vulnerável a roubo. Para desencorajar o roubo, os filmes podem ser criptografados antes da distribuição. Os filmes são então armazenados em seu estado criptografado no cinema até a hora do show. Na hora do show, o filme é descriptografado e descompactado. Esta descriptografia/descompressão pode ocorrer em um servidor ou em um projetor.[0099] Digital cinema security is seen as an end-to-end process, from production through distribution to consumption. SMPTE DC28, the body responsible for digital cinema standards, has identified five distinct areas of digital cinema: (1) capture; (2) production; (3) Master (cinema, house, video, trailers, test projections); (4) distribution (satellite, fiber, bundled); and (5) exposure (digital projector security). In each area identified by SMPTE DC28, a film is vulnerable to theft. To discourage theft, movies can be encrypted before distribution. The movies are then stored in their encrypted state at the theater until showtime. At show time, the movie is decrypted and unzipped. This decryption/decompression can take place on a server or on a projector.

[00100] Em um processo SMPTE DC28 exemplar, DC28.4 pode representar as porções de acesso condicional do sistema de entrega de cinema. Os métodos de criptografia[00100] In an exemplary SMPTE DC28 process, DC28.4 can represent the conditional access portions of the cinema delivery system. Encryption methods

DRM do modem provaram ser suficientes para resistir a tentativas de decifração injustificadas, mas proteger as chaves se tornou um problema. Da captura à exibição e distribuição, um filme é criptografado e descriptografado várias vezes. Por conseguinte, várias técnicas de criptografia e autenticação biométrica discutidas neste documento podem ser aplicadas a uma ou mais das etapas de criptografia, descriptografia e autenticação, de acordo com várias implementações da presente divulgação.Modem DRM proved to be sufficient to withstand unwarranted decryption attempts, but protecting the keys became an issue. From capture to exhibition and distribution, a movie is encrypted and decrypted multiple times. Accordingly, various biometric encryption and authentication techniques discussed in this document can be applied to one or more of the encryption, decryption, and authentication steps, in accordance with various implementations of the present disclosure.

[00101] Com referência à FIG. 14, um exemplo de um ambiente 1400 para gerenciamento de dados pode contar com uma primeira porta 1402a, uma segunda porta 1402b e uma terceira porta 1402c para rotear dados através de links de comunicação com fio e/ou sem fio. A primeira porta 1402a pode ser implementada como uma porta baseada em software virtualizado em um sistema de computador. A segunda porta 1402b pode ser um dispositivo autônomo que roteia dados conforme descrito abaixo. A terceira porta 1402c pode ser uma porta baseada em nuvem. Outras arquiteturas são possíveis.[00101] With reference to FIG. 14, an example of a data management environment 1400 may rely on a first port 1402a, a second port 1402b, and a third port 1402c to route data over wired and/or wireless communication links. The first port 1402a can be implemented as a virtualized software-based port on a computer system. The second port 1402b can be a standalone device that routes data as described below. The third port 1402c can be a cloud-based port. Other architectures are possible.

[00102] Em certas implementações, as portas 1402 podem executar várias funções, incluindo o gerenciamento do movimento de dados de e para o sensor biométrico, conforme descrito abaixo, fornecendo uma solução em rede que move com eficiência os dados faciais binários entre os dispositivos e quando agrupados (físicos e virtual), fornecendo uma solução de alta disponibilidade para projetos de segurança. A porta 1402 pode receber dados de credenciamento por meio de uma estrutura de arquivo XML. Ao monitorar e consumir ativamente os arquivos XML, a porta 1402 pode ser capaz de utilizar uma interface universal padronizada agnóstica para a linguagem de programação, sistema operacional e tipo de conectividade da fonte de dados, suportar requisitos de controle de acesso físico e lógico dentro do mesmo método, oferecer uma interface que suporta conectividade simultânea de diferentes tipos de sistema e/ou suporta o processamento ao vivo ou em lote de credenciais, incluir a recuperação imediata de um sistema de credenciais por meio da substituição de arquivos.[00102] In certain implementations, ports 1402 can perform various functions, including managing the movement of data to and from the biometric sensor, as described below, providing a networked solution that efficiently moves binary facial data between devices and when grouped (physical and virtual), providing a high availability solution for security projects. Port 1402 can receive accreditation data through an XML file structure. By actively monitoring and consuming XML files, port 1402 may be able to use a standardized universal interface agnostic to the programming language, operating system and data source connectivity type, support physical and logical access control requirements within the same method, provide an interface that supports simultaneous connectivity of different types of system and/or supports live or batch processing of credentials, includes immediate retrieval of a system of credentials through file replacement.

[00103] O ambiente 1400 pode incluir uma ou mais placas frontais 1404, por exemplo, placa frontal-a 1404a, placa frontal-b 1404b, placa frontal-c 1404c, placa frontal-d 1404d, placa frontal-e 1404e e placa frontal-f 1404f. As placas frontais 1404 podem transmitir dados para as portas 1402 para serem roteados para outro dispositivo dentro do ambiente 1400. Por exemplo, a placa frontal-a 1404a pode enviar um modelo biométrico e/ou informações de identidade de uma pessoa para a terceira porta 1402c. A terceira porta 1402c pode enviar um ou mais modelos biométricos para a placa frontal-a 1404a para executar operações de correspondência.[00103] The 1400 environment can include one or more faceplates 1404, for example, faceplate-a 1404a, faceplate-b 1404b, faceplate-c 1404c, faceplate-d 1404d, faceplate-e 1404e, and faceplate -f 1404f. Faceplates 1404 can transmit data to ports 1402 to be routed to another device within environment 1400. For example, faceplate 1404a can send a person's biometric template and/or identity information to the third port 1402c . Third port 1402c can send one or more biometric templates to faceplate 1404a to perform matching operations.

[00104] Ainda com referência à FIG. 14, em certas implementações, o ambiente 1400 pode incluir um servidor de controle de acesso 1406a, um servidor corporativo 1406b e um servidor de terceiros 1406c. O servidor de controle de acesso 1406a pode ser acoplado comunicativamente a um ou mais pontos de entrada de acesso controlado 1408 por meio de um link de comunicação com ou sem fio. O servidor corporativo 1406b pode ser acoplado comunicativamente a um dispositivo de armazenamento 1410. O dispositivo de armazenamento 1410 pode ser uma unidade de rede, disco rígido local, unidade flash, unidade de fita ou outra mídia de armazenamento adequada.[00104] Still referring to FIG. 14, in certain implementations, environment 1400 may include an access control server 1406a, an enterprise server 1406b, and a third-party server 1406c. Access control server 1406a may be communicatively coupled to one or more access controlled entry points 1408 via a wired or wireless communication link. Enterprise server 1406b may be communicatively coupled to storage device 1410. Storage device 1410 may be a network drive, local hard drive, flash drive, tape drive, or other suitable storage media.

[00105] Ainda com referência à FIG. 14, durante as operações, por exemplo, a placa frontal-b 1404b pode receber um modelo biométrico de um primeiro solicitante 1450a. O primeiro solicitante 1450a pode tentar acessar um ou mais pontos de entrada de acesso controlado 1408 controlados pelo servidor de controle de acesso 1406a. Os um ou mais pontos de entrada de acesso controlado 1408 podem incluir uma abóbada, fechadura, porta segura, portão seguro, equipamento ou maquinaria, dispositivo de computação, dispositivo de armazenamento digital, banco de dados ou arquivo, por exemplo. Em alguns exemplos, um ou mais pontos de entrada de acesso controlado 1408 podem ser uma porta ou portão de acesso controlado de uma infraestrutura, tal como um armazém, prédio de escritórios, área restrita, etc. O modelo biométrico do primeiro solicitante 1450a pode incluir um ou mais de impressões digitais, padrões de voz, padrões de íris, características faciais, padrões de assinatura, formas das orelhas, padrões retinais, movimento, geometria da mão do primeiro solicitante 1450a.[00105] Still referring to FIG. 14, during operations, for example, faceplate-b 1404b may receive a biometric template of a first applicant 1450a. The first requester 1450a may attempt to access one or more controlled access entry points 1408 controlled by access control server 1406a. The one or more controlled access entry points 1408 may include a vault, lock, secure door, secure gate, equipment or machinery, computing device, digital storage device, database or archive, for example. In some examples, one or more controlled access entry points 1408 may be a controlled access door or gate to an infrastructure, such as a warehouse, office building, restricted area, etc. The 1450a first applicant biometric template may include one or more of the 1450a first applicant's fingerprints, voice patterns, iris patterns, facial features, signature patterns, ear shapes, retinal patterns, movement, hand geometry.

[00106] Em certas implementações, a placa frontal-b 1404b pode extrair as características faciais do primeiro solicitante 1450a e comparar as características faciais com as características faciais do pessoal autorizado. Se a característica facial do primeiro solicitante 1450a corresponder a uma das características faciais do pessoal autorizado, a placa frontal-b 1404b pode enviar um primeiro sinal de correspondência positivo para a terceira porta 1402c. A terceira porta 1402c pode rotear o primeiro sinal de correspondência positivo para o servidor de controle de acesso 1406a. Ao receber o primeiro sinal de correspondência positivo, o servidor de controle de acesso 1406a pode desbloquear um dos um ou mais pontos de entrada de acesso controlado 1408 associados à placa frontal-b 1404b para permitir o acesso do solicitante 1450. Se a característica facial do primeiro solicitante 1450a não corresponder a uma das características faciais do pessoal autorizado, o primeiro solicitante 1450a pode não obter acesso ao ponto de entrada 1408 associado à placa frontal-b 1404b.[00106] In certain implementations, the b-face 1404b may extract the facial features of the first applicant 1450a and compare the facial features with the facial features of the authorized personnel. If the facial feature of the first applicant 1450a matches one of the facial features of the authorized personnel, the face-b 1404b can send a first positive match signal to the third port 1402c. The third port 1402c can route the first positive match signal to the access control server 1406a. Upon receiving the first positive match signal, the access control server 1406a may unlock one of the one or more access controlled entry points 1408 associated with the b-faceplate 1404b to allow access by the requestor 1450. first applicant 1450a does not match one of the facial features of the authorized personnel, the first applicant 1450a may not gain access to entry point 1408 associated with faceplate 1404b.

[00107] Ainda com referência à FIG. 14, em certos exemplos, a placa frontal-d 1404d pode transmitir um segundo sinal de correspondência positivo de um segundo solicitante 1450b em um primeiro momento e um terceiro sinal de correspondência positivo em um segundo momento do segundo solicitante 1450b para a segunda porta 1402b. A segunda porta 1402b pode rotear o segundo sinal de correspondência positivo e o terceiro sinal de correspondência positivo para a primeira porta 1402a, que pode rotear o segundo e o terceiro sinais de correspondência positivos para o servidor corporativo 1406b. O servidor corporativo 1406b pode usar o segundo sinal de correspondência positivo e o terceiro sinal de correspondência positivo para registrar informações de acesso associadas ao segundo solicitante 1450b. Por exemplo, o servidor corporativo 1406b pode registrar, no dispositivo de armazenamento 1410, a primeira vez como a hora de chegada do segundo solicitante 1450b e a segunda vez como a hora de partida em um dia útil. Em outro exemplo, o servidor corporativo 1406b pode registrar a primeira e a segunda vez como o número de acessos a um ou mais pontos de entrada de acesso controlado 1408 pelo segundo solicitante 1450b. O servidor corporativo 1406b também pode registrar, com base nas informações do segundo e terceiro sinais de correspondência positivos, as instalações, equipamentos, arquivos, locais e informações acessados pelo segundo solicitante 1450b.[00107] Still referring to FIG. 14, in certain examples, the d-faceplate 1404d may transmit a second positive match signal from a second requester 1450b at a first time and a third positive match signal at a second time from the second requester 1450b to the second port 1402b. The second port 1402b can route the second positive match and the third positive match to the first port 1402a, which can route the second and third positive match to the enterprise server 1406b. Enterprise server 1406b can use the second positive match and the third positive match to record access information associated with the second requester 1450b. For example, enterprise server 1406b might record, on storage device 1410, the first time as the arrival time of the second requester 1450b and the second time as the departure time on a business day. In another example, enterprise server 1406b may record the first and second times as the number of accesses to one or more controlled access entry points 1408 by the second requester 1450b. Enterprise server 1406b may also record, based on information from the second and third positive match signals, the facilities, equipment, files, locations, and information accessed by the second requester 1450b.

[00108] Com referência ainda à FIG. 14, em certas implementações, a placa frontal-f 1404f pode transmitir um quarto sinal de correspondência positivo do terceiro solicitante 1450c para a primeira porta 1402a. A primeira porta 1402a pode rotear o quarto sinal de correspondência positiva para o servidor de terceiros 1406c através de um firewall 1412. O firewall 1412 pode filtrar informações transmitidas através do firewall 1412 e evitar que solicitantes maliciosos obtenham acesso não autorizado. O quarto sinal de correspondência positivo pode indicar ao servidor de terceiros 1406c que o terceiro solicitante 1450c ganhou acesso a um ou mais pontos de entrada de acesso controlado 1408. Por exemplo, o quarto sinal de correspondência positivo pode indicar ao servidor de terceiros 1406c que o terceiro o solicitante 1450c acessou um software que exige pagamento ao proprietário do servidor 1406c de terceiros.[00108] With further reference to FIG. 14, in certain implementations, faceplate 1404f may transmit a fourth positive match signal from the third requester 1450c to the first port 1402a. The first port 1402a can route the fourth positive match signal to the third-party server 1406c through a firewall 1412. Firewall 1412 can filter information transmitted through firewall 1412 and prevent malicious requesters from gaining unauthorized access. The fourth positive match signal may indicate to the third-party server 1406c that the third requester 1450c has gained access to one or more controlled access entry points 1408. For example, the fourth positive match may indicate to the third-party server 1406c that the third party requester 1450c accessed software that requires payment from the owner of the third party server 1406c.

[00109] Ainda com referência à FIG. 14, em certos exemplos, um administrador de rede 1452 pode instalar,[00109] Still referring to FIG. 14, in certain instances, a 1452 network administrator can install,

gerenciar, atualizar, manter e/ou controlar o software nas placas frontais 1404, nas portas 1402, no servidor de controle de acesso 1406a, em um ou mais pontos de entrada de acesso controlado 1408, no servidor corporativo 1406b, no dispositivo de armazenamento 1410 e/ou no firewall 1412 através de uma estação de trabalho 1414. A estação de trabalho 1414 pode ser um computador desktop, laptop, tablet, computador portátil, smartphone ou outros dispositivos de computador adequados comunicativamente acoplados por meio de uma conexão com fio ou sem fio à terceira porta 1402c. O administrador de rede 1452 pode transmitir comandos de software da estação de trabalho 1414 para a terceira porta 1402c para serem roteados para um destino. Em alguns exemplos, o administrador de rede 1452 pode atualizar o firmware nas placas frontais 1404. Em outros exemplos, o administrador de rede 1452 pode instalar um novo software no servidor de controle de acesso 1406a.manage, update, maintain and/or control software on faceplates 1404, ports 1402, access control server 1406a, one or more controlled access entry points 1408, corporate server 1406b, storage device 1410 and/or firewall 1412 through a workstation 1414. Workstation 1414 may be a desktop computer, laptop, tablet, laptop, smartphone, or other suitable computer devices communicatively coupled via a wired or wireless connection wire to the third port 1402c. Network administrator 1452 can transmit software commands from workstation 1414 to third port 1402c to be routed to a destination. In some examples, the 1452 network administrator might update firmware on the 1404 faceplates. In other examples, the 1452 network administrator might install new software on the 1406a access control server.

Em outro exemplo, o administrador de rede 1452 pode executar operações de manutenção, como verificação de erro de disco e desfragmentação, no dispositivo de armazenamentoIn another example, the 1452 network administrator can perform maintenance operations, such as disk error checking and defragmentation, on the storage device.

1410. Em outro exemplo, o administrador de rede 1452 pode bloquear ou abrir um ou mais pontos de entrada de acesso controlado 1408 em uma emergência.1410. In another example, network administrator 1452 may lock or open one or more controlled access entry points 1408 in an emergency.

[00110] Com referência à FIG. 14, em algumas implementações, um funcionário 1454, como um supervisor,[00110] With reference to FIG. 14, in some implementations, an employee 1454, as a supervisor,

pode utilizar um terminal solicitante 1416 para acessar informações através da segunda porta 1402b. O terminal solicitante 1416 pode ser um computador desktop, laptop, tablet, computador portátil, smartphone ou outros dispositivos de computador adequados acoplados comunicativamente por meio de uma conexão com fio ou sem fio à segunda porta 1402b. Em alguns exemplos, o funcionário 1454 pode baixar informações, como horas de trabalho, hora de chegada, histórico de acesso, frequências de utilização, usando o terminal solicitante 1416.can use a requester terminal 1416 to access information through the second port 1402b. Requester terminal 1416 may be a desktop computer, laptop, tablet, laptop, smartphone, or other suitable computer devices communicatively coupled via a wired or wireless connection to the second port 1402b. In some examples, employee 1454 can download information, such as working hours, arrival time, access history, usage frequencies, using the requesting terminal 1416.

[00111] Em certos exemplos, as trocas de dados dentro do ambiente 1400 podem ser criptografadas. As transmissões de dados entre as portas 1402 e as placas frontais 1404 podem usar comunicações TLS v1.2 avançadas com uma estrutura de gerenciamento de chave proprietária.[00111] In certain examples, data exchanges within the 1400 environment may be encrypted. Data transmissions between ports 1402 and faceplates 1404 can use advanced TLS v1.2 communications with a proprietary key management framework.

Os dados transmitidos por meio de comunicações TLS v1.2 podem ser totalmente criptografados para remover a ameaça de exposição dos dados a partes indesejadas. A criptografia dos dados pode ser protegida ainda mais protegendo a geração das chaves criptografadas por meio do uso dos dados biométricos como a semente para a geração das chaves. Como tal, os dados trocados dentro do ambiente podem ser difíceis de acessar por solicitantes não autorizados.Data transmitted over TLS v1.2 communications can be fully encrypted to remove the threat of exposing the data to unwanted parties. Data encryption can be further protected by protecting the generation of encrypted keys through the use of biometric data as the seed for key generation. As such, data exchanged within the environment can be difficult to access by unauthorized requesters.

[00112] Além disso, as portas 1402 podem ser usadas para gerenciar os dados e a criação de um blockchain para os solicitantes. A primeira porta 1402a, a segunda porta 1402b e a terceira porta 1402c podem incluir, cada uma, uma carteira blockchain. As carteiras conterão as credenciais pessoais do solicitante, necessárias para autenticação em qualquer dispositivo ou aplicativo. As carteiras podem ser amarradas às portas 1402 para fornecer monitoramento de segurança cibernética e para fornecer a interação entre a carteira e os dispositivos de reconhecimento facial. As placas frontais 1404 vinculadas ao blockchain pessoal podem ser capazes de permitir uma transação no blockchain. As comunicações entre carteiras de blockchain, um registro para as transações de blockchain e as portas 1402 podem usar o protocolo blockchain. O blockchain pessoal também se estenderá a dispositivos que verificam mais de um solicitante, como um caixa eletrônico de banco (não mostrado). As portas 1402 utilizarão o rastreamento de localização para mover os dados faciais binários do link e o link para o registro blockchain entre dispositivos compartilhados para melhorar a segurança das transações e para gerenciar o número de solicitantes mantidos dentro de cada placa frontal 1404.[00112] In addition, ports 1402 can be used to manage data and blockchain creation for requesters. First port 1402a, second port 1402b, and third port 1402c can each include a blockchain wallet. The wallets will contain the applicant's personal credentials necessary for authentication on any device or application. Wallets can be tethered to ports 1402 to provide cyber security monitoring and to provide interaction between the wallet and facial recognition devices. The 1404 faceplates linked to the personal blockchain may be able to allow a transaction on the blockchain. Communications between blockchain wallets, a registry for blockchain transactions, and ports 1402 can use the blockchain protocol. The personal blockchain will also extend to devices that check more than one requestor, such as a bank ATM (not shown). Ports 1402 will use location tracking to move the link binary facial data and the link to the blockchain record between shared devices to improve transaction security and to manage the number of requesters maintained within each 1404 faceplate.

[00113] Aspectos da presente divulgação podem ser implementados usando hardware, software, uma rede em nuvem ou uma combinação dos mesmos e podem ser implementados em um ou mais sistemas de computador ou outros sistemas de processamento. Em um aspecto da presente divulgação, os recursos são direcionados a um ou mais sistemas de computador capazes de realizar a funcionalidade aqui descrita. Um exemplo de tal sistema de computador 1500 é mostrado na FIG. 15. Uma ou mais das portas 1402, dos servidores 1406, do firewall 1412, da estação de trabalho 1414 e/ou do terminal solicitante 1416 podem ser implementados com base no sistema de computador 1500.[00113] Aspects of the present disclosure may be implemented using hardware, software, a cloud network or a combination thereof, and may be implemented in one or more computer systems or other processing systems. In one aspect of the present disclosure, resources are directed to one or more computer systems capable of performing the functionality described herein. An example of such a computer system 1500 is shown in FIG. 15. One or more of ports 1402, servers 1406, firewall 1412, workstation 1414, and/or requesting terminal 1416 may be implemented based on computer system 1500.

[00114] Com referência agora à FIG. 15, o sistema de computador 1500 inclui um ou mais processadores, como o processador 1504. O processador 1504 é acoplado comunicativamente a uma infraestrutura de comunicação 1506 (por exemplo, um barramento de comunicação, barra cruzada ou rede). Vários aspectos de software são descritos em termos deste sistema de computador de exemplo. Depois de ler esta descrição, ficará evidente para uma pessoa versada na(s) técnica(s) relevante(s) como implementar aspectos da divulgação usando outros sistemas de computador e/ou arquiteturas.[00114] Referring now to FIG. 15, computer system 1500 includes one or more processors, such as processor 1504. Processor 1504 is communicatively coupled to a communication infrastructure 1506 (e.g., a communication bus, crossbar, or network). Various aspects of software are described in terms of this example computer system. After reading this description, it will be evident to a person versed in the relevant technique(s) how to implement aspects of the disclosure using other computer systems and/or architectures.

[00115] O sistema de computador 1500 pode incluir uma interface de exibição 1502 que encaminha gráficos, texto e outros dados da infraestrutura de comunicação 1506 (ou de um buffer de quadro não mostrado) para exibição em uma unidade de exibição 1530. O sistema de computador 1500 também inclui uma memória principal 208, de preferência memória de acesso aleatório (RAM), e também pode incluir uma memória secundária 1510. A memória secundária 1510 pode incluir, por exemplo, uma unidade de disco rígido 1512 e/ou uma unidade de armazenamento removível 1514, representando uma unidade de disquete, unidade de fita magnética, unidade de disco óptico, unidade flash de barramento serial universal (USB), etc. A unidade de armazenamento removível 1514 lê e/ou grava em uma unidade de armazenamento removível 1518 de uma maneira bem conhecida. A unidade de armazenamento removível 1518 representa um disquete, fita magnética, disco óptico, unidade flash, USB etc., que é lida e gravada na unidade de armazenamento removível 1514.[00115] Computer system 1500 may include a display interface 1502 that forwards graphics, text and other data from the communication infrastructure 1506 (or a frame buffer not shown) for display on a display unit 1530. computer 1500 also includes main memory 208, preferably random access memory (RAM), and may also include secondary memory 1510. Secondary memory 1510 may include, for example, a hard disk drive 1512 and/or a hard disk drive. removable storage 1514, representing a floppy disk drive, magnetic tape drive, optical disk drive, universal serial bus (USB) flash drive, etc. Removable storage unit 1514 reads and/or writes to removable storage unit 1518 in a well-known manner. Removable Storage Drive 1518 represents a floppy disk, magnetic tape, optical disk, flash drive, USB, etc., which is read and written to Removable Storage Drive 1514.

Como será reconhecido, a unidade de armazenamento removível 1518 inclui um meio de armazenamento utilizável por computador tendo armazenados nele software e/ou dados de computador.As will be recognized, removable storage unit 1518 includes a computer-usable storage medium having computer software and/or data stored thereon.

[00116] Aspectos alternativos da presente divulgação podem incluir memória secundária 1510 e podem incluir outros dispositivos semelhantes para permitir que programas de computador ou outras instruções sejam carregados no sistema de computador 1500. Tais dispositivos podem incluir, por exemplo, uma unidade de armazenamento removível 1522 e uma interface 1520. Exemplos de tais podem incluir um cartucho de programa e uma interface de cartucho (como a encontrada em dispositivos de videogame), um chip de memória removível (como uma memória de apenas leitura programável apagável (EPROM) ou memória de apenas leitura programável (PROM)) e tomada associada, e outras unidades de armazenamento removíveis 1522 e interfaces 1520, que permitem que software e dados sejam transferidos da unidade de armazenamento removível 1522 para o sistema de computador 1500.[00116] Alternative aspects of the present disclosure may include secondary memory 1510 and may include other similar devices to allow computer programs or other instructions to be loaded into computer system 1500. Such devices may include, for example, a removable storage unit 1522 and a 1520 interface. Examples of such may include a program cartridge and a cartridge interface (such as found in video game devices), a removable memory chip (such as erasable programmable read-only memory (EPROM) or memory-only memory. programmable read (PROM)) and associated socket, and other removable storage units 1522 and interfaces 1520, which allow software and data to be transferred from removable storage unit 1522 to computer system 1500.

[00117] O sistema de computador 1500 também pode incluir uma interface de comunicação 1524. A interface de comunicação 1524 permite que software e dados sejam transferidos entre o sistema de computador 1500 e dispositivos externos. Exemplos de interface de comunicação 1524 podem incluir um modem, uma interface de rede (como uma placa Ethernet), uma porta de comunicação, uma abertura e cartão da Associação Internacional de Cartão de Memória de Computador Pessoal (PCMCIA), etc. O software e os dados transferidos por meio da interface de comunicação 1524 são na forma de sinais 1528, que podem ser sinais eletrônicos, eletromagnéticos, ópticos ou outros sinais capazes de serem recebidos pela interface de comunicações 1524. Esses sinais 1528 são fornecidos à interface de comunicações 1524 por meio de um caminho de comunicação (por exemplo, canal)[00117] Computer system 1500 may also include a communication interface 1524. Communication interface 1524 allows software and data to be transferred between computer system 1500 and external devices. Examples of 1524 communication interface may include a modem, a network interface (such as an Ethernet card), a communication port, an International Association of Personal Computer Memory Card (PCMCIA) card slot and card, etc. The software and data transferred via the 1524 communication interface are in the form of signals 1528, which may be electronic, electromagnetic, optical, or other signals capable of being received by the 1524 communications interface. 1524 communications through a communication path (eg channel)

1526. Este caminho 1526 transporta sinais 1528 e pode ser implementado usando um ou mais de um fio ou cabo, fibra óptica, linha telefônica, link de celular, link de RF e/ou outros canais de comunicação. Neste documento, os termos "meio de programa de computador" e "meio utilizável em computador" são usados para se referir geralmente a mídia como uma unidade de armazenamento removível 1518, um disco rígido instalado na unidade de disco rígido 1512 e sinais1526. This path 1526 carries signals 1528 and can be implemented using one or more of a wire or cable, fiber optic, telephone line, cellular link, RF link, and/or other communication channels. In this document, the terms "computer program medium" and "computer usable medium" are used to refer generally to media such as a 1518 removable storage drive, a hard disk installed in the 1512 hard disk drive, and signs

1528. Estes produtos de programa de computador fornecem software para o sistema de computador 1500. Aspectos da presente divulgação são direcionados a tais produtos de programa de computador.1528. These computer program products provide software for computer system 1500. Aspects of the present disclosure are directed to such computer program products.

[00118] Programas de computador (também referidos como lógica de controle de computador) são armazenados na memória principal 1508 e/ou memória secundária 1510. Os programas de computador também podem ser recebidos através da interface de comunicação 1524. Tais programas de computador, quando executados, habilitam o sistema de computador 1500 para executar os recursos de acordo com aspectos da presente divulgação, conforme discutido neste documento. Em particular, os programas de computador, quando executados, permitem que o processador 1504 execute os recursos de acordo com aspectos da presente divulgação.[00118] Computer programs (also referred to as computer control logic) are stored in main memory 1508 and/or secondary memory 1510. Computer programs can also be received through communication interface 1524. Such computer programs, when performed, enable computer system 1500 to perform the features in accordance with aspects of the present disclosure, as discussed in this document. In particular, computer programs, when executed, allow processor 1504 to execute resources in accordance with aspects of the present disclosure.

Por conseguinte, tais programas de computador representam controladores do sistema de computador 1500.Therefore, such computer programs represent controllers of computer system 1500.

[00119] Em um aspecto da presente divulgação em que o método é implementado usando software, o software pode ser armazenado em um produto de programa de computador e carregado no sistema de computador 1500 usando unidade de armazenamento removível 1514, disco rígido 1512 ou interface de comunicação 1520. A lógica de controle (software), quando executada pelo processador 1504, faz com que o processador 1504 execute as funções aqui descritas.[00119] In one aspect of the present disclosure where the method is implemented using software, the software can be stored in a computer program product and loaded into computer system 1500 using removable storage drive 1514, hard drive 1512, or computer interface. 1520 communication. The control logic (software), when executed by the 1504 processor, causes the 1504 processor to perform the functions described herein.

Em outro aspecto da presente divulgação, o sistema é implementado principalmente em hardware usando, por exemplo, componentes de hardware, como circuitos integrados de aplicativos específicos (ASICs). A implementação da máquina de estado de hardware de modo a executar as funções descritas neste documento será evidente para as pessoas versadas na(s) técnica(s) relevante(s).In another aspect of the present disclosure, the system is implemented primarily in hardware using, for example, hardware components such as application specific integrated circuits (ASICs). Implementing the hardware state machine in order to perform the functions described in this document will be evident to those skilled in the relevant technique(s).

[00120] A FIG. 16 ilustra um diagrama de blocos de vários componentes de sistema de exemplo, de acordo com um aspecto da presente divulgação. A Fig. 16 mostra um sistema de comunicação 1600 utilizável de acordo com aspectos da presente divulgação. O sistema de comunicação 1600 inclui um ou mais acessadores 1660, 1662 e um ou mais terminais 1642, 1666. Em um aspecto, os dados para uso de acordo com aspectos da presente divulgação são, por exemplo, entrada e/ou acessado por acessadores 1660, 1662 via terminais 1642, 1666, como computadores pessoais (PCs), minicomputadores, computadores mainframe, microcomputadores, dispositivos telefônicos ou dispositivos sem fio, como assistentes digitais pessoais ("PDAs") ou dispositivos sem fio portáteis acoplados a um servidor 1643, como um PC, minicomputador, computador mainframe, microcomputador ou outro dispositivo com um processador e um repositório de dados e/ou conexão a um repositório de dados, por meio, por exemplo, de uma rede 1644, como a Internet ou uma intranet e acoplamentos 1645, 1646, 1664.[00120] FIG. 16 illustrates a block diagram of various example system components, in accordance with an aspect of the present disclosure. Fig. 16 shows a communication system 1600 usable in accordance with aspects of the present disclosure. Communication system 1600 includes one or more accessors 1660, 1662 and one or more terminals 1642, 1666. In one aspect, data for use in accordance with aspects of the present disclosure is, for example, input and/or accessed by accessors 1660 , 1662 via terminals 1642, 1666, such as personal computers (PCs), minicomputers, mainframe computers, personal computers, telephone devices, or wireless devices such as personal digital assistants ("PDAs") or portable wireless devices attached to a 1643 server, such as a PC, minicomputer, mainframe computer, microcomputer or other device with a processor and a data repository and/or connection to a data repository, through, for example, a 1644 network such as the Internet or an intranet and 1645 couplings , 1646, 1664.

Os acoplamentos 1645, 1646, 1664 incluem, por exemplo, links com fio, sem fio e/ou de fibra óptica. Em outra variação de exemplo, o método e o sistema de acordo com aspectos da presente divulgação operam em um ambiente autônomo, como em um único terminal.Couplings 1645, 1646, 1664 include, for example, wired, wireless and/or fiber optic links. In another example variation, the method and system according to aspects of the present disclosure operate in a standalone environment, such as a single terminal.

[00121] Voltando agora para a FIG. 17, um exemplo de um placa frontal 1404 que está configurado para realizar o controle de acesso pode analisar um modelo biométrico de um solicitante 1450 para determinar se o solicitante 1450 está autorizado a obter acesso a um ponto de entrada (não mostrado) associado aa placa frontal 1404. A placa frontal 1404 pode incluir um sensor óptico 1702, uma fonte de iluminação 1704, um visor 1706, um teclado 1708 e um scanner 1710.[00121] Turning now to FIG. 17, an example of a faceplate 1404 that is configured to perform access control can analyze a biometric template of an applicant 1450 to determine if the applicant 1450 is authorized to gain access to an entry point (not shown) associated with the card. faceplate 1404. The faceplate 1404 may include an optical sensor 1702, a light source 1704, a display 1706, a keyboard 1708, and a scanner 1710.

[00122] Em algumas implementações, o sensor óptico 1702 pode ser configurado para capturar imagens estáticas ou em movimento. Por exemplo, o sensor óptico 1702 pode capturar as impressões digitais, os padrões da íris, as características faciais, os padrões de assinatura, as formas das orelhas, os padrões da retina, o movimento e/ou a geometria da mão do solicitante 1450. Em alguns exemplos, o sensor óptico 1702 pode ser uma câmera de banda larga configurada para detectar radiação eletromagnética com comprimentos de onda que variam de 200 nanômetros (por exemplo, UV suave) a 2.000 nanômetros (por exemplo, infravermelho próximo (NIR)). Em um exemplo particular, o sensor óptico 1702 é configurado para detectar radiação entre 700 a 900 nanômetros. Em certas implementações, o sensor óptico 1702 pode incluir um sensor de movimento configurado para detectar pessoas que se aproximam da placa frontal 1404.[00122] In some implementations, the 1702 optical sensor can be configured to capture still or moving images. For example, the optical sensor 1702 can capture fingerprints, iris patterns, facial features, signature patterns, ear shapes, retinal patterns, motion, and/or hand geometry of the applicant 1450. In some examples, the optical sensor 1702 may be a wideband camera configured to detect electromagnetic radiation with wavelengths ranging from 200 nanometers (eg, soft UV) to 2000 nanometers (eg, near infrared (NIR)). In a particular example, optical sensor 1702 is configured to detect radiation between 700 to 900 nanometers. In certain implementations, optical sensor 1702 may include a motion sensor configured to detect people approaching faceplate 1404.

[00123] Em certos exemplos, o sensor óptico 1702 pode incluir uma lente grande angular (por exemplo, como uma lente olho de peixe) usada para fornecer cobertura de área vertical para capturar rostos em toda a gama de alturas humanas (bem como abordar o Requisitos da Lei de Deficiências) e para fornecer cobertura horizontal de toda a área de um ponto de acesso para tratar mais de uma pessoa acessando a área segura em uma autenticação. Em outros exemplos, o sensor óptico 1702 pode empregar uma matriz de dispositivo acoplado de carga (CCD) de alta resolução (por exemplo, megapixel por polegada quadrada). A matriz de alta resolução pode fornecer a capacidade de identificar faces a uma distância maior do sensor. A placa frontal 1404 pode aproveitar a distância aumentada de identificação para pré- identificar os solicitantes em situações de fila. Os solicitantes em potencial podem ser identificados à medida que entram em uma área de fila e são colocados em uma lista de prioridade para acelerar a confirmação no ponto de entrada com acesso controlado e a descarga da fila. A pré- identificação e priorização de indivíduos no processo de identificação no ponto de acesso permite um alto volume de transferência no ponto de entrada, reduzindo o tempo de identificação durante o processo de identificação e autenticação.[00123] In certain examples, the 1702 optical sensor may include a wide-angle lens (eg, like a fisheye lens) used to provide vertical area coverage to capture faces across the full range of human heights (as well as address the Disabilities Act Requirements) and to provide horizontal coverage of the entire area of an access point to handle more than one person accessing the secure area in an authentication. In other examples, optical sensor 1702 may employ a high resolution charge-coupled device (CCD) array (e.g., megapixel per square inch). The high resolution matrix can provide the ability to identify faces at a greater distance from the sensor. The 1404 faceplate can take advantage of the increased identification distance to pre-identify applicants in queuing situations. Potential applicants can be identified as they enter a queue area and are placed on a priority list to speed up acknowledgment at the controlled access point of entry and unloading from the queue. Pre-identifying and prioritizing individuals in the point-of-access identification process allows for a high volume of transfer at the point of entry, reducing identification time during the identification and authentication process.

[00124] Em certas implementações, a fonte de iluminação 1704 pode emitir radiação eletromagnética com comprimentos de onda que variam de 200 nanômetros a 2.000 nanômetros. Em certos exemplos, a fonte de iluminação 1704 pode emitir radiação não visível entre 700 a 900 nanômetros e/ou 200 a 300 nanômetros. A fonte de iluminação 1704 pode emitir radiação para iluminar características corporais e padrões do solicitante 1450 usados para análise biométrica (analisando modelo biométrico para determinar direitos de acesso). A radiação emitida pode colidir com uma porção de um corpo do solicitante 1450 e refletir fora da porção do corpo. A radiação refletida pode ser capturada pelo sensor óptico 1702 para análise biométrica.[00124] In certain implementations, the 1704 illumination source can emit electromagnetic radiation with wavelengths ranging from 200 nanometers to 2000 nanometers. In certain examples, the illumination source 1704 can emit non-visible radiation between 700 to 900 nanometers and/or 200 to 300 nanometers. Light source 1704 can emit radiation to illuminate applicant 1450's bodily characteristics and patterns used for biometric analysis (analyzing biometric model to determine access rights). The emitted radiation may collide with a portion of a requester's body 1450 and reflect off the portion of the body. The reflected radiation can be captured by the 1702 optical sensor for biometric analysis.

[00125] Em algumas implementações, o visor 1706 pode apresentar informações úteis para o solicitante 1450. Por exemplo, o visor 1706 pode mostrar uma ou mais imagens de uma face 1730 do solicitante 1450, capturadas pelo sensor óptico 1702, para auxiliar o solicitante 1450 no alinhamento da face 1730 durante a análise biométrica. Em outro exemplo, a tela 1706 pode notificar o solicitante 1450 sobre um status do ponto de entrada associado aa placa frontal 1404 (por exemplo, bloqueado, temporariamente indisponível, operações normais, em manutenção). Em ainda outro exemplo, a tela 1706 pode exibir informações como hora, data, clima, localização atual, etc.[00125] In some implementations, display 1706 may present useful information to requester 1450. For example, display 1706 may show one or more images of a face 1730 of requester 1450, captured by optical sensor 1702, to assist requester 1450 in the 1730 face alignment during the biometric analysis. In another example, screen 1706 may notify requester 1450 of an entry point status associated with faceplate 1404 (eg, locked, temporarily unavailable, normal operations, under maintenance). In yet another example, screen 1706 may display information such as time, date, weather, current location, etc.

[00126] Ainda com referência à FIG. 17, o teclado 1708 pode permitir que o solicitante 1450 insira números, símbolos e alfabetos na placa frontal 1404. Em um exemplo, o solicitante 1450 pode inserir uma senha além da análise biométrica para obter acesso ao ponto de entrada.[00126] Still referring to FIG. 17, keypad 1708 may allow applicant 1450 to enter numbers, symbols, and alphabets on faceplate 1404. In one example, applicant 1450 may enter a password in addition to biometric analysis to gain access to the entry point.

[00127] Em algumas implementações, o scanner 1710 pode ser um scanner de identificação por radiofrequência (RFID), um scanner de cartão de proximidade (por exemplo, scanner de cartão HIDTM), um scanner de cartão de contato ou um scanner de cartão magnético. Em um exemplo, o scanner 1710 pode enviar um sinal interrogatório para um cartão de proximidade (não mostrado) tendo uma bobina e um circuito integrado com uma sequência de identificação programável ou não programável. O sinal interrogatório pode ser “absorvido” pela bobina e pode energizar o circuito integrado. Em resposta, o circuito integrado energizado envia um sinal de resposta incluindo a sequência de identificação de volta para o scanner 1710 através da bobina. O scanner 1710, por sua vez, analisa a sequência de identificação para determinar se deve ou não conceder acesso. A sequência de identificação pode ser um ou mais números, alfabetos, símbolos e/ou uma combinação dos mesmos.[00127] In some implementations, the 1710 scanner may be a radio frequency identification (RFID) scanner, a proximity card scanner (eg HIDTM card scanner), a contact card scanner, or a magnetic card scanner . In one example, scanner 1710 may send an interrogation signal to a proximity card (not shown) having a coil and an integrated circuit with a programmable or non-programmable identification sequence. The interrogation signal can be “absorbed” by the coil and can power the integrated circuit. In response, the powered integrated circuit sends a response signal including the identification string back to scanner 1710 via the coil. The 1710 scanner, in turn, analyzes the identification string to determine whether or not to grant access. The identifying sequence can be one or more numbers, alphabets, symbols and/or a combination thereof.

[00128] Ainda com referência à FIG. 17, em uma implementação, o solicitante 1450 pode se aproximar da placa frontal 1404 durante as operações. O sensor óptico 1702 pode detectar o solicitante 1450. Em resposta à detecção, a fonte de iluminação 1704 pode emitir radiação NIR incidente 1760 em direção ao solicitante 1450. A radiação NIR incidente 1760 pode colidir com a face 1730 do solicitante 1450 e refletir da face 1730 do solicitante[00128] Still referring to FIG. 17, in one implementation, requester 1450 may approach faceplate 1404 during operations. The optical sensor 1702 can detect the requester 1450. In response to detection, the light source 1704 can emit incident NIR radiation 1760 towards the requester 1450. The incident NIR radiation 1760 may collide with the face 1730 of the requester 1450 and reflect off the face 1730 of the applicant

1450. Em algumas implementações, o sensor óptico 1702 pode detectar radiação NIR detectada 1762 proveniente da superfície da face 1730. A radiação NIR detectada 1762 pode incluir radiação NIR incidente refletida 1760 e/ou radiação NIR emitida do solicitante 1450 devido ao aquecimento térmico (ou seja, radiação de corpo negro). A intensidade e distribuição da radiação NIR detectada 1762 pode depender da intensidade e do ângulo da radiação NIR incidente 1760, do contorno da face 1730, do ângulo de detecção pelo sensor óptico 1702 e de outros fatores. A placa frontal 1404 pode usar a radiação NIR detectada 1762 para construir um modelo facial (o "mapa de calor NIR") do solicitante 1450. A placa frontal 1404 pode comparar o mapa de calor NIR construído com os modelos existentes nele armazenados (detalhes descritos abaixo). Se a placa frontal 1404 detectar uma correspondência, a placa frontal 1404 pode permitir que o solicitante 1450 acesse o ponto de entrada (conforme descrito acima).1450. In some implementations, optical sensor 1702 may detect NIR radiation detected 1762 from the surface of face 1730. NIR radiation detected 1762 may include incident NIR radiation reflected 1760 and/or NIR radiation emitted from the requestor 1450 due to thermal heating (or ie, blackbody radiation). The intensity and distribution of the detected NIR radiation 1762 may depend on the intensity and angle of the incident NIR radiation 1760, the contour of the face 1730, the angle of detection by the optical sensor 1702, and other factors. Faceplate 1404 can use the NIR radiation detected 1762 to build a facial model (the "NIR heat map") of the requester 1450. Faceplate 1404 can compare the constructed NIR heat map with existing models stored on it (details described below). If faceplate 1404 detects a match, faceplate 1404 can allow requester 1450 to access the entry point (as described above).

[00129] Em alguns exemplos, um mapa de calor NIR gerado por meio de detecção de radiação NIR pode ser resistente a mudanças na iluminação ambiente. Conforme a iluminação ambiente flutua (por exemplo, mudanças na luminância, cor, temperatura de cor, ângulo de iluminação), um mapa de calor NIR construído usando a detecção de radiação NIR pode permanecer suficientemente constante para evitar uma falsa aceitação ou uma falsa rejeição. Por exemplo, o mapa de calor NIR do solicitante 1450 construído via detecção de radiação NIR sob uma condição "brilhante" (por exemplo, 1000 lux) pode ser substancialmente idêntico ao mapa de calor NIR construído por meio de detecção de radiação NIR sob uma condição "escura" (por exemplo, 100 lux). Em outro exemplo, o mapa de calor NIR do solicitante 1450 construído via detecção de radiação NIR sob luz substancialmente azul (por exemplo, coordenadas CIE x = 0,153, y = 0,100) pode ser substancialmente idêntico ao mapa de calor NIR construído via detecção de radiação NIR sob luz substancialmente branca (por exemplo, coordenadas CIE x = 0,30, y = 0,33).[00129] In some instances, an NIR heatmap generated by detecting NIR radiation can be resistant to changes in ambient lighting. As ambient lighting fluctuates (eg changes in luminance, color, color temperature, angle of illumination), an NIR heatmap constructed using NIR radiation detection can remain constant enough to avoid false acceptance or false rejection. For example, the applicant's 1450 NIR heatmap constructed via detection of NIR radiation under a "bright" condition (eg 1000 lux) may be substantially identical to the NIR heatmap constructed via detection of NIR radiation under a condition "dark" (eg 100 lux). In another example, the applicant's 1450 NIR heat map constructed via detection of NIR radiation under substantially blue light (eg, CIE coordinates x = 0.153, y = 0.100) may be substantially identical to the NIR heat map constructed via radiation detection NIR under substantially white light (eg CIE coordinates x = 0.30, y = 0.33).

[00130] Ainda com referência às FIGs. 14 e 17, em outras implementações, um mapa de calor NIR gerado por meio de detecção de radiação NIR pode melhorar a privacidade do proprietário. Por exemplo, o dispositivo de armazenamento 1410 pode armazenar mapas de calor NIR de funcionários e informações confidenciais associadas (por exemplo, datas de nascimento, senhas de contas de e-mail). Se uma pessoa não autorizada obtiver acesso aos mapas de calor NIR e às informações confidenciais associadas, a pessoa não autorizada pode não ser capaz de explorar as informações confidenciais roubadas porque pode ser difícil identificar os funcionários com base nos mapas de calor NIR. Dado que os mapas de calor NIR são construídos usando, por exemplo, radiação NIR detectada, eles podem ser irreconhecíveis porque o mapa de calor NIR de uma pessoa pode ser drasticamente diferente da imagem visual do rosto da mesma pessoa.[00130] Still referring to FIGs. 14 and 17, in other implementations, an NIR heat map generated by detecting NIR radiation can improve owner privacy. For example, storage device 1410 can store employee NIR heat maps and associated sensitive information (eg, dates of birth, email account passwords). If an unauthorized person gains access to the NIR heat maps and associated confidential information, the unauthorized person may not be able to exploit the stolen confidential information because it can be difficult to identify employees based on the NIR heat maps. Since NIR heatmaps are constructed using, for example, detected NIR radiation, they may be unrecognizable because a person's NIR heatmap can be drastically different from the visual image of the same person's face.

[00131] Em outra implementação, o solicitante 1450 pode se aproximar da placa frontal 1404 durante as operações. O sensor óptico 1702 pode detectar o solicitante[00131] In another implementation, the requestor 1450 may approach the faceplate 1404 during operations. Optical sensor 1702 can detect the requestor

1450. Em resposta à detecção, a fonte de iluminação 1704 pode emitir radiação UV incidente 1760 (por exemplo, radiações eletromagnéticas com comprimentos de onda entre 315 a 390 nanômetros) em direção ao solicitante 1450. A radiação UV incidente 1760 pode colidir com a face 1730 do solicitante 1450 e refletir na face 1730 do solicitante1450. In response to detection, illumination source 1704 may emit incident UV radiation 1760 (eg, electromagnetic radiation with wavelengths between 315 to 390 nanometers) toward requester 1450. Incident UV radiation 1760 may impinge on the face 1730 of the applicant 1450 and reflect on the face 1730 of the applicant

1450. Em certos exemplos, a radiação UV incidente 1760 pode penetrar na superfície da face 1730 e refletir as características subdérmicas da face 1730 (por exemplo, derme, tecido subcutâneo, músculos, imperfeições). Em algumas implementações, o sensor óptico 1702 pode detectar radiação UV detectada 1762 proveniente da superfície e/ou características subdérmicas da face 1730. A radiação UV detectada 1762 pode incluir radiação UV incidente refletida1450. In certain instances, incident UV radiation 1760 may penetrate the surface of the face 1730 and reflect the subdermal features of the face 1730 (eg, dermis, subcutaneous tissue, muscle, imperfections). In some implementations, optical sensor 1702 can detect UV radiation detected 1762 from the surface and/or subdermal features of face 1730. UV radiation detected 1762 may include reflected incident UV radiation

1760. A intensidade e distribuição da radiação UV detectada 1762 pode depender da intensidade e do ângulo da radiação UV incidente 1760, do contorno da face 1730, do ângulo de detecção pelo sensor óptico 1702 e de outros fatores. A placa frontal 1404 pode usar a radiação UV detectada 1762 para construir um modelo facial (o "mapa de calor UV") do solicitante 1450. A placa frontal 1404 pode comparar o mapa de calor UV construído com os modelos existentes armazenados nele (detalhes descritos abaixo). Se a placa frontal 1404 detectar uma correspondência, a placa frontal1760. The intensity and distribution of the UV radiation detected 1762 may depend on the intensity and angle of the incident UV radiation 1760, the contour of the face 1730, the angle of detection by the optical sensor 1702, and other factors. The faceplate 1404 can use the UV radiation detected 1762 to build a facial model (the "UV heat map") of the requester 1450. The faceplate 1404 can compare the built UV heat map with the existing models stored in it (details described below). If the faceplate 1404 detects a match, the faceplate

1404 pode permitir que o solicitante 1450 acesse o ponto de entrada (conforme descrito acima).1404 can allow requestor 1450 to access the entry point (as described above).

[00132] Em alguns exemplos, um mapa de calor UV gerado por meio de detecção de radiação UV pode ser resistente a mudanças na iluminação ambiente. Conforme a iluminação ambiente flutua (por exemplo, mudanças na luminância, cor, temperatura da cor, ângulo de iluminação), um mapa de calor UV construído usando a detecção de radiação UV pode permanecer suficientemente constante para evitar uma falsa aceitação ou uma falsa rejeição. Por exemplo, o mapa de calor UV do solicitante 1450 construído por meio de detecção de radiação UV sob uma condição "brilhante" (por exemplo, 1000 lux) pode ser substancialmente idêntico ao mapa de calor UV construído por meio de detecção de radiação UV sob uma condição "escura" (por exemplo, 100 lux). Em outro exemplo, o mapa de calor UV do solicitante 1450 construído via detecção de radiação UV sob luz substancialmente azul (por exemplo, coordenadas CIE x = 0,153, y = 0,100) pode ser substancialmente idêntico ao mapa de calor UV construído via detecção de radiação NIR sob luz substancialmente branca (por exemplo, coordenadas CIE x = 0,30, y = 0,33).[00132] In some examples, a UV heat map generated by detecting UV radiation can be resistant to changes in ambient lighting. As ambient lighting fluctuates (eg changes in luminance, color, color temperature, lighting angle), a UV heat map constructed using UV radiation detection can remain constant enough to avoid false acceptance or false rejection. For example, the UV heat map of applicant 1450 constructed by detecting UV radiation under a "bright" condition (eg 1000 lux) may be substantially identical to the UV heat map constructed by detecting UV radiation under a "dark" condition (eg 100 lux). In another example, the UV heat map of the applicant 1450 constructed via UV radiation detection under substantially blue light (eg CIE coordinates x = 0.153, y = 0.100) may be substantially identical to the UV heat map constructed via radiation detection NIR under substantially white light (eg CIE coordinates x = 0.30, y = 0.33).

[00133] Ainda com referência às FIGs. 14 e 17, em outras implementações, um mapa de calor UV gerado através da detecção de radiação UV pode melhorar a privacidade do proprietário. Por exemplo, o dispositivo de armazenamento 1410 pode armazenar mapas de calor UV de funcionários e informações confidenciais associadas (por exemplo, datas de nascimento, senhas de contas de e-mail). Se uma pessoa não autorizada obtiver acesso aos mapas de calor UV e às informações confidenciais associadas, a pessoa não autorizada pode não ser capaz de explorar as informações confidenciais roubadas porque pode ser difícil identificar os funcionários com base nos mapas de calor UV. Dado que os mapas de calor UV são construídos usando, por exemplo, radiação UV detectada, eles podem ser irreconhecíveis porque o mapa de calor UV de uma pessoa pode ser drasticamente diferente da imagem visual do rosto da mesma pessoa. Um mapa de calor pode ser uma renderização do conjunto de dados que visualiza a consistência da posição dentro das três matrizes. Se o mapa de calor estiver comprometido, pode ser mais difícil obter informações biométricas usadas para identificar o indivíduo.[00133] Still referring to FIGs. 14 and 17, in other implementations, a UV heat map generated by detecting UV radiation can improve owner privacy. For example, storage device 1410 can store employee UV heatmaps and associated sensitive information (eg, dates of birth, email account passwords). If an unauthorized person gains access to the UV heat maps and associated confidential information, the unauthorized person may not be able to exploit the stolen confidential information because it can be difficult to identify employees based on the UV heat maps. Since UV heat maps are constructed using, for example, detected UV radiation, they may be unrecognizable because a person's UV heat map can be drastically different from the visual image of the same person's face. A heatmap can be a rendering of the dataset that visualizes the consistency of position within the three arrays. If the heat map is compromised, it may be more difficult to obtain biometric information used to identify the individual.

[00134] Em alguns exemplos, a placa frontal 1404 pode gerar um mapa de calor de luz visível com base na luz visível detectada refletida da face 1730 do solicitante[00134] In some examples, the faceplate 1404 can generate a visible light heat map based on the detected visible light reflected from the face 1730 of the requestor

1450.1450.

[00135] Em certas implementações, o solicitante 1450 pode ser solicitado a fornecer uma senha, um número de identificação pessoal (PIN) e/ou um cartão HIDTM válido para ser usado em conjunto com o mapa de calor construído para obter acesso ao ponto de entrada associado com a placa frontal 1404.[00135] In certain implementations, the 1450 requestor may be required to provide a valid password, personal identification number (PIN) and/or HIDTM card to be used in conjunction with the built-in heatmap to gain access to the point of input associated with the faceplate 1404.

[00136] Em outras implementações, a placa frontal 1404 pode incluir um microfone (não mostrado na FIG. 17) para realizar o reconhecimento de voz.[00136] In other implementations, the faceplate 1404 may include a microphone (not shown in FIG. 17) to perform speech recognition.

[00137] Em alguns exemplos, o visor 1706 pode mostrar a face 1730 do solicitante 1450 conforme representado pelo sensor óptico 1702. O visor 1706 pode incluir marcas de alinhamento (não mostradas) para ajudar o solicitante 1450 a alinhar a face 1730 em relação ao sensor óptico 1702. Este processo de alinhamento pode minimizar falsas aceitações e falsas rejeições devido ao desalinhamento. Em certas implementações, a placa frontal 1404 pode ser um dispositivo móvel de bolso alimentado por baterias recarregáveis.[00137] In some examples, display 1706 may show face 1730 of requester 1450 as represented by optical sensor 1702. Display 1706 may include alignment marks (not shown) to help requester 1450 align face 1730 with respect to 1702 optical sensor. This alignment process can minimize false acceptances and false rejections due to misalignment. In certain implementations, faceplate 1404 may be a pocket mobile device powered by rechargeable batteries.

[00138] Com referência à FIG. 18, em algumas implementações, a placa frontal 1404 pode incluir um processador 1802 tendo um módulo de comunicação 1852 configurado para se comunicar com as portas 1402 e outros painéis frontais 1404, conforme descrito nesta divulgação.[00138] With reference to FIG. 18, in some implementations, faceplate 1404 may include a processor 1802 having a communication module 1852 configured to communicate with ports 1402 and other faceplates 1404, as described in this disclosure.

O módulo de comunicação 1852 pode ser implementado como hardware no processador 1802, por exemplo, como código de software executado pelo processador 1802 ou uma combinação dos mesmos. O processador 1802 também pode incluir um módulo de segurança 1854 configurado para criptografar e/ou descriptografar dados.Communication module 1852 may be implemented as hardware in processor 1802, for example, as software code executed by processor 1802 or a combination thereof. The 1802 processor may also include an 1854 security module configured to encrypt and/or decrypt data.

O módulo de segurança 1854 pode ser implementado como hardware no processador 1802, por exemplo, como código de software executado pelo processadorSecurity module 1854 can be implemented as hardware on the 1802 processor, for example, as software code executed by the processor.

1802 ou uma combinação dos mesmos.1802 or a combination thereof.

O processador 1802 inclui ainda um módulo de algoritmo 1856 para construir e comparar modelos biométricos conforme descrito ao longo desta divulgação.Processor 1802 further includes an algorithm module 1856 for building and comparing biometric models as described throughout this disclosure.

Alternativamente, a comunicação com a porta pode ser facilitada por um processador no painel de controle.Alternatively, communication with the port can be facilitated by a processor on the control panel.

O módulo de algoritmo 1856 pode ser implementado como hardware no processador 1802, por exemplo, como código de software executado pelo processador 1802 ou uma combinação dos mesmos.Algorithm module 1856 may be implemented as hardware in processor 1802, for example, as software code executed by processor 1802 or a combination thereof.

O processador 1802 pode ainda incluir um módulo de computação paralela 1858 para realizar processamento distribuído.Processor 1802 may further include a parallel computing module 1858 for performing distributed processing.

O módulo de computação paralelaThe parallel computing module

1858 pode ser implementado como hardware no processador1858 can be implemented as hardware on the processor

1802, por exemplo, como código de software executado pelo processador 1802 ou uma combinação dos mesmos.1802, for example, as software code executed by the 1802 processor or a combination thereof.

O processador 1802 pode incluir um ou mais processadores ou núcleos e pode ser implementado como um processador semicondutor, unidade de processamento gráfico, uma matriz de portas programáveis em campo, um dispositivo lógico programável, um agrupamento de processamento, um circuito integrado específico de aplicativo ou outras arquiteturas adequadas.Processor 1802 may include one or more processors or cores and may be implemented as a semiconductor processor, graphics processing unit, an array of field-programmable gates, a programmable logic device, a processing cluster, an application-specific integrated circuit, or other suitable architectures.

[00139] A placa frontal 1404 inclui uma memória[00139] The faceplate 1404 includes a memory

1804. A memória pode ser memória estática ou dinâmica, como memória flash, memória de acesso aleatório, memória magnética ou memória de semicondutor. A memória 1804 pode incluir memória externa, como um armazenamento em nuvem. A memória 1804 pode incluir ou armazenar aplicativos e/ou código executável de computador. A placa frontal 1404 inclui ainda um modem 1808 para se comunicar com as portas 1402 e outros painéis frontais 1404 e pode operar em cooperação com o módulo de comunicação 1852. A placa frontal 1404 também inclui uma RAM 1806, como memória de acesso aleatório estática ou dinâmica (RAM). A placa frontal 1404 também pode incluir um dispositivo de entrada/saída (E/S) 1810 acoplado comunicativamente ao visor 1706, ao sensor óptico 1702, ao teclado 1708 e ao scanner 1710. Os componentes dentro da placa frontal 1404 podem ser interconectados por um painel de barramento interno 1812a. O processador 1802, a memória 1804, a RAM 1806 e o barramento interno 1812a podem ser dispostos em uma placa de processamento 1820.1804. Memory can be static or dynamic memory, such as flash memory, random access memory, magnetic memory, or semiconductor memory. Memory 1804 can include external memory, such as cloud storage. Memory 1804 may include or store applications and/or computer executable code. The faceplate 1404 further includes a modem 1808 to communicate with ports 1402 and other faceplates 1404 and may operate in cooperation with the communication module 1852. The faceplate 1404 also includes a RAM 1806, such as static or random access memory. dynamic (RAM). Faceplate 1404 may also include an input/output (I/O) device 1810 communicatively coupled to display 1706, optical sensor 1702, keyboard 1708, and scanner 1710. Components within faceplate 1404 may be interconnected by a 1812a inner bus panel. Processor 1802, memory 1804, RAM 1806, and internal bus 1812a can be arranged on an 1820 processor board.

[00140] Com referência agora à FIG. 19, outro exemplo da placa frontal 1404 pode incluir uma série de placas de processamento 1820 interconectadas por um barramento externo 1812b. Cada placa de processamento 1820 pode incluir o processador 1802, a memória 1804, a RAM 1806 e o barramento interno 1812a. Os dados distribuídos entre as placas de processamento 1820 podem ser distribuídos por um controlador 1814 através do barramento externo 1812b. Em um exemplo não limitativo, a placa frontal 1404 pode baixar (das portas 1402) 240.000 modelos biométricos de solicitantes em potencial. O controlador 1814 pode distribuir os 240.000 modelos biométricos de maneira uniforme ou desigual entre as placas de processamento 1820 de modo que cada placa de processamento 1820 possa armazenar, na respectiva memória 1804, 30.000 modelos biométricos. Em algumas implementações, cada placa de processamento 1820 pode armazenar o mesmo número ou um número diferente de modelos biométricos.[00140] Referring now to FIG. 19, another example of faceplate 1404 may include a series of processing boards 1820 interconnected by an external bus 1812b. Each processor board 1820 may include processor 1802, memory 1804, RAM 1806, and internal bus 1812a. The data distributed between the processing boards 1820 can be distributed by a controller 1814 via the external bus 1812b. In a non-limiting example, faceplate 1404 can download (from ports 1402) 240,000 biometric templates of potential applicants. The controller 1814 can distribute the 240,000 biometric templates evenly or unevenly among the processing boards 1820 so that each processing board 1820 can store, in its memory 1804, 30,000 biometric templates. In some implementations, each processor board 1820 may store the same or a different number of biometric templates.

[00141] Ainda com referência à FIG. 19, em um exemplo, durante as operações, a placa frontal 1404 pode construir um mapa de calor (por exemplo, UV ou NIR) do solicitante 1450 com base na radiação NIR detectada 1762. O controlador 1814 pode distribuir cópias do mapa de calor construído para cada uma das placas de processamento 1820.[00141] Still referring to FIG. 19, in an example, during operations, faceplate 1404 may construct a heatmap (eg, UV or NIR) of the requestor 1450 based on the detected NIR radiation 1762. Controller 1814 may distribute copies of the constructed heatmap for each of the 1820 processing boards.

Em algumas implementações, as placas de processamento 1820 podem comparar simultaneamente os mapas de calor duplicados com os modelos biométricos armazenados localmente (por exemplo, 30.000 armazenados em cada placa de processamento 1820). Embora o exemplo atual da placa frontal 1404 mostrado na FIG. 19 inclua oito placas de processamentoIn some implementations, the 1820 processor boards can simultaneously compare the duplicated heat maps with locally stored biometric templates (eg, 30,000 stored on each 1820 processor board). Although the current example of the faceplate 1404 shown in FIG. 19 include eight processing boards

1820, outros números de placas de processamento 1820 também podem ser usados. Por exemplo, a placa frontal 1404 pode incluir 2, 4, 6, 8, 12, 16, 32 ou 64 placas de processamento 1820.1820, other processing board numbers 1820 can also be used. For example, faceplate 1404 may include 2, 4, 6, 8, 12, 16, 32, or 64 processing boards 1820.

[00142] Em uma implementação, a placa frontal 1404 pode contar com placas de processamento remoto (não mostradas) para realizar a computação distribuída descrita acima. Por exemplo, a placa frontal 1404 pode enviar os mapas de calor duplicados para as placas de processamento remoto para implementar conjuntamente e simultaneamente o algoritmo (descrito abaixo) para combinar os mapas de calor duplicados (ou a representação numérica dos mapas de calor duplicados) para modelos biométricos conhecidos. As placas de processamento podem estar dentro de outras placas frontais da rede. Em certos exemplos, a placa frontal 1404 pode enviar os mapas de calor duplicados para um agrupamento Beowulf. O projeto de agrupamento pode empregar protocolos entre processos e entre processadores para compartilhar tarefas de processamento do mesmo aplicativo entre os dois processadores e os núcleos de processamento dentro desses processadores. No caso de reconhecimento facial, as operações intensivas do processador, como verificação facial, podem utilizar vários processadores ou vários núcleos para completar a operação dentro de um período de tempo aceitável. Em alguns casos, grandes processadores multi-core podem ser usados para este tipo de operação. Em outros casos, a operação pode ser espalhada por vários processadores avançados de máquina RIISC (“ARM”) para atingir o mesmo desempenho que o processador multi- core único sem o alto custo de hardware e potencial para um único ponto de falha.[00142] In one implementation, the faceplate 1404 may rely on remote processing cards (not shown) to perform the distributed computing described above. For example, the faceplate 1404 can send the duplicated heatmaps to the remote processing boards to jointly and simultaneously implement the algorithm (described below) for combining the duplicated heatmaps (or the numerical representation of the duplicated heatmaps) to known biometric models. Processing cards can be inside other faceplates of the network. In certain examples, the faceplate 1404 can send the duplicated heatmaps to a Beowulf cluster. The cluster design can employ both interprocess and interprocessor protocols to share processing tasks for the same application between the two processors and the processing cores within those processors. In the case of facial recognition, processor intensive operations such as face checking can use multiple processors or multiple cores to complete the operation within an acceptable period of time. In some cases, large multi-core processors can be used for this type of operation. In other cases, operation can be spread across multiple advanced RISC machine processors (“ARM”) to achieve the same performance as the single multi-core processor without the high hardware cost and potential for a single point of failure.

[00143] Com referência de volta à FIG. 14, em um exemplo não limitativo de comparação paralela distribuída, a primeira porta 1402a pode baixar 600.000 modelos biométricos de solicitantes potenciais (por exemplo, funcionários e contratados) do servidor corporativo 1406b.[00143] Referring back to FIG. 14, in a non-limiting example of distributed parallel comparison, the first port 1402a can download 600,000 biometric templates of potential requesters (eg, employees and contractors) from the 1406b enterprise server.

A primeira porta 1402a pode distribuir 100.000 modelos biométricos para cada um de placa frontal-e 1404e e placa frontal-f 1404f, e 200.000 modelos biométricos para cada um de segunda porta 1402b e terceira porta 1402c. Em seguida, a segunda porta 1402b pode distribuir 100.000 modelos biométricos para cada um de placa frontal-c 1404c e placa frontal-d 1404d e a terceira porta 1402c pode distribuirFirst port 1402a can distribute 100,000 biometric templates each of faceplate-e 1404e and faceplate-f 1404f, and 200,000 biometric templates each of second port 1402b and third port 1402c. Then the second port 1402b can distribute 100,000 biometric templates for each of faceplate-c 1404c and faceplate-d 1404d and the third port 1402c can distribute

100.000 modelos biométricos para cada um de placa frontal-a 1404a e placa frontal-b 1404b. Consequentemente, os 600.000 modelos biométricos baixados do servidor corporativo 1406b podem ser distribuídos uniformemente entre os painéis frontais 1404 (ou seja, 100.000 modelos não sobrepostos cada). Em algumas implementações, quando a placa frontal-b 1404b constrói um mapa de calor (UV ou NIR) do primeiro solicitante 1450a, a placa frontal-b 1404b pode duplicar o mapa de calor construído e distribuir os mapas de calor duplicados para a placa frontal-a 1404a, a placa frontal-c 1404c, a placa frontal-d 1404d, a placa frontal-e 1404e e a placa frontal-f 1404f (por meio de uma ou mais portas 1402). As placas frontais 1404 podem comparar o mapa de calor duplicado do primeiro solicitante 1450a com os100,000 biometric templates for each of the faceplate-a 1404a and faceplate-b 1404b. Consequently, the 600,000 biometric templates downloaded from the 1406b enterprise server can be evenly distributed across the 1404 front panels (that is, 100,000 non-overlapping templates each). In some implementations, when b-faceplate 1404b builds a heatmap (UV or NIR) of the first requester 1450a, b-faceplate 1404b can duplicate the built-in heatmap and distribute the duplicated heatmaps to the faceplate -a 1404a, face-c 1404c, faceplate-d 1404d, faceplate-e 1404e, and faceplate-f 1404f (via one or more ports 1402). The 1404 faceplates can compare the duplicated heat map of the 1450a first requester with the

100.000 modelos armazenados localmente para determinar uma correspondência. A placa frontal-a 1404a, a placa frontal-c 1404c, a placa frontal-d 1404d, a placa frontal-e 1404e e a placa frontal-f 1404f podem enviar (por meio de uma ou mais portas 1402) o resultado da comparação de volta à placa frontal-b 1404b. A placa frontal-b 1404b pode reunir os resultados e determinar se deve conceder acesso ao primeiro solicitante 1450a. Em outras implementações, os modelos biométricos podem ser distribuídos de forma desigual entre as placas frontais 1404.100,000 templates stored locally to determine a match. Faceplate-a 1404a, faceplate-c 1404c, faceplate-d 1404d, faceplate-e 1404e, and faceplate-f 1404f can send (via one or more ports 1402) the result of the comparison back to faceplate-b 1404b. The faceplate-b 1404b can gather the results and determine whether to grant access to the first requester 1450a. In other implementations, biometric templates may be unevenly distributed among the faceplates 1404.

[00144] Com referência agora à FIG. 20, a placa frontal 1404 pode gerar um mapa de calor 2000 com base na medição da intensidade da radiação detectada 1762 da face 1730 do solicitante 1450. O mapa de calor 2000 pode incluir uma matriz de base 2010 de um ou mais pontos de medição[00144] Referring now to FIG. 20, faceplate 1404 can generate a heat map 2000 based on measuring the detected radiation intensity 1762 of face 1730 of requester 1450. Heatmap 2000 can include a base 2010 matrix of one or more measurement points

2002. Os pontos de medição 2002 pode incluir um valor indicativo da intensidade da radiação detectada 1762 em um local do ponto de medição particular. Por exemplo, o ponto de medição-a 2002a pode indicar um valor de escala de intensidade de 2 correspondendo a uma região 2004a (por exemplo, cabelo preto) em torno da face 1730 do solicitante2002. The 2002 measurement points may include a value indicative of the intensity of radiation detected in 1762 at a particular measurement point location. For example, the 2002a measurement point-a may indicate an intensity scale value of 2 corresponding to a 2004a region (eg, black hair) around the 1730 face of the requestor.

1450. O ponto de medição-b 2002b pode indicar um valor de escala de intensidade de 50 que corresponde a uma cor de fundo. O ponto de medição-c 2002c pode indicar um valor de escala de intensidade de 21 que corresponde a uma região 2004c (por exemplo, bochechas) na face 1730 do solicitante1450. Measuring point-b 2002b can indicate an intensity scale value of 50 that corresponds to a background color. The 2002c-c measurement point may indicate an intensity scale value of 21 that corresponds to a 2004c region (eg, cheeks) on the 1730 face of the requestor.

1450. Em certos exemplos, a escala de intensidade pode variar de 0 (sem reflexão) a 100 (reflexão máxima capaz de ser detectada pelo sensor óptico 1702 da placa frontal1450. In certain examples, the intensity scale can range from 0 (no reflection) to 100 (maximum reflection capable of being detected by the front plate optical sensor 1702

1404. Em uma implementação, a escala de intensidade pode medir uma intensidade absoluta (por exemplo, brilho) dos pontos de medição 2002. Em outros exemplos, o mapa de calor 2000 pode incluir pontos de medição 2002 para radiação detectada 1762 de diferentes comprimentos de onda (por exemplo, UV, NIR, vermelho, verde, azul).1404. In one implementation, the intensity scale can measure an absolute intensity (eg, brightness) of the 2002 measurement points. waveform (eg UV, NIR, red, green, blue).

[00145] Embora o mapa de calor 2000 na FIG. 20 mostre a matriz de base 2010 de 10 x 12 pontos de medição 2002 através da face 1730 do solicitante 1450, outra densidade de pontos de medição pode ser possível para a matriz de base 2010. Por exemplo, a placa frontal 1404 pode gerar outro mapa de calor usando medição de 100 x 100 pontos através da face 1730 do solicitante 1450. Em outro exemplo, a placa frontal 1404 pode gerar um mapa de calor usando 500 x 500 pontos de medição. Outras densidades de pontos de medição também são possíveis e podem depender da precisão desejada, das restrições computacionais, da quantidade de armazenamento de dados, etc.[00145] Although heat map 2000 in FIG. 20 show the 2010 base matrix of 10 x 12 measurement points 2002 through the face 1730 of the requester 1450, another measurement point density may be possible for the base matrix 2010. For example, the faceplate 1404 can generate another map measurement using 100 x 100 points measurement across face 1730 of requester 1450. In another example, faceplate 1404 can generate a heat map using 500 x 500 measurement points. Other measuring point densities are also possible and may depend on desired accuracy, computational constraints, amount of data storage, etc.

[00146] Em algumas implementações, a placa frontal 1404 pode remover pontos de medição 2002 indicando o fundo.[00146] In some implementations, the faceplate 1404 may remove 2002 measurement points indicating the background.

[00147] Voltando agora para a FIG. 21, em uma implementação, a placa frontal 1404 (ou o processador 1802) pode aplicar a operação LBP a um ou mais dos pontos de medição 2002 dentro da matriz de base 2010. Por exemplo, a placa frontal 1404 pode realizar LBP no ponto de medição-d 2002d, que inclui um valor de intensidade de 41. A coluna LBP para o ponto de medição-d 2002d é 01110100, com base no intervalo de 1 (ou seja, executando LBP usando os vizinhos imediatos, com distância de 1 célula, do ponto de medição- d 2002). A placa frontal 1404 pode rastrear o número de colunas LBP para os pontos de medição restantes 2002r, como mostrado em uma tabela 2100. Em alguns exemplos, a placa frontal 1404 pode calcular 24 dos pontos de medição 2002 como tendo a coluna LBP de 00000000, 3 tendo o LBP sequência de 00000001, 11 tendo a sequência LBP de 00000010 e 0 tendo a sequência LBP de 00000011, etc., conforme indicado na tabela 2100. A tabela 2100 pode incluir 256 entradas para as sequências possíveis (ou seja, 8 bits). Em alguns exemplos, a tabela 2100 pode incluir 255 entradas,[00147] Turning now to FIG. 21, in one implementation, faceplate 1404 (or processor 1802) can apply LBP operation to one or more of the 2002 measurement points within the 2010 base matrix. For example, faceplate 1404 can perform LBP at the point of d-measurement 2002d, which includes an intensity value of 41. The LBP column for the 2002d-measurement point 2002d is 01110100, based on the range of 1 (that is, running LBP using the immediate neighbors, with a distance of 1 cell , from the measurement point- d 2002). Faceplate 1404 can track the number of LBP columns for the remaining 2002r measurement points, as shown in a 2100 table. In some examples, faceplate 1404 can calculate 24 of the 2002 measurement points as having LBP column of 00000000, 3 having the LBP sequence of 00000001, 11 having the LBP sequence of 00000010 and 0 having the LBP sequence of 00000011, etc., as indicated in table 2100. Table 2100 can include 256 entries for the possible sequences (ie 8 bits ). In some examples, table 2100 may include 255 entries,

eliminando a entrada para a coluna "todo branco" (11111111) ou a coluna "todo preto" (00000000). Em algumas implementações, os dados na tabela 2100 podem ser plotados como um histograma indicando o número de ocorrências (por exemplo, pontos de medição 2002) para as possíveis sequências LBP.eliminating the entry for the "all white" column (11111111) or the "all black" column (00000000). In some implementations, the data in table 2100 can be plotted as a histogram indicating the number of occurrences (eg 2002 measurement points) for possible LBP sequences.

[00148] Em algumas implementações, com base na distribuição das colunas LBP na tabela 2100, a placa frontal 1404 pode determinar um ou mais recursos únicos. Os um ou mais recursos únicos podem ser sequências LBP diferentes de zero ocorrendo menos do que uma frequência limite (por exemplo, 5), como sequências LBP 00000001, 01110100 e 11111100. Em outras implementações, um ou mais recursos únicos podem ser as sequências LBP diferentes de zero ocorrendo menos, como sequências LBP 01110100. Em alguns exemplos, a placa frontal 1404 pode rastrear a localização dos pontos de medição 2002 tendo um ou mais recursos únicos. Por exemplo, a placa frontal 1404 pode rastrear a coordenada das colunas LBP. Em algumas implementações, um ou mais recursos únicos podem ser as sequências LBP diferentes de zero ocorrendo mais.[00148] In some implementations, based on the distribution of LBP columns in table 2100, faceplate 1404 may determine one or more unique features. The one or more unique resources may be non-zero LBP sequences occurring less than a threshold frequency (eg 5), such as LBP sequences 00000001, 01110100 and 11111100. In other implementations, one or more unique resources may be LBP sequences nonzero occurring less, such as LBP 01110100 sequences. In some examples, the faceplate 1404 can track the location of the 2002 measurement points having one or more unique features. For example, faceplate 1404 can track the coordinate of LBP columns. In some implementations, one or more unique features may be non-zero LBP sequences occurring more.

[00149] Voltando agora para a FIG. 22, em certas implementações, a placa frontal 1404 pode dividir a matriz base 2010 em uma ou mais submatrizes. Cada submatriz pode incluir um macrobloco de pontos de medição. Por exemplo, a placa frontal 1404 pode dividir a matriz base 2010 em uma submatriz 2202 5 x 5, uma submatriz 2204 3 x 3 e uma submatriz 2206 6 x 6. Ao calcular as sequências LBP para os pontos de medição 2002 dentro da submatriz 5 x 5 2202, a placa frontal 1402 pode calcular as sequências LBP dos pontos de medição 2002 dentro da submatriz 5 x 5 2202 usando um intervalo de 3 (isto é, calcular sequências LBP usando vizinhos a 3 células de distância). Da mesma forma, ao calcular as sequências LBP para os pontos de medição 2002 dentro da submatriz 3 x 3 2204, a placa frontal 1402 pode calcular as sequências LBP dos pontos de medição 2002 dentro da submatriz 3 x 3 2204 usando um intervalo de 2. Ao calcular as sequências LBP para os pontos de medição 2002 dentro da submatriz 2206 6 x 6, a placa frontal 1402 pode calcular as sequências LBP dos pontos de medição 2002 dentro da submatriz 2206 6 x 6 usando um intervalo de 4.[00149] Turning now to FIG. 22, in certain implementations, faceplate 1404 may divide base array 2010 into one or more sub-arrays. Each sub-matrix can include a macroblock of measurement points. For example, the faceplate 1404 can divide the 2010 base matrix into a 2202 5x5 submatrix, a 2204 3x3 submatrix, and a 2206 6x6 submatrix. When calculating the LBP sequences for the 2002 measurement points within the 5 submatrix x 5 2202, the faceplate 1402 can calculate the LBP sequences of the 2002 measurement points within the 5 x 5 2202 sub-array using a range of 3 (i.e., calculate LBP sequences using neighbors 3 cells away). Likewise, when calculating the LBP sequences for the 2002 measurement points within the 3 x 3 2204 sub-array, the faceplate 1402 can calculate the LBP sequences of the 2002 measurement points within the 3 x 3 2204 sub-array using an interval of 2. By calculating the LBP sequences for the 2002 measurement points within the 2206 6x6 sub-array, the 1402 faceplate can calculate the LBP sequences of the 2002 measurement points within the 2206 6x6 sub-matrix using an interval of 4.

Outros tamanhos para a matriz de base, as submatrizes e as extensões são possíveis, conforme determinado pela placa frontal 1402.Other sizes for the base array, sub-arrays and extensions are possible as determined by faceplate 1402.

[00150] Em um exemplo, uma matriz de base 100 x 100 pode ser dividida em submatrizes de seis tamanhos diferentes: 10 x 10, 15 x 15, 20 x 20, 30 x 30, 35 x 35 e 40 x 40. Dentro cada uma dessas submatrizes, a sequência LBP pode ser calculada com um intervalo diferente em torno do ponto de medição sendo calculado para caracterizar a textura/inclinação da área ao redor da célula em diferentes áreas de cobertura. O intervalo em pixels do ponto de medição 2002 a ser calculado para cada uma das células vizinhas para cada um dos tamanhos de submatriz pode ser 3, 9, 15, 21, 27 e 33. Em outro exemplo, uma matriz de base 200 x 200 pode incluir 6 submatrizes diferentes com tamanhos de 10 x 10, 20 x 20, 35 x 35, 50 x 50, 65 x 65, 80 x 80 e 100 x 100. A amplitude em pixels do ponto de medição 2002 a ser calculado para cada uma das células vizinhas para cada um dos tamanhos de submatriz pode ser 3, 5, 7, 10, 25 e 40. As submatrizes podem se sobrepor em alguns casos. Em certas implementações, a placa frontal 1404 pode aplicar cálculos LTP sobre os pontos de medição 2002.[00150] In one example, a 100 x 100 base matrix can be divided into sub-matrices of six different sizes: 10 x 10, 15 x 15, 20 x 20, 30 x 30, 35 x 35 and 40 x 40. Inside each In one of these sub-matrices, the LBP sequence can be calculated with a different interval around the measurement point being calculated to characterize the texture/slope of the area around the cell in different coverage areas. The range in pixels of the 2002 measurement point to be calculated for each of the neighboring cells for each of the sub-matrix sizes can be 3, 9, 15, 21, 27, and 33. In another example, a 200 x 200 base matrix can include 6 different sub-matrices with sizes of 10x10, 20x20, 35x35, 50x50, 65x65, 80x80 and 100x100. The pixel amplitude of the 2002 measurement point to be calculated for each one of the neighboring cells for each of the sub-array sizes can be 3, 5, 7, 10, 25, and 40. The sub-arrays may overlap in some cases. In certain implementations, the faceplate 1404 can apply LTP calculations on the 2002 measurement points.

[00151] Com referência agora à FIG. 23, em certos exemplos, a placa frontal 1404 pode converter a lista de recursos binários derivados do mapa de calor em uma sequência de dados que é extensível e capaz de ser adaptada às características únicas de cada solicitante 1450, embora ainda forneça uma metodologia de comparação de objetos e correspondência/verificação. Um recurso binário pode conter três características: o tamanho da submatriz/macrobloco, a localização da submatriz/macrobloco no mapa de calor e o Padrão Binário Local Uniforme (ULBP) atribuído ao recurso binário. Um macrobloco pode ser uma "subimagem" da imagem da face 1730 do solicitante 1450. Por exemplo, um macrobloco de tamanho 10 é uma subimagem 10 x 10 (ou seja, 100 pontos de medição 2002) da imagem de a face 1730. Em um exemplo não limitativo, a localização do macrobloco na imagem pode ser definida pela posição do primeiro pixel no macrobloco localizado no canto superior esquerdo do macrobloco. A posição desse pixel é definida por dois valores, sua distância do limite esquerdo da imagem do rosto (dimensão x) e a distância do limite superior da imagem do rosto (dimensão y). A característica final é o ULBP, que é uma metodologia matemática para estabelecer um valor escalar para as características de borda e textura de um pixel começando com o canto superior esquerdo da face[00151] Referring now to FIG. 23, in certain examples, the faceplate 1404 can convert the list of binary resources derived from the heat map into a data string that is extensible and capable of being tailored to the unique characteristics of each requester 1450, while still providing a comparison methodology of objects and correspondence/verification. A binary resource can contain three characteristics: the size of the subarray/macroblock, the location of the subarray/macroblock in the heatmap, and the Local Uniform Binary Pattern (ULBP) assigned to the binary resource. A macroblock can be a "subpicture" of the image of face 1730 of requester 1450. For example, a macroblock of size 10 is a 10x10 subpicture (ie, 100 measurement points 2002) of the image of face 1730. In one Non-limiting example, the location of the macroblock in the image can be defined by the position of the first pixel in the macroblock located in the upper left corner of the macroblock. The position of this pixel is defined by two values, its distance from the left edge of the face image (x dimension) and its distance from the upper edge of the face image (y dimension). The final characteristic is ULBP, which is a mathematical methodology for establishing a scalar value for the edge and texture characteristics of a pixel starting with the upper-left corner of the face.

1730. Para cada pixel dentro do macrobloco, um cálculo de ULBP é executado. Se o ULBP calculado corresponder ao ULBP definido para esse recurso binário, o valor do recurso binário é incrementado em um. Portanto, o valor máximo de um recurso binário é o tamanho do macrobloco definido (10 x 10 é 100) e o valor mínimo é zero. Um macrobloco pode ser usado em mais de um recurso binário com definições de ULBP diferentes. A localização de um macrobloco também pode ser usada em mais de um recurso binário com um tamanho de macrobloco e uma definição ULBP diferentes.1730. For each pixel within the macroblock, an ULBP calculation is performed. If the calculated ULBP matches the ULBP defined for that binary resource, the value of the binary resource is incremented by one. Therefore, the maximum value of a binary resource is the defined macroblock size (10 x 10 is 100) and the minimum value is zero. A macroblock can be used in more than one binary resource with different ULBP definitions. The location of a macroblock can also be used in more than one binary resource with a different macroblock size and ULBP definition.

[00152] Ainda com referência à FIG. 23, uma tabela 2300 pode ilustrar um exemplo dos resultados do processo de conversão de sequência para macroblocos com tamanhos de 10 x 10, 35 x 35, 20 x 20, 30 x 30, 15 x 15, 40 x 40 e 15 x[00152] Still referring to FIG. 23, a table 2300 can illustrate an example of the results of the sequence conversion process for macroblocks with sizes of 10x10, 35x35, 20x20, 30x30, 15x15, 40x40 and 15x

15. Três matrizes podem ser usadas para gerar um modelo biométrico. A primeira matriz pode ser um valor escalar na matriz normalizada. O segundo arranjo pode ser classificado de forma que o recurso binário 2000, que neste exemplo tem o valor mais alto, vá para o topo do segundo arranjo na posição 1. O terceiro arranjo compara a diferença na posição do recurso binário 2000 na classificação em vez de valor escalar. Se a posição dentro da matriz para o recurso binário 2000 permanecer a mesma, os resultados refletirão um valor de 0 representando a menor mudança possível na posição e, portanto, o valor mais alto de significância no método de autenticação.15. Three matrices can be used to generate a biometric template. The first matrix can be a scalar value in the normalized matrix. The second array can be sorted so that binary resource 2000, which in this example has the highest value, goes to the top of the second array at position 1. The third array compares the difference in position of binary resource 2000 in sorting instead of scalar value. If the position within the array for binary resource 2000 remains the same, the results will reflect a value of 0 representing the smallest possible change in position and therefore the highest significance value in the authentication method.

[00153] Voltando agora para a FIG. 24, um método 2400 de conversão de uma sequência pode identificar os recursos mais únicos usados para identificação.[00153] Turning now to FIG. 24, a method 2400 of converting a string can identify the most unique features used for identification.

[00154] No bloco 2402, obter o mapa de calor da face. Por exemplo, o processador 1802 e/ou o módulo de comunicação 1825 podem obter o mapa de calor da face 1730.[00154] In block 2402, obtain the heat map of the face. For example, processor 1802 and/or communication module 1825 can obtain the heat map of face 1730.

[00155] No bloco 2404, atribuir um índice único para cada combinação de macrobloco/ULBP. Por exemplo, o módulo de algoritmo 1856 pode atribuir um índice único (por exemplo, 4) a cada combinação de macrobloco/ULBP (por exemplo, macrobloco 30 x 30) e análise com base na exclusividade de traços dentro da face e não em valores escalares.[00155] In block 2404, assign a unique index to each macroblock/ULBP combination. For example, algorithm module 1856 can assign a unique index (eg 4) to each macroblock/ULBP combination (eg 30 x 30 macroblock) and analysis based on uniqueness of features within the face rather than values scalars.

[00156] No bloco 2406, construir uma primeira matriz de valores escalares para cada combinação de macrobloco/ULBP no esquema mestre referenciado pelo esquema. Por exemplo, o módulo de algoritmo 1856 pode construir uma primeira matriz de valores escalares para cada combinação de macrobloco/ULBP no esquema mestre referenciado pelo esquema. A primeira matriz inclui o número de pixels que se enquadram nesse ULBP dentro desse macrobloco. Ao analisar o LBP de um pixel, a placa frontal 1404 pode realizar o cálculo normal do LBP e obter um histograma que é o valor de 0 a 255, e se o resultado for o valor mais alto (fórmula LBP padrão que leva pixel e leva 8 pixels ao redor dele e cada pixel tem um valor binário diferente), o resultado recebe um valor de 1. Se algum outro LBP for maior do que aquele pixel, terá um valor 0.[00156] In block 2406, build a first array of scalar values for each macroblock/ULBP combination in the master schema referenced by the schema. For example, algorithm module 1856 may construct a first matrix of scalar values for each macroblock/ULBP combination in the master schema referenced by the schema. The first matrix includes the number of pixels that fall into that ULBP within that macroblock. By analyzing the LBP of a pixel, the faceplate 1404 can perform the normal LBP calculation and get a histogram that is the value from 0 to 255, and if the result is the highest value (standard LBP formula that takes pixel and takes 8 pixels around it and each pixel has a different binary value), the result is given a value of 1. If some other LBP is larger than that pixel, it will have a value of 0.

[00157] No bloco 2408, ponderar cada valor escalar pelo tamanho do macrobloco. Por exemplo, o módulo de algoritmo 1856 pode ponderar cada valor escalar (por exemplo, 380) pelo tamanho do macrobloco (por exemplo, 30 x 30).[00157] In block 2408, weight each scalar value by the macroblock size. For example, algorithm module 1856 may weight each scalar value (eg, 380) by macroblock size (eg, 30x30).

[00158] No bloco 2410, classificar a primeira matriz de valores escalares em ordem decrescente. Por exemplo, o módulo de algoritmo 1856 pode classificar os elementos da primeira matriz de valores escalares em ordem decrescente de, por exemplo, 1 a 2156.[00158] In block 2410, sort the first array of scalar values in descending order. For example, algorithm module 1856 can sort the elements of the first array of scalar values in descending order from, for example, 1 to 2156.

[00159] No bloco 2412, converter os índices associados em uma sequência. Por exemplo, o módulo de algoritmo 1856 pode converter os índices associados em uma sequência ou a ordem de classificação do conjunto de dados em vez do valor escalar.[00159] In block 2412, convert the associated indices into a sequence. For example, algorithm module 1856 can convert the associated indices into a string or dataset sort order instead of the scalar value.

[00160] No bloco 2414, converter a sequência em uma segunda matriz com um valor escalar para cada índice único que é a distância (diferença na posição na matriz em vez de medição em mm) do índice primário desde o início da matriz de sequência. Por exemplo, o módulo de algoritmo 1856 pode converter a sequência em uma segunda matriz com um valor escalar para cada índice único que é a posição do índice primário desde o início da matriz de sequência com 2165 elementos atualmente, mas pode ser extensível dependendo dos dados para cada indivíduo.[00160] In block 2414, convert the string to a second array with a scalar value for each unique index which is the distance (difference in position in array rather than measurement in mm) from the primary index from the start of the string array. For example, algorithm module 1856 can convert the string into a second array with a scalar value for each unique index which is the primary index position from the start of the string array with 2165 elements currently, but it can be extensible depending on the data for each individual.

[00161] Com referência à FIG. 25, em certas implementações, uma aprendizagem profunda pode ser realizada no conjunto de dados completo para estabelecer o conjunto de dados mínimo necessário para realizar com precisão o reconhecimento facial. O resultado da aprendizagem profunda pode ser um conjunto de dados reduzido de recursos binários que é uma fração do conjunto de dados total (por exemplo, 1%, 2%, 5%, 10%, 20%, 50%).[00161] With reference to FIG. 25, in certain implementations, deep learning can be performed on the complete dataset to establish the minimum dataset needed to accurately perform facial recognition. The result of deep learning can be a reduced dataset of binary resources that is a fraction of the total dataset (eg 1%, 2%, 5%, 10%, 20%, 50%).

Cada elemento de dados neste conjunto de dados pode ser definido por uma submatriz de um tamanho e uma localização específicos e um único valor dentro da matriz de base LBP completa. Cada elemento de dados pode receber um identificador numérico único. Para o processo de inscrição, este conjunto de dados estáticos é usado para cada solicitante. À medida que cada solicitante continua verificando suas faces, os dados de verificação podem ser coletados e, por meio da aprendizagem profunda, um novo conjunto de recursos binários pode ser criado para cada solicitante. A introdução da sequência no algoritmo de verificação pode permitir a introdução deste conjunto individualizado de recursos binários e ainda permitir a comparação entre diferentes conjuntos. A correspondência de duas sequências pode ser conseguida calculando a diferença (por exemplo, a diferença na posição de um conjunto de dados) das duas matrizes. Quanto maior for a soma, menor será a qualidade da correspondência. Uma combinação perfeita de objetos pode ter uma soma substancialmente zero.Each data element in this dataset can be defined by a sub-array of a specific size and location and a single value within the complete LBP base matrix. Each data element can be assigned a unique numeric identifier. For the application process, this static dataset is used for each applicant. As each requester continues to check their faces, verification data can be collected and, through deep learning, a new set of binary resources can be created for each requester. The introduction of the sequence in the verification algorithm can allow the introduction of this individualized set of binary resources and still allow the comparison between different sets. The matching of two sequences can be achieved by calculating the difference (for example, the difference in the position of a data set) of the two matrices. The larger the sum, the lower the quality of the match. A perfect combination of objects can have a sum of substantially zero.

[00162] Ainda com referência à FIG. 25, uma tabela 2500 ilustra um exemplo dos cálculos de verificação. A primeira etapa na criação da sequência pode ser a classificação da matriz escalar pela magnitude do valor escalar. A classificação pode ser realizada em ordem decrescente. A identificação exclusiva do recurso binário com o maior valor está no topo da classificação.[00162] Still referring to FIG. 25, a table 2500 illustrates an example of the verification calculations. The first step in creating the sequence can be sorting the scalar array by the magnitude of the scalar value. Sorting can be performed in descending order. The unique identification of the binary resource with the highest value is at the top of the ranking.

Classificando dessa maneira, os recursos binários que fornecem a maior exclusividade (maior magnitude escalar) estão no topo da matriz. Após a classificação, a nova posição de classificação é transferida para a terceira matriz e a localização na nova matriz é baseada na identificação única do recurso binário. O identificador único do recurso binário é 2.000 quando é classificado e vai para a posição 1. No terceiro arranjo, a posição 2.000 receberá um valor de 1. Este arranjo pode ser uma sequência única para o objeto e é a nova base para a verificação e/ou correspondência do objeto.Sorting this way, the binary features that provide the greatest uniqueness (highest scalar magnitude) are at the top of the array. After sorting, the new sorting position is transferred to the third matrix and the location in the new matrix is based on the unique identification of the binary resource. The binary resource's unique identifier is 2,000 when it is sorted and goes to position 1. In the third array, position 2,000 will receive a value of 1. This array can be a unique string for the object and is the new basis for verification and /or object match.

[00163] O algoritmo de correspondência de sequência determina a qualidade da correspondência pela distância de cada identificação única de recurso binário desde o início da sequência. A distância é o valor de índice da identificação exclusiva do recurso binário dentro da matriz de sequência onde os valores de índice são atribuídos sequencialmente. Para completar esse cálculo de correspondência com eficiência, outra matriz é criada contendo a distância de cada recurso binário desde o início da sequência. Por exemplo, após a classificação, o recurso binário com a identificação única de um está na posição dez da sequência classificada. Na nova matriz, que é indexada por zero, a posição um terá o valor dez. Ao estruturar a matriz dessa maneira, o algoritmo para realizar uma correspondência entre duas dessas matrizes é o mesmo que o algoritmo original. O valor absoluto da diferença dos valores com o índice de correspondência é agregado para criar um único valor para a correspondência da matriz. Um valor inferior equivale a uma correspondência mais próxima.[00163] The sequence matching algorithm determines the quality of the match by the distance of each unique binary resource ID from the beginning of the sequence. The distance is the index value of the unique identification of the binary resource within the sequence array where the index values are sequentially assigned. To efficiently complete this correspondence calculation, another matrix is created containing the distance of each binary feature from the beginning of the sequence. For example, after sorting, the binary resource with the unique identification of one is in position ten of the sorted sequence. In the new array, which is indexed by zero, position one will have the value ten. By structuring the matrix in this way, the algorithm for performing a match between two of these matrices is the same as the original algorithm. The absolute value of the difference of values with the match index is aggregated to create a single value for the matrix match. A lower value equals a closer match.

Uma combinação perfeita pode ser substancialmente um valor zero.A perfect match can be substantially zero value.

[00164] Com a introdução da matriz de sequência, o algoritmo de correspondência pode ser extensível. A matriz de sequência é a segunda matriz e a matriz escalar é a primeira (normalizada para o tamanho do bloco). Extensível pode indicar que a lista fixa de recursos binários pode agora ser expandida e contraída conforme necessário para otimizar o processo de correspondência de objetos ao mesmo tempo que melhora a integridade do processo de correspondência. Nesta implementação, a matriz de sequência pode ser dinamicamente ajustável com base em duas funções de aprendizagem profunda separadas com base no ambiente do dispositivo de borda e na face individual específica sendo autorizada. A primeira função pode buscar otimizar continuamente a lista padrão de recursos binários aplicada a algumas ou todas as tentativas de correspondência de objetos antes do desenvolvimento de uma lista individual de recursos binários. A segunda função pode agregar dados de imagem em objetos individuais e ao longo do tempo desenvolver uma lista otimizada de recursos binários para o rosto. Uma vez que a lista individualizada de recursos binários excede o desempenho de correspondência da lista padrão de recursos binários por meio de tentativas de correspondência de objetos paralelos nos dados de imagem do objeto de entrada, a lista padrão de recursos binários pode ser substituída pela lista individualizada de recursos binários para esse objeto em funções de correspondência de objetos ao vivo.[00164] With the introduction of the sequence array, the matching algorithm can be extensible. The sequence matrix is the second matrix and the scalar matrix is the first (normalized to block size). Extensible might mean that the fixed list of binary resources can now be expanded and contracted as needed to optimize the object matching process while improving the integrity of the matching process. In this implementation, the sequence matrix can be dynamically adjustable based on two separate deep learning functions based on the environment of the edge device and the specific individual face being authorized. The first function may seek to continually optimize the default list of binary resources applied to some or all object matching attempts before developing an individual list of binary resources. The second function can aggregate image data into individual objects and over time develop an optimized list of binary features for the face. Since the individualized list of binary resources exceeds the matching performance of the default list of binary resources by trying to match parallel objects in the input object image data, the default list of binary resources can be replaced by the individualized list of binary resources for that object in live object matching functions.

[00165] Em certas implementações, o mecanismo de aprendizagem profunda para ambos os processos pode receber dados de amostra em paralelo com as funções de correspondência objeto/face ao vivo. Conforme os dados da imagem são recebidos, duas listas de recursos binários podem ser aplicadas a eles. A primeira lista pode ser a lista padrão ou individualizada de recursos binários reduzidos (por exemplo, três blocos mais importantes de 100 em macrobloco 10 x 10). A saída da aplicação desta lista pode ser usada no processo de correspondência ao vivo. A segunda lista pode ser a lista completa de recursos binários, que compreende todos os tamanhos de macrobloco possíveis (por exemplo, todos os 100 dentro do macrobloco 10 x 10), aplicada às posições de imagem possíveis para cada ULBP. A lista completa de recursos binários pode ser, por exemplo, vinte vezes o tamanho da lista padrão ou individualizada de recursos binários. O mecanismo de aprendizagem profunda pode receber uma sequência derivada da lista completa de recursos binários para cada imagem de objeto recebida no sistema. No caso da lista padrão de processo de aprendizagem profunda de recursos binários, as imagens podem ser categorizadas nos conjuntos de treinamento e validação. Um conjunto de teste padrão independente pode ser criado incluindo objetos diferentes do objeto que está sendo aprendido. No caso da lista individualizada de recursos binários, cada objeto identificado pelo padrão ou lista individualizada existente de recursos binários será colocado nos conjuntos de treinamento, validação e teste. Todas as outras listas de objetos podem ser colocadas nos conjuntos de verificação e teste.[00165] In certain implementations, the deep learning mechanism for both processes can receive sample data in parallel with the live object/face matching functions. As image data is received, two lists of binary resources can be applied to it. The first list can be the standard or individualized list of reduced binary resources (eg three most important blocks out of 100 in 10 x 10 macroblock). The application's output from this list can be used in the live mailing process. The second list can be the complete list of binary resources, comprising all possible macroblock sizes (for example, all 100 within the 10 x 10 macroblock), applied to the possible image positions for each ULBP. The complete list of binary resources can be, for example, twenty times the size of the standard or individualized list of binary resources. The deep learning engine can receive a sequence derived from the complete list of binary resources for each object image received into the system. In the case of the standard deep learning process list of binary resources, images can be categorized into training and validation sets. An independent pattern set can be created including objects other than the object being learned. In the case of the individualized list of binary resources, each object identified by the pattern or existing individualized list of binary resources will be placed in the training, validation and testing sets. All other object lists can be placed in verification and test sets.

[00166] Uma sessão de treinamento de aprendizagem profunda para a lista de objetos padrão de recursos binários e para cada lista individual de recursos binários pode ser executada para cada nova entrada ativa do sistema de detecção de objetos.[00166] A deep learning training session for the default object list of binary resources and for each individual list of binary resources can be run for each new active entry of the object detection system.

[00167] Uma vez que o algoritmo de detecção de olhos localiza os olhos, a matriz de dados de face é transferida para o algoritmo de reconhecimento facial. Se o algoritmo de aprendizagem profunda desenvolveu uma lista específica de recursos binários, uma lista agregada desses recursos binários para todos os usuários no sistema pode ser criada e usada para gerar a sequência.[00167] Once the eye detection algorithm locates the eyes, the face data array is transferred to the face recognition algorithm. If the deep learning algorithm has developed a specific list of binary resources, an aggregated list of those binary resources for all users in the system can be created and used to generate the sequence.

Caso contrário, a sequência pode ser gerada usando o conjunto padrão de recursos binários.Otherwise, the sequence can be generated using the standard set of binary resources.

A sequência pode ser transferida para o algoritmo de verificação, onde o processo de correspondência pode determinar a identidade da sequência.The string can be transferred to the verification algorithm, where the matching process can determine the identity of the string.

Com a identidade estabelecida, uma lista completa de recursos bináriosWith the identity established, a complete list of binary resources

(todas as submatrizes com histogramas LBP completos) pode ser gerada e transferida para esse conjunto de dados de identidades no algoritmo de aprendizagem profunda.(all sub-matrices with full LBP histograms) can be generated and transferred to this identity dataset in the deep learning algorithm.

O algoritmo de aprendizagem profunda pode processar o conjunto de dados disponível para essa identidade (o conjunto pode continuar a crescer com cada verificação) e gerar um conjunto de dados ótimo revisado para essa identidade.The deep learning algorithm can process the dataset available for that identity (the set can continue to grow with each check) and generate a revised optimal dataset for that identity.

O conjunto de dados otimizado pode ser convertido em uma sequência e usado no próximo processo de verificação para esse usuário.The optimized dataset can be converted to a string and used in the next verification process for that user.

Ao mesmo tempo, o conjunto agregado de recursos binários pode ser atualizado, se necessário, para converter a próxima matriz de face.At the same time, the aggregated set of binary features can be updated, if necessary, to convert the next face matrix.

Embora o processo de verificação ocorra dentro do agrupamento local de dispositivos, o algoritmo de aprendizagem profunda pode ocorrer tanto no agrupamento local quanto no global como uma tarefa em segundo plano.Although the verification process takes place within the local cluster of devices, the deep learning algorithm can take place in both the local and global cluster as a background task.

[00168] Como os resultados da sessão de treinamento refinam a lista de recursos binários, a lista respectiva pode ser atualizada no processo de verificação/correspondência ao vivo. O resultado pode ser um sistema de correspondência capaz de se ajustar automaticamente à população geral de objetos e às características únicas e específicas de cada objeto. A evolução dos dados do objeto permitirá soluções de correspondência de objetos em grande escala com mais de[00168] As the results of the training session refine the list of binary resources, the respective list can be updated in the live verification/matching process. The result can be a matching system capable of automatically adjusting to the general population of objects and the unique and specific characteristics of each object. The evolution of object data will enable large-scale object matching solutions with more than

100.000 objetos capazes da mesma precisão de uma solução pequena (< 1.000).100,000 objects capable of the same precision as a small solution (< 1,000).

[00169] Com referência agora à FIG. 26, um exemplo do processo de aprendizagem profunda 2600 pode contar com ciclos de feedback e aprendizagem de máquina para refinar o processo de identificação.[00169] Referring now to FIG. 26, an example of the 2600 deep learning process can rely on feedback loops and machine learning to refine the identification process.

[00170] No bloco 2602, obter uma matriz de imagem.[00170] In block 2602, obtain an image matrix.

Por exemplo, o processador 1802 e/ou o módulo de comunicação 1825 podem obter o mapa de calor da face 1730.For example, processor 1802 and/or communication module 1825 can obtain the heat map of face 1730.

[00171] No bloco 2604, determinar se o macrobloco/ULBP específico da face está disponível. Por exemplo, o módulo de algoritmo 1856 pode determinar se o macrobloco/ULBP específico de face está disponível.[00171] In block 2604, determine if face specific macroblock/ULBP is available. For example, algorithm module 1856 can determine if face specific macroblock/ULBP is available.

[00172] No bloco 2606, se a lista personalizada de recursos binários não estiver disponível, converter a imagem para a lista de detecção genérica de face de recursos binários. Por exemplo, o módulo de algoritmo 1856 pode converter imagem em lista de detecção genérica/padrão de face de recursos binários se a lista personalizada não estiver disponível.[00172] At block 2606, if custom list of binary resources is not available, convert image to generic face detection list of binary resources. For example, algorithm module 1856 can convert image into generic/pattern face detection list of binary resources if custom list is not available.

[00173] No bloco 2608, obter a sequência padrão de detecção de rosto. Por exemplo, o módulo de algoritmo 1856 pode obter a sequência padrão de detecção de rosto se o macrobloco não estiver disponível.[00173] In block 2608, get the face detection pattern sequence. For example, algorithm module 1856 can obtain the face detection pattern sequence if the macroblock is not available.

[00174] No bloco 2610, se a lista personalizada de recursos binários estiver disponível, converter a imagem em uma lista específica de detecção de face de recursos binários. Por exemplo, o módulo de algoritmo 1856 pode converter imagem em lista específica de detecção de face de recursos binários se a lista personalizada de recursos binários (pode ser no original 2156 ou pode ser todos os novos baseados naquele indivíduo (por exemplo, 10 10 x 10s adicionais que são mais distintos para aquele indivíduo em particular) está disponível.[00174] At block 2610, if custom list of binary resources is available, convert the image to a face detection specific list of binary resources. For example, algorithm module 1856 can convert image into face detection specific list of binary resources if custom list of binary resources (may be in original 2156 or it may be all new based on that individual (eg 10 10 x Additional 10s that are more distinctive for that particular individual) is available.

[00175] No bloco 2612, executar a detecção de rosto.[00175] In block 2612, perform face detection.

Por exemplo, o módulo de algoritmo 1856 pode realizar detecção de rosto.For example, algorithm module 1856 can perform face detection.

[00176] No bloco 2614, executar a detecção e a localização do olho. Por exemplo, o módulo de algoritmo 1856 pode realizar detecção e localização de olho.[00176] In block 2614, perform eye detection and location. For example, algorithm module 1856 can perform eye detection and location.

[00177] No bloco 2616, converter a imagem em uma lista completa de recursos binários. Por exemplo, o módulo de algoritmo 1856 pode converter a imagem em uma lista completa de recursos binários (não apenas 57, mas todos os 100 de macroblocos 10 x 10 e incluem todos os valores). O fluxo do tensor é a estrutura do mecanismo de aprendizagem profunda fornecido pelo GoogleTM. A equação e o algoritmo para TensorFlow são bem conhecidos na técnica.[00177] In block 2616, convert the image into a complete list of binary resources. For example, algorithm module 1856 can convert the image into a complete list of binary resources (not just 57, but all 100 of 10 x 10 macroblocks and include all values). Tensor flow is the framework of the deep learning engine provided by GoogleTM. The equation and algorithm for TensorFlow are well known in the art.

[00178] No bloco 2618, desenvolver lista de detecção de face de recursos binários usando aprendizagem profunda de TensorFlow. Por exemplo, o módulo de algoritmo 1856 pode desenvolver lista de detecção de face de recursos binários usando aprendizagem profunda de TensorFlow.[00178] In block 2618, develop face detection list of binary resources using TensorFlow deep learning. For example, algorithm module 1856 can develop face detection list of binary resources using TensorFlow deep learning.

[00179] No bloco 2620, sequência refinada de detecção de face de feedback. Por exemplo, o módulo de algoritmo 1856 pode realimentar a sequência refinada de detecção de face. Para refinar a lista de recursos, a placa frontal 1404 pode levar todo o conjunto de recursos e coletar todos os dados para o rosto e derivar um novo conjunto refinado que substitui o conjunto padrão. O cálculo da distância entre a posição do recurso binário dentro de dois conjuntos pode ser usado como métrica. Cada recurso estaria sempre na mesma posição. Conforme os dados de face ficam melhores, a comparação face a face fica menor e a diferença entre esta face e todas as outras fica maior.[00179] In block 2620, refined feedback face detection sequence. For example, algorithm module 1856 can feed back the refined face detection sequence. To refine the feature list, the faceplate 1404 can take the entire feature set and collect all the data for the face and derive a new refined set that replaces the default set. The calculation of the distance between the position of the binary feature within two sets can be used as a metric. Each feature would always be in the same position. As the face data gets better, the face-to-face comparison gets smaller and the difference between this face and all the others gets bigger.

[00180] Voltando agora para a FIG. 27, o exemplo do processo de aprendizagem profunda 2600 mostrado na FIG. 26 pode contar com ciclos de feedback e aprendizagem de máquina para refinar o processo de identificação. Em vez de centralizar o processo de dados de aprendizagem profunda que estão sujeitos a hackers se armazenados em um servidor central (único aplicativo TensorFlow operando em um único servidor central), particularmente na nuvem, a presente divulgação pode usar TensorFlow em uma arquitetura distribuída para avaliar em cada leitor com privacidade protegida em todos os dispositivos individuais, em vez de armazenado em um servidor central.[00180] Turning now to FIG. 27, the example of the deep learning process 2600 shown in FIG. 26 can rely on feedback loops and machine learning to refine the identification process. Instead of centralizing the process of deep learning data that is subject to hacking if stored on a central server (single TensorFlow application running on a single central server), particularly in the cloud, the present disclosure can use TensorFlow in a distributed architecture to assess on each reader with privacy protected on all individual devices, rather than stored on a central server.

[00181] No bloco 2614, executar a detecção e a localização do olho. Por exemplo, o módulo de algoritmo 1856 pode realizar detecção e localização de olho.[00181] In block 2614, perform eye detection and location. For example, algorithm module 1856 can perform eye detection and location.

[00182] No bloco 2702, obter uma lista específica de detecção de face de recursos binários. Por exemplo, o módulo de algoritmo 1856 pode obter uma lista específica de detecção de face de recursos binários se o macrobloco estiver disponível.[00182] In block 2702, get a specific face detection list of binary resources. For example, algorithm module 1856 can obtain a specific face detection list of binary resources if macroblock is available.

[00183] No bloco 2704, obtenha a lista padrão de reconhecimento facial de recursos binários. Por exemplo, o módulo de algoritmo 1856 pode converter imagem em lista de detecção genérica de face de recursos binários se a lista específica de recursos binários para aquele indivíduo não estiver disponível.[00183] In block 2704, get the standard facial recognition list of binary resources. For example, algorithm module 1856 can convert image to generic face detection list of binary resources if the specific list of binary resources for that individual is not available.

[00184] No bloco 2706, determinar se a lista específica de face de recursos binários está disponível.[00184] At block 2706, determine whether the face-specific list of binary features is available.

Por exemplo, o módulo de algoritmo 1856 pode determinar se a lista específica de face de recursos binários está disponível. A lista personalizada de recursos binários pode incluir o 2156 original ou pode ser todos novos baseados naquele indivíduo (por exemplo, 10 10 x 10s adicionais que são mais distintos para aquele indivíduo específico)For example, algorithm module 1856 can determine whether the face-specific list of binary resources is available. The custom list of binary resources can include the original 2156 or it can be all new based on that individual (eg additional 10 10 x 10s that are more distinct for that specific individual)

[00185] No bloco 2708, se a lista específica de face de recursos binários não estiver disponível, converter a imagem para a lista genérica de face de recursos binários.[00185] In block 2708, if face specific list of binary features is not available, convert image to generic face list of binary features.

Por exemplo, o módulo de algoritmo 1856 pode converter imagem em lista genérica de face de recursos binários se a lista específica de face de recursos binários não estiver disponível.For example, algorithm module 1856 can convert image to generic face list of binary resources if face specific list of binary resources is not available.

[00186] No bloco 2710, se a lista específica de face de recursos binários estiver disponível, converter a imagem em uma lista específica de face de recursos binários. Por exemplo, o módulo de algoritmo 1856 pode converter imagem em lista específica de face de recursos binários se a lista específica de face de recursos binários estiver disponível.[00186] At block 2710, if face specific list of binary features is available, convert the image to a face specific list of binary features. For example, algorithm module 1856 can convert image to face specific list of binary features if face specific list of binary features is available.

[00187] No bloco 2712, converter a lista de recursos binários em sequências. Por exemplo, o módulo de algoritmo[00187] In block 2712, convert the list of binary resources into sequences. For example, the algorithm module

1856 pode converter lista de recursos binários em sequências.1856 can convert list of binary resources into strings.

[00188] No bloco 2714, executar a verificação. Por exemplo, o módulo de algoritmo 1856 pode realizar verificação.[00188] In block 2714, perform the check. For example, algorithm module 1856 can perform verification.

[00189] No bloco 2716, converter a imagem em uma lista completa de recursos binários. Por exemplo, o módulo de algoritmo 1856 pode converter a imagem em uma lista completa de recursos binários.[00189] At block 2716, convert the image into a complete list of binary resources. For example, algorithm module 1856 can convert the image into a complete list of binary resources.

[00190] No bloco 2718, desenvolver lista específica de face de recursos binários usando aprendizagem profunda de TensorFlow. Por exemplo, o módulo de algoritmo 1856 pode desenvolver uma lista específica de face de recursos binários usando aprendizagem profunda de TensorFlow (não apenas 57 como é típico com LBP, mas todos os 100 de macroblocos 10 x 10 e incluem todos os valores). O TensorFlow é a estrutura do mecanismo de aprendizagem profunda fornecido pelo GoogleTM. A equação e o algoritmo para TensorFlow são bem conhecidos na técnica.[00190] In block 2718, develop face-specific list of binary features using TensorFlow deep learning. For example, algorithm module 1856 can develop a face-specific list of binary features using TensorFlow deep learning (not just 57 as is typical with LBP, but all 100 of 10 x 10 macroblocks and include all values). TensorFlow is the framework for the deep learning engine provided by GoogleTM. The equation and algorithm for TensorFlow are well known in the art.

[00191] Em alguns exemplos, a porta 1402 e/ou a placa frontal 1404 podem incluir algoritmos proativos para identificar e reduzir "colisões de consistência" durante o processo de verificação. Uma "colisão de consistência" pode ocorrer quando um ou mais solicitantes têm dados faciais únicos que causam um erro (ou seja, falsa aceitação ou falsa rejeição) na verificação. A porta 1402 e/ou a placa frontal 1404 podem buscar potenciais "colisões de consistência" de forma proativa usando dois métodos da presente divulgação descritos abaixo.[00191] In some examples, port 1402 and/or faceplate 1404 may include proactive algorithms to identify and reduce "consistency collisions" during the verification process. A "consistency collision" can occur when one or more applicants have unique facial data that causes an error (ie, false acceptance or false rejection) in verification. Port 1402 and/or faceplate 1404 can proactively check for potential "consistency collisions" using two methods of the present disclosure described below.

[00192] O algoritmo de 'Reforço em camadas' pode permitir que o solicitante crie uma estrutura de árvore binária para os dados faciais. Os dados binários podem criar uma hierarquia de pontos de dados (por exemplo, sequência LBP) com base na exclusividade dos pontos de dados. Quanto maior for a singularidade, mais alto na árvore. Cada transação de verificação pode resultar na transferência dos dados faciais binários da placa frontal 1404 para a porta 1402. Quando a porta 1402 recebe os dados faciais binários, pode começar a verificar a exclusividade da estrutura da árvore binária dos novos dados em comparação com os dados do outros solicitantes 1450 armazenados. Quando identifica uma colisão potencial, a porta 1402 pode notificar a placa frontal 1404 para escalar as transações de verificação entre os dois solicitantes identificados 1450 para a porta 1404. Quando a porta 1404 recebe uma transação escalada, ele pode executar dois algoritmos avançados (ou seja, Algoritmo de Colisão de Identificação Proativa e Algoritmo de Tendências no Domínio do Tempo) nos dados. A árvore binária pode ter características mais distintas e estabelecer hierarquia com base na maioria e na minoria das características. A árvore priorizada pode reduzir a análise com base em 20 em vez de 2165, economizando tempo e computação/processamento. Com base nos galhos da árvore, as características mais distintas podem permitir que a placa frontal 1404 determine se esta é ou não a pessoa, em vez de passar por todas as características 2165. Limites podem ser empíricos e derivados de testes.[00192] The 'Layered Reinforcement' algorithm can allow the requester to create a binary tree structure for the facial data. Binary data can create a hierarchy of data points (for example, LBP sequence) based on the uniqueness of the data points. The greater the singularity, the higher up the tree. Each verification transaction can result in the transfer of the binary facial data from faceplate 1404 to port 1402. When port 1402 receives the binary facial data, it can start to check the uniqueness of the binary tree structure of the new data against the data of the other 1450 stored applicants. When it identifies a potential collision, port 1402 can notify the faceplate 1404 to escalate the verification transactions between the two identified requesters 1450 to port 1404. When port 1404 receives an escalated transaction, it can perform two advanced algorithms (ie , Proactive Identification Collision Algorithm and Time Domain Trends Algorithm) in the data. The binary tree can have more distinct features and establish a hierarchy based on the majority and minority of features. The prioritized tree can reduce parsing based on 20 instead of 2165, saving time and computation/processing. Based on the tree's branches, more distinct characteristics may allow faceplate 1404 to determine whether or not this is the person, rather than going through all of the 2165 characteristics. Boundaries can be empirical and derived from testing.

[00193] O primeiro algoritmo avançado, o Algoritmo de Identificação de Colisão Proativa, pode pegar os dados da árvore binária e analisar os dados faciais com base em sua localização na árvore binária. Os dados da árvore binária podem ser ponderados. Se a ponderação dos dados binários não produzir uma diferenciação suficiente dos dados, a porta 1402 pode estender o processo de verificação para encontrar dados de diferenciação adequados.[00193] The first advanced algorithm, the Proactive Collision Identification Algorithm, can take data from the binary tree and analyze the facial data based on its location in the binary tree. Binary tree data can be weighted. If weighting the binary data does not produce sufficient differentiation of the data, port 1402 can extend the verification process to find suitable differencing data.

[00194] Em algumas implementações, as características faciais dos solicitantes podem mudar continuamente. Se os dados biométricos de uma face, como a face 1730 do solicitante 1450, permanecerem estáticos, a identificação da face pode, em última análise, resultar em falsas rejeições, exigindo a reinscrição da face 1730.[00194] In some implementations, the facial features of the requesters may change continuously. If the biometric data for a face, such as face 1730 of requester 1450, remains static, face identification can ultimately result in false rejections, requiring face 1730 re-enrollment.

Ajustes dinâmicos aos dados biométricos podem ser continuamente aplicados e os algoritmos podem determinar se a mudança proposta não é a introdução de uma face diferente nos dados biométricos, resultando em uma falsa aceitação na face 17303. Com cada iteração dos dados biométricos, o algoritmo deve determinar a quantidade de dados biométricos retidos para garantir a próxima identificação bem-sucedida do solicitante 1450 e a quantidade a ser alterada para garantir a identificação de longo prazo do solicitanteDynamic adjustments to the biometric data can be continuously applied and the algorithms can determine that the proposed change is not introducing a different face to the biometric data, resulting in a false acceptance on face 17303. With each iteration of the biometric data, the algorithm must determine the amount of biometric data retained to ensure the applicant's next successful identification 1450 and the amount to be changed to ensure the applicant's long-term identification

1450. A determinação pode ser feita por uma combinação de uma análise de domínio de tempo em que as alterações são regredidas para garantir linearidade e análise regional facial para determinar se a área de mudança é racional.1450. The determination can be made by a combination of a time domain analysis in which changes are regressed to ensure linearity and facial regional analysis to determine whether the area of change is rational.

[00195] O uso dessa capacidade de dados dinâmicos leva ao segundo algoritmo, o Algoritmo de Tendências no Domínio do Tempo. A porta 1402 pode manter o histórico dos dados binários do solicitante 1450 e realizar uma análise baseada no domínio do tempo dos dados para avaliar quais recursos estão mudando quando o histórico dos dados binários do solicitante 1450 é comparado com a face 1730 e a velocidade com a qual esses recursos estão mudando. A porta 1402 pode rastrear a evolução da face e usa esses dados para extrapolar e reforçar as diferenças únicas identificadas na face 1730 do solicitante 1450 para estabelecer e posteriormente enfatizar as características principais ou características básicas e avaliar a taxa de mudança nessas características principais para a face 1730.[00195] The use of this dynamic data capability leads to the second algorithm, the Time Domain Trends Algorithm. Port 1402 can maintain requester 1450 binary data history and perform time-domain based analysis of the data to assess which resources are changing when requester 1450 binary data history is compared to face 1730 and speed with the which these features are changing. Port 1402 can track the evolution of the face and uses this data to extrapolate and reinforce the unique differences identified in face 1730 of the requester 1450 to establish and further emphasize key features or basic features and assess the rate of change in these key features for the face 1730.

A porta 1402 então determina usando análise baseada no domínio do tempo se essas mudanças estão ocorrendo ao longo de um período de tempo para sugerir mudanças naturais na face 1730, mudanças artificiais na face 1730 que justificam uma análise mais aprofundada ou uma incompatibilidade da história de dados binários do solicitante 1450 com a faceGate 1402 then determines using time domain based analysis whether these changes are occurring over a period of time to suggest natural changes in face 1730, artificial changes in face 1730 that warrant further analysis, or a mismatch of data history 1450 requester binaries with face

1730. A porta 1402 pode identificar as diferenças únicas e verificar se as diferenças identificadas na solicitação de verificação são consistentes com a tendência ao longo do tempo. Em algumas implementações, a porta 1402 pode levar em consideração o estilo de vida e as rotinas diárias do solicitante 1450 no Algoritmo de Tendência no Domínio do Tempo. Por exemplo, se o solicitante 1450 gosta de atividades ao ar livre, o Algoritmo pode levar em consideração o aumento do bronzeamento durante a temporada de verão. O Algoritmo de Identificação de Colisão Proativa combinado com o Algoritmo de Tendência no Domínio de Tempo permite que o método desta modalidade da invenção mantenha seu alto desempenho em uma solução de grande população '1:N'.1730. Port 1402 can identify the unique differences and verify that the differences identified in the verification request are consistent with the trend over time. In some implementations, port 1402 can take into account the lifestyle and daily routines of the requester 1450 in the Time Domain Trend Algorithm. For example, if applicant 1450 enjoys outdoor activities, the Algorithm may account for increased tanning during the summer season. The Proactive Collision Identification Algorithm combined with the Time Domain Trending Algorithm allows the method of this modality of the invention to maintain its high performance in a large population '1:N' solution.

[00196] Voltando agora para a FIG. 28, fazendo referência às figuras acima, em algumas implementações, um método 2800 de construção de um modelo biométrico pode ser realizado pela placa frontal 1404.[00196] Turning now to FIG. 28, referring to the above figures, in some implementations a method 2800 of constructing a biometric template may be performed by the faceplate 1404.

[00197] No bloco 2802, emitindo uma luz incidente não visível. Por exemplo, a fonte de iluminação 1704 pode emitir uma luz incidente não visível. A luz não visível pode incluir perto de IR ou UV. Em algumas implementações, a fonte de iluminação 1704 pode emitir uma luz visível.[00197] In block 2802, emitting a non-visible incident light. For example, the light source 1704 can emit non-visible incident light. Non-visible light can include near IR or UV. In some implementations, the light source 1704 can emit visible light.

[00198] No bloco 2804, detectar uma luz não visível detectada, em que a luz não visível detectada inclui uma luz não visível refletida e uma luz não visível irradiada.[00198] In block 2804, detecting a detected non-visible light, wherein the detected non-visible light includes a reflected non-visible light and a radiated non-visible light.

Por exemplo, o sensor óptico 1702 pode detectar uma luz não visível detectada, em que a luz não visível detectada inclui uma luz não visível refletida e uma luz não visível irradiada. Em algumas implementações, o sensor óptico 1702 pode detectar a luz IR refletida da face 1730 do solicitante 1450 e/ou luz IR irradiada devido ao calor do solicitante 1450.For example, optical sensor 1702 can detect a detected non-visible light, where the detected non-visible light includes a reflected non-visible light and a radiated non-visible light. In some implementations, optical sensor 1702 can detect IR light reflected from face 1730 of requester 1450 and/or IR light radiated due to heat from requester 1450.

[00199] No bloco 2806, gerar um mapa de calor incluindo uma pluralidade de pontos de amostragem com uma pluralidade de valores característicos associados à luz não visível detectada. Por exemplo, o módulo de algoritmo 1856 pode gerar um mapa de calor, tal como o mapa de calor 2000, incluindo uma pluralidade de pontos de amostragem com uma pluralidade de valores característicos associados à luz não visível detectada.[00199] In block 2806, generate a heat map including a plurality of sampling points with a plurality of characteristic values associated with the detected non-visible light. For example, algorithm module 1856 may generate a heatmap, such as heatmap 2000, including a plurality of sampling points with a plurality of characteristic values associated with the detected non-visible light.

[00200] No bloco 2808, identificar um ou mais macroblocos, cada um incluindo um subconjunto da pluralidade de pontos de amostragem. Por exemplo, o módulo de algoritmo 1856 pode identificar um ou mais macroblocos,[00200] In block 2808, identify one or more macroblocks each including a subset of the plurality of sampling points. For example, algorithm module 1856 may identify one or more macroblocks,

cada um incluindo um subconjunto da pluralidade de pontos de amostragem. Os um ou mais macroblocos podem ser um macrobloco 10 x 10, um macrobloco 15 x 15, um macrobloco 20 x 20, um macrobloco 30 x 30, um macrobloco 35 x 35 e um macrobloco 40 x 40. Outros tamanhos são possíveis. Em algumas implementações, a placa frontal 1404 pode identificar, 2165 macroblocos com 2165 associados.each including a subset of the plurality of sampling points. The one or more macroblocks can be a 10x10 macroblock, a 15x15 macroblock, a 20x20 macroblock, a 30x30 macroblock, a 35x35 macroblock, and a 40x40 macroblock. Other sizes are possible. In some implementations, faceplate 1404 may identify 2165 macroblocks with 2165 associated.

[00201] No bloco 2810, selecionar um valor padrão local. Por exemplo, o módulo de algoritmo 1856 pode selecionar um valor padrão binário local de 20. Em outros exemplos, o módulo de algoritmo 1856 pode selecionar um valor padrão ternário local.[00201] In block 2810, select a local default value. For example, algorithm module 1856 may select a local binary default value of 20. In other examples, algorithm module 1856 may select a local ternary default value.

[00202] No bloco 2812, calcular um número de ocorrências do valor do padrão local dentro de cada subconjunto da pluralidade dos pontos de amostragem para cada um dos um ou mais macroblocos. Por exemplo, o módulo de algoritmo 1856 pode calcular um número de ocorrências do valor do padrão local dentro de cada subconjunto da pluralidade dos pontos de amostragem para cada um dos um ou mais macroblocos.[00202] In block 2812, calculate a number of occurrences of the local pattern value within each subset of the plurality of sampling points for each of the one or more macroblocks. For example, algorithm module 1856 may compute a number of occurrences of the local pattern value within each subset of the plurality of sampling points for each of the one or more macroblocks.

[00203] No bloco 2814, gerar uma primeira matriz incluindo uma pluralidade de valores ponderados, calculando a pluralidade de valores ponderados com base no número de ocorrências do valor padrão local e tamanhos correspondentes de um ou mais macroblocos. Por exemplo, o módulo de algoritmo 1856 pode gerar uma primeira matriz incluindo os valores ponderados mostrados na tabela 2300 (isto é, [0,30 0,54 0,15 0,42 0,62 0,46 0,53]).[00203] In block 2814, generating a first matrix including a plurality of weighted values, calculating the plurality of weighted values based on the number of occurrences of the local standard value and corresponding sizes of one or more macroblocks. For example, algorithm module 1856 may generate a first matrix including the weighted values shown in table 2300 (ie, [0.30 0.54 0.15 0.42 0.62 0.46 0.53]).

[00204] No bloco 2816, atribuir um índice único a cada um da pluralidade de valores ponderados. Por exemplo, o módulo de algoritmo 1856 pode atribuir índices únicos (ou seja, 1, 2, 3, 4, 5, 6 e 7) a cada um da pluralidade de valores ponderados mostrados na tabela 2300. O índice único 1 é atribuído ao valor ponderado de 0,30, 2 a 0,54, 3 a 0,15 ..., etc.[00204] In block 2816, assign a unique index to each of the plurality of weighted values. For example, algorithm module 1856 may assign unique indices (i.e., 1, 2, 3, 4, 5, 6, and 7) to each of the plurality of weighted values shown in table 2300. Unique index 1 is assigned to weighted value from 0.30, 2 to 0.54, 3 to 0.15..., etc.

[00205] No bloco 2818, gerar uma segunda matriz do índice único classificando a pluralidade de valores ponderados. Por exemplo, o módulo de algoritmo 1856 pode gerar uma segunda matriz do índice único classificando a pluralidade de valores ponderados, como a sequência 5, 2, 7, 6, 4, 1, 3 na tabela 2300. Em algumas implementações, a segunda matriz/sequência pode indicar uma classificação dos valores ponderados do mais alto ao mais baixo. O primeiro número na sequência é 5 porque o valor ponderado (ou seja, 0,62) associado ao índice único de 5 é o mais alto entre os elementos da primeira matriz.[00205] In block 2818, generate a second array of the unique index sorting the plurality of weighted values. For example, algorithm module 1856 may generate a second unique index array by sorting the plurality of weighted values, such as the sequence 5, 2, 7, 6, 4, 1, 3 in table 2300. In some implementations, the second array /string can indicate a ranking of weighted values from highest to lowest. The first number in the sequence is 5 because the weighted value (that is, 0.62) associated with the unique index of 5 is the highest among the elements of the first array.

[00206] No bloco 2820, gerar uma terceira matriz incluindo uma pluralidade de distâncias de classificação.[00206] In block 2820, generate a third matrix including a plurality of classification distances.

Por exemplo, o módulo de algoritmo 1856 pode gerar uma terceira matriz incluindo uma pluralidade de distâncias de classificação, como a matriz armazenada [5 1 6 4 0 3 2] na tabela 2300. Uma distância de classificação pode indicar uma diferença numérica entre as classificações do valor ponderado mais alto (por exemplo, 0,62 - classificação 1) e o valor ponderado atual (por exemplo, 0,30 - classificação 6). Portanto, a distância de classificação entre 0,62 e 0,30 pode ser 5 (ou seja, 6-1).For example, algorithm module 1856 may generate a third matrix including a plurality of rank distances, such as the matrix stored [5 1 6 4 0 3 2] in table 2300. A rank distance may indicate a numerical difference between ranks of the highest weighted value (eg 0.62 - rank 1) and the current weighted value (eg 0.30 - rank 6). Therefore, the classification distance between 0.62 and 0.30 can be 5 (ie 6-1).

[00207] Será reconhecido que várias implementações das características e funções acima divulgadas e outras, ou alternativas ou variedades das mesmas, podem ser desejavelmente combinadas em muitos outros sistemas ou aplicações diferentes por uma pessoa versada na técnica.[00207] It will be recognized that various implementations of the above-disclosed features and functions and others, or alternatives or varieties thereof, may desirably be combined in many other different systems or applications by a person skilled in the art.

Além disso, várias alternativas, modificações, variações ou melhorias presentemente imprevistas ou não previstas podem ser subsequentemente feitas por aquelas pessoas versadas na técnica que também se destinam a ser abrangidos pelas reivindicações seguintes.Furthermore, various presently unforeseen or unforeseen alternatives, modifications, variations or improvements may subsequently be made by those skilled in the art who are also intended to be covered by the following claims.

[00208] A descrição detalhada estabelecida acima em conexão com os desenhos anexos descreve exemplos e não representa os únicos exemplos que podem ser implementados ou que estão dentro do escopo das reivindicações. O termo "exemplo", quando usado nesta descrição, significa "servindo como um exemplo, instância ou ilustração" e não "preferido" ou "vantajoso em relação a outros exemplos". A descrição detalhada inclui detalhes específicos com a finalidade de fornecer uma compreensão das técnicas descritas. Essas técnicas, no entanto, podem ser praticadas sem esses detalhes específicos. Por exemplo, mudanças podem ser feitas na função e no arranjo dos elementos discutidos sem se afastar do escopo da divulgação. Além disso, vários exemplos podem omitir, substituir ou adicionar vários procedimentos ou componentes, conforme apropriado. Por exemplo, os métodos descritos podem ser realizados em uma ordem diferente da descrita e várias etapas podem ser adicionadas, omitidas ou combinadas. Além disso, os recursos descritos em relação a alguns exemplos podem ser combinados em outros exemplos. Em alguns casos, estruturas e aparelhos bem conhecidos são mostrados na forma de diagrama de blocos, a fim de evitar obscurecer os conceitos dos exemplos descritos.[00208] The detailed description set out above in connection with the accompanying drawings describes examples and does not represent the only examples that can be implemented or that fall within the scope of the claims. The term "example", when used in this description, means "serving as an example, instance or illustration" and not "preferred" or "advantaged over other examples". The detailed description includes specific details for the purpose of providing an understanding of the techniques described. These techniques, however, can be practiced without these specific details. For example, changes can be made to the function and arrangement of the elements discussed without departing from the scope of disclosure. In addition, multiple examples can omit, replace, or add multiple procedures or components, as appropriate. For example, the described methods can be performed in a different order than described and various steps can be added, omitted or combined. Also, the features described in relation to some examples can be combined in other examples. In some cases, well-known structures and apparatus are shown in block diagram form in order to avoid obscuring the concepts of the examples described.

[00209] Informações e sinais podem ser representados usando qualquer uma de uma variedade de diferentes tecnologias e técnicas. Por exemplo, dados, instruções, comandos, informações, sinais, bits, símbolos e chips que podem ser referenciados ao longo da descrição acima podem ser representados por tensões, correntes, ondas eletromagnéticas, campos ou partículas magnéticos, campos ou partículas óticos, código executável por computador ou instruções armazenadas em um meio legível por computador, ou qualquer combinação dos mesmos.[00209] Information and signals can be represented using any of a variety of different technologies and techniques. For example, data, instructions, commands, information, signals, bits, symbols and chips that may be referenced throughout the description above may be represented by voltages, currents, electromagnetic waves, magnetic fields or particles, optical fields or particles, executable code by computer or instructions stored on a computer-readable medium, or any combination thereof.

[00210] Os vários blocos e componentes ilustrativos descritos em conexão com a divulgação neste documento podem ser implementados ou executados com um dispositivo especialmente programado, tal como, mas não limitado a, um processador, um processador de sinal digital (DSP), um ASIC, um FPGA ou outro dispositivo lógico programável, uma porta discreta ou lógica de transistor, um componente de hardware discreto ou qualquer combinação destes projetados para executar as funções aqui descritas. Um processador especialmente programado pode ser um microprocessador, mas, alternativamente, o processador pode ser qualquer processador convencional, controlador, microcontrolador ou máquina de estado. Um processador especialmente programado também pode ser implementado como uma combinação de dispositivos de computação, por exemplo, uma combinação de um DSP e um microprocessador, múltiplos microprocessadores, um ou mais microprocessadores em conjunto com um núcleo DSP ou qualquer outra configuração.[00210] The various illustrative blocks and components described in connection with the disclosure in this document may be implemented or executed with a specially programmed device, such as, but not limited to, a processor, a digital signal processor (DSP), an ASIC , an FPGA or other programmable logic device, a discrete gate or transistor logic, a discrete hardware component, or any combination thereof designed to perform the functions described herein. A specially programmed processor can be a microprocessor, but alternatively the processor can be any conventional processor, controller, microcontroller or state machine. A specially programmed processor can also be implemented as a combination of computing devices, for example, a combination of a DSP and a microprocessor, multiple microprocessors, one or more microprocessors together with a DSP core, or any other configuration.

[00211] As funções aqui descritas podem ser implementadas em hardware, software executado por um processador, firmware ou qualquer combinação dos mesmos. Se implementadas em software executado por um processador, as funções podem ser armazenadas ou transmitidas como uma ou mais instruções ou código em um meio legível por computador não transitório. Outros exemplos e implementações estão dentro do escopo e da essência da divulgação e das reivindicações anexas. Por exemplo, devido à natureza do software, as funções descritas acima podem ser implementadas usando software executado por um processador especialmente programado, hardware, firmware, cabeamento ou combinações de qualquer um dos mesmos. Recursos que implementam funções também podem estar fisicamente localizados em várias posições, incluindo serem distribuídos de modo que porções de funções sejam implementadas em diferentes locais físicos. Além disso, conforme usado neste documento, incluindo nas reivindicações, "ou" conforme usado em uma lista de itens precedidos por "pelo menos um de" indica uma lista disjuntiva tal que, por exemplo, uma lista de "pelo menos um de A, B ou C” significa A ou B ou C ou AB ou AC ou BC ou ABC (ou seja, A e B e C).[00211] The functions described here can be implemented in hardware, software executed by a processor, firmware or any combination thereof. If implemented in software executed by a processor, functions can be stored or transmitted as one or more instructions or code in a non-transient computer-readable medium. Other examples and implementations are within the scope and essence of the disclosure and accompanying claims. For example, due to the nature of software, the functions described above may be implemented using software executed by a specially programmed processor, hardware, firmware, cabling, or combinations of any of these. Features that implement functions can also be physically located in various positions, including being distributed so that portions of functions are implemented in different physical locations. Furthermore, as used in this document, including the claims, "or" as used in a list of items preceded by "at least one of" indicates a disjunctive list such that, for example, a list of "at least one of A, B or C” means A or B or C or AB or AC or BC or ABC (ie A and B and C).

[00212] Mídia legível por computador inclui mídia de armazenamento de computador e mídia de comunicação, incluindo qualquer meio que facilite a transferência de um programa de computador de um lugar para outro. Um meio de armazenamento pode ser qualquer meio disponível que possa ser acessado por um computador de uso geral ou de uso especial. A título de exemplo, e não como limitação, a mídia legível por computador pode compreender RAM, ROM, EEPROM, CD-ROM ou outro armazenamento de disco óptico,[00212] Computer readable media includes computer storage media and communication media, including any medium that facilitates the transfer of a computer program from one place to another. A storage medium can be any available medium that can be accessed by a general-purpose or special-purpose computer. By way of example, and not limitation, computer readable media may comprise RAM, ROM, EEPROM, CD-ROM or other optical disk storage,

armazenamento de disco magnético ou outros dispositivos de armazenamento magnético, ou qualquer outro meio que pode ser usado para transportar ou armazenar meios de código de programa desejados na forma de instruções ou estruturas de dados e que podem ser acessados por um computador de uso geral ou de uso especial, ou um processador de uso geral ou de uso especial. Além disso, qualquer conexão é apropriadamente denominada meio legível por computador. Por exemplo, se o software for transmitido de um site, servidor ou outra fonte remota usando um cabo coaxial, cabo de fibra óptica, par trançado, linha de assinante digital (DSL) ou tecnologias sem fio, como infravermelho, rádio e micro- ondas, então o cabo coaxial, cabo de fibra óptica, par trançado, DSL ou tecnologias sem fio, como infravermelho, rádio e micro-ondas estão incluídos na definição de meio.magnetic disk storage or other magnetic storage devices, or any other medium that can be used to transport or store desired program code media in the form of instructions or data structures and that can be accessed by a general purpose computer or computer. special use, or a general purpose or special purpose processor. In addition, any connection is properly termed a computer-readable medium. For example, if the software is transmitted from a website, server or other remote source using coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL) or wireless technologies such as infrared, radio and microwave , then coaxial cable, fiber optic cable, twisted pair, DSL, or wireless technologies such as infrared, radio, and microwave are included in the medium definition.

Disco e disquete, conforme usados aqui, incluem disco compacto (CD), disco laser, disco óptico, disco versátil digital (DVD), disquete e disco Blu-ray onde os disquetes geralmente reproduzem dados magneticamente, enquanto os discos reproduzem dados opticamente com lasers. As combinações dos itens acima também estão incluídas no escopo da mídia legível por computador.Disk and floppy disk, as used herein, include compact disk (CD), laser disk, optical disk, digital versatile disk (DVD), floppy disk, and Blu-ray disk where floppy disks generally reproduce data magnetically, while disks reproduce data optically with lasers . Combinations of the above items are also included in the scope of computer readable media.

Claims (20)

REIVINDICAÇÕES 1. Placa frontal para identificação biométrica caracterizada pelo fato de compreender: uma fonte de iluminação configurada para emitir uma luz incidente não visível; um sensor óptico configurado para detectar uma luz não visível detectada, em que a luz não visível detectada inclui uma luz não visível refletida e uma luz não visível irradiada; um ou mais processadores acoplados operativamente à fonte de iluminação e ao sensor óptico, o um ou mais processadores são configurados para construir um modelo biométrico de um solicitante solicitando acesso a um ponto de entrada por: gerar um mapa de calor incluindo uma pluralidade de pontos de amostragem tendo uma pluralidade de valores característicos associados com a luz não visível detectada, identificar um ou mais macroblocos, cada um incluindo um subconjunto da pluralidade de pontos de amostragem, selecionar um valor de padrão local, calcular um número de ocorrências do valor de padrão local dentro de cada subconjunto da pluralidade dos pontos de amostragem para cada um dos um ou mais macroblocos;1. Faceplate for biometric identification characterized by the fact that it comprises: a light source configured to emit non-visible incident light; an optical sensor configured to detect a detected non-visible light, wherein the detected non-visible light includes a reflected non-visible light and a radiated non-visible light; one or more processors operatively coupled to the light source and the optical sensor, the one or more processors are configured to build a biometric model of a requester requesting access to an entry point by: generating a heat map including a plurality of points of sampling having a plurality of characteristic values associated with the detected non-visible light, identifying one or more macroblocks each including a subset of the plurality of sampling points, selecting a local pattern value, calculating a number of occurrences of the local pattern value within each subset of the plurality of sampling points for each of the one or more macroblocks; gerar uma primeira matriz incluindo uma pluralidade de valores ponderados, calculando a pluralidade de valores ponderados com base no número de ocorrências do valor de padrão local e tamanhos correspondentes de um ou mais macroblocos; atribuir um índice único a cada um da pluralidade de valores ponderados; gerar uma segunda matriz do índice único classificando a pluralidade de valores ponderados; e gerar uma terceira matriz incluindo uma pluralidade de distâncias de classificação.generating a first matrix including a plurality of weighted values, calculating the plurality of weighted values based on the number of occurrences of the local pattern value and corresponding sizes of one or more macroblocks; assigning a unique index to each of the plurality of weighted values; generating a second matrix of the unique index sorting the plurality of weighted values; and generating a third matrix including a plurality of classification distances. 2. Placa frontal, de acordo com a reivindicação 1, caracterizada pelo fato de compreender adicionalmente: um monitor configurado para exibir uma imagem de uma face do solicitante capturada pelo sensor óptico.2. Front plate, according to claim 1, characterized in that it further comprises: a monitor configured to display an image of a requester's face captured by the optical sensor. 3. Placa frontal, de acordo com a reivindicação 1, caracterizada pelo fato de que: a luz não visível refletida é gerada a partir da luz não visível incidente refletida em uma face do solicitante; e a luz não visível irradiada é gerada a partir do calor do solicitante.3. Front plate, according to claim 1, characterized in that: the reflected non-visible light is generated from the incident non-visible light reflected on a face of the applicant; and radiated non-visible light is generated from the applicant's heat. 4. Placa frontal, de acordo com a reivindicação 1, caracterizada pelo fato de que a luz incidente não visível está próxima à luz infravermelha ou ultravioleta.4. Front plate, according to claim 1, characterized in that the non-visible incident light is close to infrared or ultraviolet light. 5. Placa frontal, de acordo com a reivindicação 1, caracterizada pelo fato de compreender adicionalmente um digitalizador configurado para: transmitir um sinal interrogatório para um cartão de proximidade do solicitante, e receber um sinal de resposta do cartão de proximidade incluindo uma sequência de identificação.5. Front plate, according to claim 1, characterized in that it further comprises a digitizer configured to: transmit an interrogation signal to a proximity card of the applicant, and receive a response signal from the proximity card including an identification sequence . 6. Placa frontal, de acordo com a reivindicação 1, caracterizada pelo fato de compreender adicionalmente: uma memória que armazena uma pluralidade de modelos biométricos de pessoal autorizado; e em que um ou mais processadores são ainda configurados para: comparar o modelo biométrico do solicitante com a pluralidade de modelos biométricos de pessoal autorizado, e gerar um sinal de correspondência positivo em resposta à identificação de uma correspondência entre o modelo biométrico do solicitante e um da pluralidade de modelos biométricos de pessoal autorizado.6. Front plate, according to claim 1, characterized in that it additionally comprises: a memory that stores a plurality of biometric models of authorized personnel; and wherein one or more processors are further configured to: compare the applicant's biometric template with the plurality of authorized personnel biometric templates, and generate a positive match signal in response to identifying a match between the applicant's biometric template and a of the plurality of biometric templates of authorized personnel. 7. Placa frontal, de acordo com a reivindicação 6, caracterizada pelo fato de compreender adicionalmente um modem configurado para transmitir o sinal de correspondência positivo para uma porta de acesso para autorizar o solicitante a acessar o ponto de entrada.7. Front plate, according to claim 6, characterized in that it further comprises a modem configured to transmit the positive match signal to an access port to authorize the requester to access the entry point. 8. Placa frontal, de acordo com a reivindicação 1, caracterizada pelo fato de que o modelo biométrico inclui um modelo de reconhecimento facial.8. Front plate, according to claim 1, characterized in that the biometric template includes a facial recognition template. 9. Placa frontal, de acordo com a reivindicação 1, caracterizada pelo fato de que o valor de padrão local inclui um valor de padrão binário local ou um valor de padrão ternário local.9. Faceplate according to claim 1, characterized in that the local pattern value includes a local binary pattern value or a local ternary pattern value. 10. Método de identificação biométrica caracterizado pelo fato de compreender: emitir uma luz incidente não visível; detectar uma luz não visível detectada, em que a luz não visível detectada inclui uma luz não visível refletida e uma luz não visível irradiada; gerar um mapa de calor incluindo uma pluralidade de pontos de amostragem tendo uma pluralidade de valores característicos associados com a luz não visível detectada; identificar um ou mais macroblocos, cada um incluindo um subconjunto da pluralidade de pontos de amostragem; selecionar um valor de padrão local, calcular um número de ocorrências do valor de padrão local dentro de cada subconjunto da pluralidade dos pontos de amostragem para cada um dos um ou mais macroblocos; gerar uma primeira matriz incluindo uma pluralidade de valores ponderados, calculando a pluralidade de valores ponderados com base no número de ocorrências do valor de padrão local e tamanhos correspondentes de um ou mais macroblocos; atribuir um índice único a cada um da pluralidade de valores ponderados; gerar uma segunda matriz do índice único classificando a pluralidade de valores ponderados; e gerar uma terceira matriz incluindo uma pluralidade de distâncias de classificação.10. Biometric identification method characterized by the fact that it comprises: emitting a non-visible incident light; detecting a detected non-visible light, wherein the detected non-visible light includes a reflected non-visible light and a radiated non-visible light; generating a heat map including a plurality of sampling points having a plurality of characteristic values associated with the detected non-visible light; identifying one or more macroblocks each including a subset of the plurality of sampling points; selecting a local pattern value, calculating a number of occurrences of the local pattern value within each subset of the plurality of sampling points for each of the one or more macroblocks; generating a first matrix including a plurality of weighted values, calculating the plurality of weighted values based on the number of occurrences of the local pattern value and corresponding sizes of one or more macroblocks; assigning a unique index to each of the plurality of weighted values; generating a second matrix of the unique index sorting the plurality of weighted values; and generating a third matrix including a plurality of classification distances. 11. Método, de acordo com a reivindicação 10, caracterizado pelo fato de compreender adicionalmente: exibir uma imagem de uma face de um solicitante de acesso capturada pelo sensor óptico.11. Method according to claim 10, characterized in that it further comprises: displaying an image of a face of an access requester captured by the optical sensor. 12. Método, de acordo com a reivindicação 10, caracterizado pelo fato de que: a luz não visível refletida é gerada a partir da luz não visível incidente refletida em uma face do solicitante; e a luz não visível irradiada é gerada a partir do calor do solicitante.12. Method according to claim 10, characterized in that: the reflected non-visible light is generated from the incident non-visible light reflected on a face of the requester; and radiated non-visible light is generated from the applicant's heat. 13. Método, de acordo com a reivindicação 10, caracterizado pelo fato de que a luz incidente não visível está perto da luz infravermelha ou luz ultravioleta.13. Method according to claim 10, characterized in that the non-visible incident light is close to infrared light or ultraviolet light. 14. Método, de acordo com a reivindicação 10, caracterizado pelo fato de compreender adicionalmente:14. Method according to claim 10, characterized in that it further comprises: transmitir um sinal interrogatório para um cartão de proximidade do solicitante, e receber um sinal de resposta do cartão de proximidade incluindo uma sequência de identificação.transmitting an interrogation signal to an applicant's proximity card, and receiving a response signal from the proximity card including an identification string. 15. Método, de acordo com a reivindicação 10, caracterizado pelo fato de compreender adicionalmente: armazenar uma pluralidade de modelos biométricos de pessoal autorizado; comparar o modelo biométrico do solicitante com a pluralidade de modelos biométricos de pessoal autorizado; e gerar um sinal de correspondência positivo em resposta à identificação de uma correspondência entre o modelo biométrico do solicitante e um da pluralidade de modelos biométricos de pessoal autorizado.15. Method according to claim 10, characterized in that it further comprises: storing a plurality of biometric templates of authorized personnel; compare the applicant's biometric template with the plurality of authorized personnel biometric templates; and generating a positive match signal in response to identifying a match between the applicant's biometric template and one of the plurality of authorized personnel biometric templates. 16. Método, de acordo com a reivindicação 15, caracterizado pelo fato de compreender adicionalmente transmitir o sinal de correspondência positivo para uma porta de acesso para autorizar o acesso do solicitante ao ponto de entrada.16. Method according to claim 15, characterized in that it further comprises transmitting the positive match signal to an access door to authorize the requester's access to the entry point. 17. Método, de acordo com a reivindicação 10, caracterizado pelo fato de que o modelo biométrico inclui um modelo de reconhecimento facial.17. Method according to claim 10, characterized in that the biometric template includes a facial recognition template. 18. Método, de acordo com a reivindicação 10, caracterizado pelo fato de que o valor de padrão local inclui um valor de padrão binário local ou um valor de padrão ternário local.18. Method according to claim 10, characterized in that the local pattern value includes a local binary pattern value or a local ternary pattern value. 19. Método, de acordo com a reivindicação 10, caracterizado pelo fato de que um ou mais macroblocos incluem pelo menos um de um macrobloco 10 x 10, um macrobloco 15 x 15, um macrobloco 20 x 20, um macrobloco 30 x 30, um macrobloco 35 x 35, e um macrobloco de 40 x 40.19. The method of claim 10, wherein the one or more macroblocks include at least one of a 10 x 10 macroblock, a 15 x 15 macroblock, a 20 x 20 macroblock, a 30 x 30 macroblock, a 35 x 35 macroblock, and a 40 x 40 macroblock. 20. Infraestrutura caracterizada pelo fato de compreender: um ponto de entrada com acesso controlado; e um painel frontal configurado para: emitir uma luz incidente não visível na face de um solicitante; detectar uma luz não visível detectada da face do solicitante, em que a luz não visível detectada inclui uma luz não visível refletida e uma luz não visível irradiada; gerar um modelo biométrico do solicitante por: gerar um mapa de calor incluindo uma pluralidade de pontos de amostragem tendo uma pluralidade de valores característicos associados com a luz não visível detectada; identificar um ou mais macroblocos, cada um incluindo um subconjunto da pluralidade de pontos de amostragem; selecionar um valor de padrão local,20. Infrastructure characterized by the fact that it comprises: an entry point with controlled access; and a front panel configured to: emit a non-visible incident light on the face of an applicant; detecting a non-visible light detected from the face of the requester, wherein the non-visible light detected includes a non-visible reflected light and a non-visible radiated light; generating a biometric model of the applicant by: generating a heat map including a plurality of sampling points having a plurality of characteristic values associated with the detected non-visible light; identifying one or more macroblocks each including a subset of the plurality of sampling points; select a local default value, calcular um número de ocorrências do valor de padrão local dentro de cada subconjunto da pluralidade dos pontos de amostragem para cada um dos um ou mais macroblocos;calculating a number of occurrences of the local pattern value within each subset of the plurality of sampling points for each of the one or more macroblocks; gerar uma primeira matriz incluindo uma pluralidade de valores ponderados, calculando a pluralidade de valores ponderados com base no número de ocorrências do valor de padrão local e tamanhos correspondentes de um ou mais macroblocos;generating a first matrix including a plurality of weighted values, calculating the plurality of weighted values based on the number of occurrences of the local pattern value and corresponding sizes of one or more macroblocks; atribuir um índice único a cada um da pluralidade de valores ponderados;assigning a unique index to each of the plurality of weighted values; gerar uma segunda matriz do índice único classificando a pluralidade de valores ponderados; e gerar uma terceira matriz incluindo uma pluralidade de distâncias de classificação;generating a second matrix of the unique index sorting the plurality of weighted values; and generating a third matrix including a plurality of classification distances; armazenar uma pluralidade de modelos biométricos de pessoal autorizado;store a plurality of biometric templates of authorized personnel; comparar o modelo biométrico do solicitante com a pluralidade de modelos biométricos de pessoal autorizado;compare the applicant's biometric template with the plurality of authorized personnel biometric templates; gerar um sinal de correspondência positivo em resposta à identificação de uma correspondência entre o modelo biométrico do solicitante e um da pluralidade de modelos biométricos de pessoal autorizado; e transmitir o sinal de correspondência positivo a uma porta de acesso para conceder ao solicitante acesso ao ponto de entrada.generating a positive match signal in response to identifying a match between the applicant's biometric template and one of the plurality of authorized personnel biometric templates; and transmitting the positive match signal to an access port to grant the requester access to the entry point.
BR112021002904-4A 2018-08-17 2019-07-23 methods and apparatus for facial recognition BR112021002904A2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201816104826A 2018-08-17 2018-08-17
US16/104,826 2018-08-17
PCT/US2019/043008 WO2020036710A1 (en) 2018-08-17 2019-07-23 Methods and apparatus for facial recognition

Publications (1)

Publication Number Publication Date
BR112021002904A2 true BR112021002904A2 (en) 2021-05-11

Family

ID=69525795

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112021002904-4A BR112021002904A2 (en) 2018-08-17 2019-07-23 methods and apparatus for facial recognition

Country Status (7)

Country Link
EP (1) EP3837634A4 (en)
KR (1) KR20210070278A (en)
AU (1) AU2019322625A1 (en)
BR (1) BR112021002904A2 (en)
CA (1) CA3109748A1 (en)
MX (1) MX2021001871A (en)
WO (1) WO2020036710A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11017211B1 (en) * 2012-09-07 2021-05-25 Stone Lock Global, Inc. Methods and apparatus for biometric verification
US11017213B1 (en) 2012-09-07 2021-05-25 Stone Lock Global, Inc. Methods and apparatus for biometric verification
US11017214B1 (en) 2012-09-07 2021-05-25 Stone Lock Global, Inc. Methods and apparatus for biometric verification
US11017212B2 (en) 2012-09-07 2021-05-25 Stone Lock Global, Inc. Methods and apparatus for biometric verification
USD976904S1 (en) 2020-12-18 2023-01-31 Stone Lock Global, Inc. Biometric scanner
US11741252B1 (en) * 2022-07-07 2023-08-29 Sas Institute, Inc. Parallel and incremental processing techniques for data protection

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69721537T2 (en) * 1996-06-06 2004-04-01 British Telecommunications P.L.C. IDENTIFICATION OF PERSONS
US7110580B2 (en) * 2000-05-19 2006-09-19 Nextgenid, Inc. Distributed biometric access control method and apparatus
US7856558B2 (en) * 2004-10-21 2010-12-21 Honeywell International Inc. Biometric verification and duress detection system and method
CN102467655A (en) * 2010-11-05 2012-05-23 株式会社理光 Multi-angle face detection method and system
US9740917B2 (en) 2012-09-07 2017-08-22 Stone Lock Global, Inc. Biometric identification systems and methods
US20170132466A1 (en) * 2014-09-30 2017-05-11 Qualcomm Incorporated Low-power iris scan initialization
US10110802B2 (en) * 2016-12-30 2018-10-23 Axis Ab Historical gaze heat map for a video stream

Also Published As

Publication number Publication date
CA3109748A1 (en) 2020-02-20
EP3837634A1 (en) 2021-06-23
EP3837634A4 (en) 2022-05-18
MX2021001871A (en) 2021-07-15
WO2020036710A1 (en) 2020-02-20
KR20210070278A (en) 2021-06-14
AU2019322625A1 (en) 2021-03-18

Similar Documents

Publication Publication Date Title
US11651623B2 (en) Methods and apparatus for outdoor access control using biometric verification
BR112021002904A2 (en) methods and apparatus for facial recognition
Del Rio et al. Automated border control e-gates and facial recognition systems
US11163984B2 (en) Methods and apparatus for constructing biometrical templates using facial profiles of users
US20190147676A1 (en) System and method for optimizing a facial recognition-based system for controlling access to a building
US20150015365A1 (en) Point of entry authorization utilizing rfid enabled profile and biometric data
US11163983B2 (en) Methods and apparatus for aligning sampling points of facial profiles of users
US11017212B2 (en) Methods and apparatus for biometric verification
Sudeep et al. An overview of biometrics and face spoofing detection
US20220207915A1 (en) Acquiring a plurality of mobile credentials in a plurality of readers
CN107395369A (en) Towards mobile Internet from the authentication method of carrying device, access method and system
US11275929B2 (en) Methods and apparatus for privacy protection during biometric verification
WO2021138342A1 (en) Methods and apparatus for facial recognition
Shahriar et al. An iris-based authentication framework to prevent presentation attacks
US11594072B1 (en) Methods and apparatus for access control using biometric verification
US11017213B1 (en) Methods and apparatus for biometric verification
US11017214B1 (en) Methods and apparatus for biometric verification
US20220207943A1 (en) Automated mass facial recognition enrollment
US11301670B2 (en) Methods and apparatus for collision detection in biometric verification
CA3132721A1 (en) Methods and apparatus for facial recognition
JP2020135666A (en) Authentication device, terminal for authentication, authentication method, program and recording medium
Therar et al. Personal Authentication System Based Iris Recognition with Digital Signature Technology
CN117501265A (en) Method for authenticating a user of a mobile device
MALEK SEQUENTIAL SUBSPACE ESTIMATOR FOR AN EFFICIENT MULTIBIOMETRICS AUTHENTICATION AND ENCRYPTION
Smith The use of 3D sensor for computer authentication by way of facial recognition for the eyeglasses wearing persons