PT1093633E - Sistema de identificação da íris e método para identificar uma pessoa através do reconhecimento da íris - Google Patents
Sistema de identificação da íris e método para identificar uma pessoa através do reconhecimento da íris Download PDFInfo
- Publication number
- PT1093633E PT1093633E PT00921118T PT00921118T PT1093633E PT 1093633 E PT1093633 E PT 1093633E PT 00921118 T PT00921118 T PT 00921118T PT 00921118 T PT00921118 T PT 00921118T PT 1093633 E PT1093633 E PT 1093633E
- Authority
- PT
- Portugal
- Prior art keywords
- iris
- pupil
- sectors
- coefficients
- haar
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Collating Specific Patterns (AREA)
Description
1
DESCRIÇÃO "SISTEMA DE IDENTIFICAÇÃO DA ÍRIS E MÉTODO PARA IDENTIFICAR UMA PESSOA ATRAVÉS DO RECONHECIMENTO DA ÍRIS"
CAMPO DA INVENÇÃO A presente invenção refere-se a um sistema de identificação da iris e método de confirmação da identidade de um ser vivo através do uso de uma imagem da iris. Mais especificamente, a invenção refere-se a um método de identificação da iris pela determinação de um ou mais parâmetros de identificação em relação à estrutura fibrosa da iris, da forma da coroa nervosa autónoma (ANW) e da pupila e a sua reacção espontânea à luz, e a existência, forma e localização de uma lacuna a partir da imagem da íris.
ANTECEDENTES DA INVENÇÃO
Um conhecido sistema de identificação da íris para identificar uma pessoa específica, compara o código da íris a partir de um sinal da imagem da porção da íris tirada a partir de um olho de uma pessoa, com a informação da íris correspondente procurada a partir de uma base de dados para aceitar ou rejeitar uma pessoa em particular de acordo com o resultado da comparação. Contudo, este convencional sistema de identificação da íris, não atingiu um elevado nível de exactidão de identificação.
Além do mais, visto que vários sistemas de identificação da íris têm limitações em distinguir se estão a observar uma íris real de um ser vivo, não podem ser usados com segurança em sistemas como os dos bancos, sistemas de 2 pagamento electrónico ou semelhantes devido ao elevado risco de má identificação ou falsificação da imagem da íris 0 documento Japonês JP9212644 descreve um sistema para confirmação da identidade de um ser vivo através do exame minucioso da íris, compreendendo: (a) uma unidade de controlo para receber informação de identificação gue identifica o ser vivo, e uma unidade de armazenamento de dados incluindo uma base de dados acedida pela unidade de controlo para conter informação pessoal predeterminada associada com um ser identificável para comparação com a informação de identificação; (b) uma unidade de captação da iris incluindo uma câmara operada pela unidade de controlo quando a informação de identificação corresponde à informação predeterminada para capturar imagens da iris criando sinais de imagem de entrada; e (c) uma unidade de processamento de dados para processamento dos sinais de imagem de entrada em dados processados; em que a referida unidade de armazenamento é operada para comparar os dados processados com aqueles armazenados para determinar se existe uma correspondência indicativa de uma confirmação de identidade.
SUMÁRIO DA INVENÇÃO É um objectivo da presente invenção verificar a identidade de um indivíduo usando um sistema de reconhecimento da íris tendo um elevado nível de exactidão.
Outro objectivo é o de alcançar um elevado nível de exactidão na identificação através da análise de uma multiplicidade de propriedades associadas com a íris. 3
Desse modo, um objectivo da invenção é o de identificar a íris de um ser vivo rápida e claramente pela determinação de uma pluralidade de parâmetros de identificação da íris de acordo com uma estrutura fibrosa da iris obtida a partir de uma imagem da iris, a reacção da pupila e da coroa nervosa autónoma causada pela luz, a forma de uma coroa nervosa autónoma e pupila, e a existência, localização e forma da uma lacuna.
Um sistema para confirmar a identificação de um ser vivo através do exame minucioso da iris de acordo com a presente invenção, compreende uma unidade de controlo para receber informação de identificação que identifica o ser vivo, e uma unidade de armazenamento de dados incluindo uma base de dados acedida pela unidade de controlo para conter informação pessoal predeterminada associada com um ser identificável para comparação com a informação de identificação. Uma unidade de captação da iris incluindo uma câmara é operada pela unidade de controlo quando a informação de identificação corresponde à informação predeterminada para inicialmente capturar imagens da iris, criando sinais de imagem de entrada. Uma unidade de processamento de dados pré-processa os sinais de imagem de entrada em dados processados incluindo sectores de identificação e exclusão da imagem da iris com interferência através da comparação de variações de coeficientes espectrais de alta frequência em sectores adjacentes. A unidade de armazenamento inclui, para cada ser identificável, pelo menos, um de uma pluralidade de parâmetros anteriormente armazenados para a identificação da iris, seleccionados a partir de um grupo consistindo da (1) densidade e forma da textura da estrutura fibrosa da iris usando um método de transformação de frequência; (2) 4 reacção da pupila; (3) a forma da pupila; (4) reacção da coroa nervosa autónoma; (5) forma da coroa nervosa autónoma; (6) a existência de lacuna; (7) a localização da lacuna; e (8) a forma de lacuna. A unidade de controlo é operada para comparar os dados processados com o(s) parâmetro(s) para determinar se existe uma correspondência indicativa de uma confirmação de identidade e para analisar uma selecção dos sinais de imagem de entrada com um sistema de sector múltiplo variável de conversão espectral usando o método de transformação de frequência.
De acordo com um aspecto preferido da invenção, a câmara é estruturada para fotografar ambos os olhos do ser vivo. A unidade de processamento de dados processa separadamente sinais de imagem de entrada em dados processados representativos de cada olho. Deste modo, um nivel mais elevado de exactidão é alcançado para confirmar a identidade do ser vivo através do exame minucioso da iris.
Para aceder ao sistema de identificação, um ser para ser identificado inicialmente insere a informação de identificação no sistema. Em algumas formas de realização, os dados da informação de identificação podem ser inseridos usando uma unidade de leitura de cartões, uma unidade de entrada de chave, ou semelhante, em que um PIN (Número de Identificação Pessoal) ou qualquer outro identificador pessoal é usado para aceder ao sistema. É também possível utilizar sistemas accionados por voz. A unidade de captação da íris inclui de um modo preferido uma fonte de luz operada pela unidade de controlo em conjunto com a câmara para capturar, sucessivamente, uma pluralidade de imagens da íris para criar os sinais de 5 imagem de entrada. Através da iluminação do olho, será verificado que a iris é levada a contrair-se e, desse modo, a sucessão de imagens irá permitir ao sistema a captura da contracção e, se desejado, a subsequente dilatação da iris. A fonte de luz é de um modo preferido uma fonte de infravermelhos.
De acordo com outra caracteristica única da presente invenção, o sistema dispõem de um interface entre a unidade de captação da iris e a unidade de controlo para permitir que a câmara seja automaticamente alinhada com o olho do utilizador com base no acesso de informação pessoal predeterminada na base de dados contendo atributos da tradução física do utilizador em dados de posicionamento.
Como acima mencionado, o sistema tem de um modo preferido a capacidade de analisar diferentes parâmetros atribuíveis a características da íris. Contudo, a invenção é realizada para confirmar a identidade de um utilizador através do visionamento e análise de apenas um dos anteriormente mencionados parâmetros do processo ou um subconjunto de parâmetros deste processo e incluindo todo o conjunto de parâmetros.
As técnicas únicas usadas para analisar a densidade e forma da textura da estrutura fibrosa da íris incluem de um modo preferido métodos de transformação de frequência utilizando a Transformada de Haar. De acordo com uma forma de realização preferida, a presente invenção fornece um sistema de sector múltiplo variável de conversão espectral usando funções de Transformada de Haar. Com esta aproximação única, uma selecção de entre as imagens da íris é dividida numa multiplicidade de sectores em que, para 6 cada sector, é calculado um número de coeficientes de função Haar. Este sistema de sector múltiplo de análise espectral permite de forma vantajosa a exclusão de certos sectores da íris que são incompreensíveis por interferências causadas, por exemplo, pela presença de defeitos ou interferências com a pálpebra, pestanas, etc. Estes defeitos manifestam-se eles próprios através da geração de coeficientes de alta frequência e através de pronunciadas variações predeterminadas entre os coeficientes de sectores adjacentes. Assim, um sector adjacente permite, pela análise do sector, a aplicação única de Transformadas de Haar à tecnologia de reconhecimento da íris.
Utilizando as Transformadas de Haar, em combinações preferidas com a selecção de coeficientes de Haar representativos de zonas seleccionadas de baixa frequência, é possível criar uma gravação de referência da íris tendo uma exactidão de reconhecimento de imagens da íris sem precedentes. A presente invenção, em determinadas formas de realização, utiliza uma sucessiva série de imagens da íris para gerar um histograma da pupila ou pupilograma, o qual é representado por uma curva mostrando a contracçâo e dilatação da pupila ao longo do tempo. A presente invenção fornece novas técnicas para analisar o pupilograma a partir da análise das alterações de gradiente como mais um meio de melhorar a exactidão da identificação. A presente invenção realiza também análises dos limites, forma e orientação da pupila como mais um meio de melhorar a exactidão da identificação. A presente invenção também processa informação relacionada com a forma e reacção da coroa nervosa autónoma bem como a 7 existência, localização e forma da lacuna, se alguma existir, como mais um meio de melhorar a exactidão da identificação. Métodos para confirmação da identidade de seres vivos são também fornecidos pela presente invenção baseados na função da selecção única de parâmetros de identificação da iris como acima descrito.
Outros objectos e vantagens da presente invenção serão ainda imediatamente reconhecidos pelos peritos nesta técnica a partir da seguinte descrição detalhada, em que apenas as formas de realização preferidas da invenção são mostradas e descritas, apenas por meio de ilustração do melhor modo contemplativo de realização da invenção. Como será compreendido, a presente invenção é capaz de outras e diferentes formas de realização, e os seus diversos detalhes são capazes de modificações em vários aspectos óbvios, tudo sem afastamento da invenção. Por conseguinte, os desenhos e a descrição devem ser entendidos como meramente ilustrativos, e não como restritivos.
BREVE DESCRIÇÃO DOS DESENHOS A FIG. IA é um diagrama de blocos de um sistema exemplificativo para identificação da iris de um ser vivo de acordo com a presente invenção; A FIG. 1B é uma perspectiva de uma vista lateral de uma câmara representando uma forma de realização de uma unidade de captação da iris na forma de realização da FIG. IA e o seu sistema de iluminação; A FIG. 2 é um desenho de referência tirado parcialmente da FIG. 1B para descrever um apontador de visão usado pela unidade de captação de imagem da iris da FIG. 1B;
A FIG. 3 é uma vista detalhada do apontador de visão da FIG 2. A FIG. 4 é um desenho de referência para descrever o apontador de visão da FIG.2 que reflecte uma fonte de luz de condução da visão para o olho do utilizador; A FIG. 5 é uma vista frontal de uma segunda lente no sistema da FIG. 1B; A FIG. 6 é um fluxograma de um exemplo de sinal de imagem capturado na unidade de captação de imagem da iris realizado por controlo de computador; A FIG. 7 é um fluxograma de um exemplo do ajustamento em altura da câmara da FIG. 6; A FIG. 8 é uma vista exemplificativa da imagem da íris para descrever a região seleccionada (x) do sinal de entrada de imagem requerido para análise da íris; A FIG. 9 é um fluxograma de alto nível para explicar toda a operação do método de identificação da íris segundo a presente invenção;
As FIGS. 10A - 10C são fluxogramadas sequenciais detalhados do fluxograma da FIG. 9; 9 A FIG. 11 é um exemplo da imagem da íris para descrever o movimento da íris dinâmica e da coroa nervosa autónoma a um certo ângulo Θ, e a FIG. 12 é o correspondente gráfico representando o raio da pupila da FIG. 11, na forma de um histograma da pupila ou pupilograma e a coroa nervosa autónoma transformado em dados unidimensionais com uma variação de tempo; A FIG. 13 é uma vista exemplificativa da coroa nervosa autónoma e da lacuna em que uma extremidade da imagem da íris é extraída; A FIG. 14 é uma vista exemplificativa da coroa nervosa autónoma e da lacuna da FIG. 13, a qual é transformada em dados unidimensionais com a Transformação do Eixo Central; A FIG. 15 é um diagrama da Estrutura tipo Borboleta do
Gráfico de Fluxo da Transformada de Haar; A FIG. 16 é uma vista exemplif icativa da imagem da íris para descrever o Sistema de Sector Múltiplo Variável de Conversão Espectral; A FIG. 17 é um gráfico de outro pupilograma da média do raio da pupila ao longo do tempo; e A FIG. 18 é uma vista exemplificativa da pupila incluindo a informação das características da pupila a ser extraída.
DESCRIÇÃO DETALHADA DOS DESENHOS A FIG. IA é um diagrama de blocos de um sistema (14) para identificação da íris de um ser vivo de acordo com a presente invenção. Um ser vivo inclui qualquer ser animado 10 com uma íris para identificação incluindo humanos e animais O sistema (14) compreende de um modo preferido uma unidade de leitura de cartões (40) que lê, através de meios de gravação de informação de acesso de um cartão, e informação de identificação gravada no cartão guardando um número de cartão pessoal. Uma unidade de entrada de chave (50), tendo uma pluralidade de chaves para dar entrada de PINs, gera sinais eléctricos correspondentes a cada entrada de chave. Uma unidade de captação de imagem da íris (20) tendo uma pluralidade de fontes de luz que piscam automaticamente em sequência de acordo com uma ordem predeterminada de sinais de controlo específicos para permitir a uma câmara com uma função de auto focagem capturar imagens dinâmicas da íris para um número de segundos (por exemplo, a velocidades que geram mais de 25 frames por segundo) . Uma unidade de condução (30) fornece a unidade de captação de imagem da íris (20) com capacidade para iluminação e ajuste da posição da câmara através do fornecimento de um sinal de controlo particular com o uso de um motor.
Uma unidade de processamento de dados (60) pré-processa o sinal de imagem de entrada capturada pela unidade de captação de imagem da íris (20) . Uma unidade de armazenamento de dados (80) forma uma base de dados para armazenar uma pluralidade de parâmetros de identificação incluindo 1) a densidade e forma da textura da estrutura fibrosa da íris a partir do sinal da imagem de íris individuais, 2) o movimento da coroa nervosa autónoma (ANW) em resposta à luz, 3) o movimento da pupila em resposta à luz, 4) a forma da ANW, 5) a forma da pupila, 6) a existência, localização e forma da lacuna, em associação com cada número de cartão pessoal ou PIN de cada pessoa, respectivamente. Uma unidade de controlo (70) distingue a 11 íris para uma pessoa em particular pela confirmação da identidade do utilizador através da busca na base de dados do número de cartão ou PIN introduzido ou lido pela unidade de leitura de cartões ou pela unidade de entrada de chave, adquirindo imagens da íris dinâmica, ajustando a posição da câmara automaticamente com base na informação pessoal, e determinando uma pluralidade de parâmetros de identificação da íris para verificar a identidade do utilizador a partir dos sinais de imagem. Neste caso, não apenas a informação da íris para uma pessoa em particular, mas a informação adicional para cada pessoa (por exemplo, informação de estatura pessoal pertinente para a altura da câmara quando está a capturar a imagem da íris, ou a altura da câmara mais apropriada para cada pessoa) pode ser guardada na unidade de armazenamento de dados (80), de maneira que a unidade (80) pode ajustar a altura da câmara automaticamente através da leitura da informação adicional. A FIG. 1B é a perspectiva de uma vista lateral de uma porção de uma câmara binocular e de um sistema de iluminação que representa uma ilustração exemplificativa da unidade de captação de imagem da íris (20) da FIG. IA. A unidade de captação de imagem da íris (20) é fornecida com uma câmara (16) e uma pluralidade de primeira e segundas lentes (11 e 12) em lugares requeridos para capturar imagens da íris. É preferível usar a câmara (16) tendo uma zona de captação variável (zona flexível) para auto focagem Além disso, é preferível usar a segunda lente (12) tendo uma profundidade de focagem de mais do que 5 mm para prevenir degradação da função de auto focagem como um resultado do movimento das pestanas, pálpebras, e piscar do olho do utilizador. A primeira e segunda lentes (11, 12) são de um modo preferido fornecidas para cada olho. 12 A unidade de captação de imagem da íris (20) é ainda fornecida com uma unidade guia da visão (18) (ver FIGs. 2-4) para prevenir a inclinação da íris para um lado através da fixação do olhar do utilizador na porção central da câmara em conjunto com a unidade de captação de imagem da iris (20) da FIG. 1B. Além disso, em algumas circunstâncias, fontes de luz laterais podem ser usadas para auto focagem inicial e ajuste de iluminação. A FIG. 2 é uma vista de referência tirada da FIG. 1B para descrever o apontador de visão e a FIG. 3 mostra o apontador de visão da FIG. 2 em detalhe. A FIG. 4 é um desenho de referência para descrever o funcionamento do apontador de visão na FIG. 2 que reflecte a luz a partir da fonte de luz de condução de visão (L4) para os olhos do utilizador.
Como mostrado nas Figuras 2-4, a unidade guia de visão pode ser composta pela fonte de luz de condução (L4) (também marcada com referência numérica (17)) emitindo uma fraca luz azul ou vermelha para guiar a visão do utilizador. Uma unidade de reflexão (18b) reflecte a luz a partir da fonte de luz (17) para longe da porção central da câmara (16) e uma unidade de suporte (18a) suporta a unidade de reflexão em alinhamento com o centro das lentes. Neste caso, a unidade de suporte (18a) é de um modo preferido construída com um material transparente semelhante a vidro para evitar afectar a imagem da íris mesmo quando colocado no centro da lente. A unidade de reflexão (18b) tem uma determinada inclinação e uma superfície espelhada para reflectir a luz a partir da fonte de luz guia da visão (L4) para o olho do utilizador. A FIG. 5 é uma vista frontal da segunda lente (12) da FIG. 1B. Numa determinada localização da segunda lente frontal 13 (12), é fornecida uma fonte de luz com flash (L3) (12b) que estimula o movimento (isto é, contracção ou dilatação) da pupila e da ANW. Uma pluralidade de fontes de luz infravermelhas (L2) (12a) é organizada numa lista em anel ou circular ao longo da periferia da lente (12) e é controlada por software para permitir à câmara (16) a captura de imagem da iris e uma imagem clara da pupila. A fonte de luz com flash (12b) é de um modo preferido um díodo azul controlado por software para fornecer luz automaticamente num curto círculo. A FIG. 6 é um fluxograma de um exemplo de uma captura de sinal de imagem com a unidade de captação de imagem da íris (20) a ser controlada por computador. No passo de ajuste (S61) a posição da câmara (altura) é ajustada pelo uso da informação pessoal procurada a partir da base de dados tendo como base o número de cartão ou PIN, e uma pluralidade de fontes de luz (12a e 17) são simultaneamente ligadas para auto focagem e para atrair os olhos do utilizador para o objecto da lente. No passo (S62), os olhos do utilizador são guiados para o objecto da lente através do uso de fontes de luz (17) ligadas. A auto focagem da câmara ocorre no passo (S63). No passo (S67) a imagem dinâmica da ANW e do movimento da pupila é adquirido por um período de segundos com a luminosidade (S66) da fonte de luz (12b) num curto circulo que induz o movimento da pupila e da ANW da íris. No passo (S68), todas as fontes de luz ligadas são desligadas após os passos (S61-S68) anteriores. A FIG. 7 é um fluxograma do detalhe do ajustamento da altura da câmara no passo (S61) da FIG. 6, o fluxograma compreende os seguintes passos: introdução de um número de 14 cartão ou PIN (S71); aquisição da informação relativa à altura da câmara da pessoa correspondente através da busca na base de dados com o número de cartão ou PIN introduzidos (S 7 2); e ajuste adequado da altura da câmara à pessoa correspondente através da rotação do motor numa direcção de avanço ou recuo (S73) após comparação da informação adquirida da altura da câmara com a informação da presente altura da câmara. A FIG. 8 é uma vista exemplificativa da imagem da iris para descrever a zona seleccionada (x) do sinal de imagem de entrada requerido para fazer a análise da iris de acordo com uma forma de realização da presente invenção. A zona que deve ser seleccionada para análise da iris deve incluir, pelo menos, uma porção da ANW (10b) e do total da pupila (10a). Adicionalmente, a zona seleccionada (x) é de um modo preferido uma porção vista claramente e não afectada pelas pestanas, pálpebras, etc. e é preparada dentro dum intervalo maior que um terço e menor do que metade do diâmetro da iris. A FIG. 16 é uma vista exemplificativa da análise da imagem da iris empregando o sistema de sector múltiplo variável da análise espectral numa forma de realização preferida da invenção, como descrito abaixo em maior detalhe. O sistema de sector múltiplo variável da análise espectral permite a selecção das porções visíveis da íris, erradamente interpretadas por interferência, para análise, aumentando assim a fiabilidade do processo de identificação. As características anatómicas da abertura do olho e a tumescência das pálpebras são identificadas e executadas. Os defeitos ou interferências com os limites que não possam 15 ser aproximados antecipadamente, isto é, o brilho intenso, são identificados e executados. A FIG. 9 é um fluxograma de elevado nivel para descrever todo o método de identificação da íris da acordo com a presente invenção, enquanto as FIGs. 10A-10C são fluxogramas sequenciais detalhados dos passos do fluxograma de elevado nivel da FIG. 9.
Como mostrado nas FIGs. 10A-10C, no método de identificação da iris de acordo com a presente invenção, uma variedade de formas de realização pode ser realizada através da inclusão de um ou mais dos seguintes processos. Primeiro, um processo de confirmação por número de cartão ou PIN (S101-S103) verifica a identidade do utilizador a partir da busca e obtenção de informação pessoal de acordo com o número correspondente da base de dados. A seguir ao número de cartão ou PIN ser introduzido, um processo de aquisição de imagem (S104-S105) adquire imagens da iris dinâmica ajustando a posição da câmara de acordo com a informação pessoal do utilizador obtida durante o processo de confirmação e controlando a pluralidade de fontes de luz.
Os diferentes parâmetros de identificação que podem ser obtidos e analisados de acordo com a presente invenção serão agora descritos. DENSIDADE E FORMA DA TEXTURA DA ESTRUTURA FIBROSA DA IRIS Um processo de confirmação da estrutura fibrosa da iris (S106-S110) é usado para verificar a identidade do utilizador com os parâmetros de identificação correspondentes, após determinar os parâmetros de identificação a partir da transformação do sinal da imagem 16 da zona relativa à análise da íris com uma Transformada de Wavelet da imagem da iris ainda seleccionada adquirida durante o anterior processo. A Transformada pode ser aplicada à zona da FIG. 8 ou a um sector individual da FIG. 16 como abaixo descrito com ligação com o sistema de sector múltiplo variável da análise espectral.
Numa forma de realização da presente invenção, o processo de confirmação da estrutura fibrosa da iris pode ser abrangido pelos passo de: seleccionar (S106, S107) (FIG. 10A) uma zona (seleccionar a zona x; essencialmente incluindo uma porção da ANW e toda a pupila, dentro do intervalo maior do que um terço e menor do que metade do diâmetro da iris) referentes à análise da imagem da iris através do pré-processamento do sinal dinâmico da imagem da iris: determinar no passo (S108) os parâmetros de identificação a partir dos coeficientes da Transformada de Wavelet representando a informação especializada da forma da textura e densidade da estrutura fibrosa da iris após transformação do sinal de imagem ainda seleccionado, da zona seleccionada com uma Transformada de Wavelet bidimensional (por exemplo, uma Tranformada de Wavelet como a Transformada de Haar); e confirmar com os passos (S109, S110) a identificação do utilizador através da busca dos parâmetros correspondentes a partir da base de dados.
Transformada de Wavelet
Em geral, a densidade e forma da textura da estrutura fibrosa da iris é diferente de uma pessoa para outra. Se a Transformada de Wavelet é realizada (especialmente, uma Transformada de Wavelet como a Transformada de Haar) contendo a informação relevante da densidade principalmente na zona de baixa frequência, então, em particular, 17 componentes de baixa frequência dos coeficientes de Transformada de Haar bidimensional têm a maior informação da forma da textura e densidade da fibra da íris.
Os componentes de baixa frequência são seleccionados tendo a maior informação da forma da textura e densidade da fibra da iris através da Transformada de Wavelet para o sinal de imagem da iris seleccionado, como acima descrito, determinando as caracteristicas da frequência, e fixando os coeficientes de baixa frequência da Transformada de Haar bidimensional, que mostra as caracteristicas da frequência, como parâmetros de identificação. A Transformada de Haar aplicada como a da invenção é simétrica, separável e unitária, e usa as seguintes funções de Haar variáveis de acordo com o tamanho (escala) e localização.
Uma função de Haar adicional é definida como se segue:
1 I 0<f <~ 2 -1 ~áf<È - 2 0 .senão
Para simplificação do algoritmo da análise espectral, uma forma de realização preferida exclui o factor normalizante 2"m/2. Deste modo, a definição da função acima é de: 18
Esta função é também referida como função signum Haar. 0 número binário das funções determina a ordem das funções na listagem.
Na presente invenção, quando se determina a actual Transformada de Haar, irá ser um tremendo cálculo devido ao largo tamanho da imagem; contudo o tempo de computação é enormemente melhorado com a Estrutura tipo Borboleta do Gráfico de Fluxo de Transformação.
Uma descrição gráfica do algoritmo de conversão espectral rápida através das funções de signum Haar é mostrada na FIG 15 (em que n = 8), representando a Estrutura tipo Borboleta do Gráfico de Fluxo de Transformação. Ao longo do eixo vertical do gráfico são (P0-P7) indicados os valores de pixel a serem convertidos.
Neste gráfico de fluxo, o valor para cada nível sucessivo prosseguindo para a direita depende dos valores prévios das seguintes equações: A|*]=(x[nj+xjm])/2;
*[«]=(*[«]-x[«D
Em que m=n+leX [n] éa luminosidade do pixel n.
Como resultado do uso da Estrutura tipo Borboleta do Gráfico de Fluxo de Transformação, o programa de conversão espectral através das funções de Haar opera 200 vezes mais depressa do que as aproximações anteriores.
Análise de sector múltiplo variável É descrito abaixo um sistema de sector múltiplo variável de conversão espectral usando funções de Haar. O sistema de 19 sector múltiplo variável é preferido sobre o método de selecção de zona acima divulgado em ligação à FIG. 8. Ocasionalmente, interferências em forma de brilho intenso, pálpebras, e pestanas ocorrem em secções da iris ou na maior porção visível da íris tornando-a indisponível para análise. A interferência ou indisponibilidade de porções da íris reduz o número de sectores disponíveis para comparação resultando numa diminuição da fiabilidade da identificação da pessoa. A análise de imagem começa pela divisão da imagem da íris num anel exterior (100), como mostrado na FIG. 16, e numa zona interior circular que inclui a pupila (120). O limite que separa o anel externo e interno exterior (100) da zona circular, é disposto à distância de 50 pixels da raiz da íris. Um valor maior ou menor do que 50 pixels pode ser usado em formas de realização adicionais. Os limites externos do anel exterior começam imediatamente no limite da esclerótica da íris. O diâmetro do anel exterior pode variar devido a muitos factores, tais como diferentes tamanhos da íris entre indivíduos, diferentes amplitudes nas quais a imagem da íris é obtida e assim por diante. Visto que a porção da íris correspondente ao anel exterior (100) e a área (110) entre a pupila (120) e o anel exterior (100) contrai-se e dilata-se a diferentes amplitudes, diferentes factores de normalização são usados para os anéis interior e exterior.
Na presente forma de realização preferida, cada área (100, 110) é depois radialmente dividida em 16 sectores preferivelmente de tamanho igual, um total de 32 sectores indicados pela referência de caracteres I0-I31· Para cada um dos 32 sectores Io-l3i,são calculados 1.024 coeficientes de 20 função de Haar, usando uma Transformada de Wavelet como acima descrito, formando uma matriz de 32x32. Contudo, é dentro do âmbito da invenção de que o número total de sectores (n + p) em todas as zonas, o número de sectores em cada zona individual (η, p), o tamanho dos sectores e o número dos coeficientes de função de Haar podem variar. Assim, cada zona pode ter um número diferente de sectores (n, p) isto é, a área (110) pode ser radialmente dividida em 10 sectores (p = 10) enquanto o anel exterior (100) é radialmente dividido em 16 sectores (n = 16).
Seguidamente, sectores ocultos ou interferidos pelas pálpebras, geralmente indicados pela referência de caracter (13A e 13B) para a pálpebra inferior e superior respectivamente, ou pestanas são rejeitados através da comparação do coeficiente de sector adjacente. Se uma pronunciada variação de coeficientes de alta frequência é observada, por comparação de coeficientes de sector adjacente, o sector é rejeitado em definitivo. Em referência à Figura 16, a comparação de sector é realizada através de grupos de quatro sectores começando na linha horizontal que separa o sector 0 do 15 e o 7 do 8 e prosseguindo no sentido horário ou contrário ao sentido horário através de sectores adjacentes. Desta forma, os sectores Io-l3, l7-l4, l8~In, e Ii5-Ii2r são comparados.
Por exemplo, os coeficientes de alta frequência no sector Io e li são comparados e se a diferença não excede um valor limite de coeficientes de alta frequência de um predeterminado sector, o sector li é reconhecido como bom. O sector I0 é reconhecido como bom ou teria sido rejeitado durante as análises à pupila fechada pelas pálpebras. De seguida, os sectores de coeficiente li e I2 são comparados e 21 como é visto na Figura 16, o limite da pálpebra é localizado no sector I2. 0 limite no sector I2 irá fazer com que a diferença exceda o limite de coeficiente de alta frequência do sector, e o sector l2 será rejeitado. Após a rejeição do sector I2, o sector I3 irá de maneira semelhante ser rejeitado. Um processo similar será repetido para os restantes quadrantes dos sectores.
Após remoção dos sectores rejeitados a partir da análise, é seleccionado um subconjunto completo dos 1.024 coeficientes de Haar. O número de coeficientes seleccionados é determinado por vários factores. Muitos coeficientes necessariamente aumentam o tamanho da base de dados, muito poucos coeficientes deterioram a qualidade do reconhecimento. Adicionalmente, alguns coeficientes não são seleccionados porque eles mudam consideravelmente com a alteração da luminosidade da imagem e alguns coeficientes de alta frequência incluem muito ruído. Como resultado da experimentação, uma forma de realização preferida usa 31 coeficientes seleccionados a partir da matriz de 32x32 dos 1.024 coeficientes de Haar. A particular localização dos coeficientes seleccionados na matriz é como se segue: (0,1), (1,0), (1,1), (0,2), (0,3) , (2,0), (3,0), (1,2), (1,3), (2,1), (3,1), (0,4) . (0,5) , (0,6), (0,7), (4,0), (5,0), (6,0), (7,0), (1,4), (1,5), (1,6), (1,7), i—1 'vT (5,1), (6,1), (7,1), (2,2), (3,2), (2,3), e (3,3) , Em diferentes formas de realização podem ser usados números de coeficientes maiores ou menores. A selecção dos 32 coeficientes a partir de cada um dos 32 sectores I0-I31 permite a criação de uma gravação de referência da íris de aproximadamente 1 kilobyte de tamanho 22
Os primeiros 32 bits da gravação contêm os resultados das análises de rejeição do sector.
Novas imagens da iris para serem identificadas são processadas da mesma maneira como as imagens de referência acima descritas. A gravação da caracteristica obtida é comparada com todas as gravações de referência da iris da base de dados. A soma da diferença entre a entrada e a referência dos coeficientes da iris é calculada numa base de sector por sector. 0 valor somado encontra-se dentro dum limite de 0 a 2 devido à normalização de coeficiente. Um valor somado de 1 representa uma imagem completamente cinzenta. Um valor de 0, representa uma coincidência completa do sector de espectro, e um valor de 2 representa um módulo igual mas de sinal de espectro oposto.
Após experimentação directa, foi determinado que alguns sectores diferem dos sectores de referência devido à peristáltica da iris (movimentos rápidos espontâneos de algumas áreas da iris). Assim, apenas aqueles sectores em que o valor somado é menor que 1 são usados nas análises da imagem da iris. Deste modo, os sectores alterados pela peristáltica são adicionados aos sectores rejeitados e excluídos a partir da tentativa de reconhecimento. O número mínimo de sectores usados nas análises da imagem da íris é de 10 para cada olho. Podem ser usados menos sectores com o correspondente decréscimo na qualidade de reconhecimento. Os resultados da comparação de coeficientes de sector são multiplicados de modo a acentuar diferenças. Deste modo, se a imagem a ser identificada coincide com uma imagem de referência, o valor resultante será perto de 0. Em contraste, diferentes valores de resultados de imagem serão no âmbito das centenas ou milhares. 23 A partir do resultado da Transformada de Haar, os coeficientes da forma da textura da zona de baixa frequência seleccionada são utilizados para identificação desde que os coeficientes espectrais de baixa frequência contenham muita informação da densidade e forma da textura da estrutura fibrosa da íris.
Reacção da Coroa Nervosa Autónoma e da Pupila Um processo de confirmação da reacção da pupila e da ANW (S111-S116) da FIG. 10B verifica a identidade do utilizador através dos parâmetros de identificação correspondentes pela detecção da pupila e da ANW a partir da imagem da íris dinâmica adquirida. Os parâmetros de identificação são depois determinados usando a reacção dinâmica (contracção e dilatação) da pupila e da ANW a partir do sinal de imagem dinâmico detectado.
Adicionalmente, numa forma de realização da presente invenção, um processo de confirmação de reacção da pupila e da ANW pode ser compreendido pelos passos de: detecção da zona da pupila computando a porção central da imagem da iris dinâmica adquirida (Slll, S112 da FIG. 10B); computar a zona da ANW (S113) ; determinar os parâmetros de identificação respectivos para reconhecimento da pupila e da ANW viva (S114) depois de computar o tempo de reacção (dilatação ou contracção) do movimento da pupila e da ANW na zona detectada; e confirmar a identidade do utilizador pela busca de parâmetros correspondentes a partir da base de dados (SI15, S116) . A FIG. 11 é uma imagem exemplificativa de uma iris (10c) para descrever o movimento da pupila (10a) e da ANW (10b) a um certo ângulo Θ, e a FIG. 12 é um gráfico que ilustra uma 24 média do raio pupilar (Rl), um raio pupilar (R2) a um determinado ângulo Θ, e um raio (R3) da ANW a um determinado ângulo Θ, transformado em dados bidimensionais com a variação do tempo. Na ilustração gráfica, o primeiro tempo "tl" representa o tempo de operação do flash de uma fonte de luz, o segundo tempo "t2" o tempo de inicio da contracçâo de Rl, o terceiro tempo "t3" quando a média do raio pupilar é minima, o quarto tempo "t4" quando o raio pupilar é mínimo a um determinado ângulo θ, o quinto tempo "t5" quando o raio da ANW é mínimo a um determinado ângulo Θ. Por conseguinte, como resultado da comparação destas imagens dinâmicas, os respectivos parâmetros de identificação podem ser obtidos através da reacção espontânea da pupila e da ANW à luz.
Para o propósito acima mencionado, a invenção utiliza um valor de referência predeterminado considerado representativo de um ser vivo se o movimento do raio pupilar excede uma determinada percentagem (por exemplo, maior do que 5 por cento) quando a pupila é contraída. A extremidade da pupila, também, deve ser detectada a partir da imagem da íris dinâmica capturada para observar o movimento da pupila. Presentemente, é possível detectar a extremidade pupilar após decidir o centro aproximado da íris através do uso do Algoritmo de Busca Central de Simetria.
Com este método, pode ser possível identificar a íris sem qualquer erro mesmo que a imagem da íris não tenha sido capturada no seu centro e esta de algum modo tender para a direita ou para a esquerda. 25
Quando a imagem da íris está muito cortada lateralmente para ser identificada, pode ser capturada novamente. Do mesmo modo, quando outras imagens são tirada para além da imagem da íris, é possível em muitos casos descriminar entre imagens verdadeiras e imagens falsas.
No acima mencionado Algoritmo de Busca Central de Simetria, a seguinte função F (i) é obtida em relação às linhas verticais e horizontais da imagem. *(*>*(!+ K)
k—N
Em que, *<k)
UkàO) -l,(k<0> e, N é o comprimento da linha da imagem, x (i) é a luminosidade do pixel "i" da linha horizontal ou vertical, enquanto x(i) = x(0) quando i<0, e x(i) = x(N) quando i>N.
Em tal caso, o domínio (i) da definição que minimiza o valor absoluto da função F(i) está no centro da simetria. Com estes métodos aplicados às linhas horizontais e verticais, após o ponto em que os domínios (i) minimizam o valor absoluto da função F(i), a intercepção da definição é disposta como o centro da simetria. Se os domínios (i) da definição das linhas horizontais e verticais não se intersectam, mas estão dispersos, especialmente caso se desviem a partir de determinado limite, isto significa que a imagem capturada não é a imagem da íris ou a imagem da íris está a tender muito para a direita ou para a esquerda; por este motivo, a imagem da íris deve ser recapturada antes de prosseguir com mais identificação. 26
No caso em que a imagem dinâmica é tirada por cima da íris, a pupila e a ANW são obrigadas a contrair e dilatar pelo flash da fonte de luz (12b) . Os movimentos da pupila e da ANW não ocorrem simultaneamente e mostram diferentes tipos de acordo com cada pessoa. Os parâmetros da reacção da pupila e da ANW (FIG. 11 e 12) obtidos a partir dos movimentos que não se realizam ao mesmo tempo são usados para identificação.
Com referência agora à FIG. 17, um pupilograma ou histograma da pupila representa a contracção e dilatação média da pupila em resposta ao flash de luz no tempo T0. 0 eixo vertical indica a amplitude ou raio da pupila, enquanto o eixo horizontal indica o começo do tempo T0 ou o tempo do flash da luz. TL é o tempo no qual a pupila começa a contrair-se em resposta ao flash de luz; TL - T0 é o tempo latente de resposta da pupila. AL é o raio médio da pupila anterior ao flash de luz. Tm é o tempo no qual a pupila se contraiu no raio mínimo, Am. O tempo para a pupila se contrair, excluindo o tempo de latência, é TM - TL, ou TP. Ti e T2 são respectivamente o tempo do 40° e 70° frame da imagem da íris dinâmica e Ai e A2 são o raio correspondente da pupila nos tempos T2 e T2. SP é a velocidade da contracção da pupila entre TL e TM. Dffl é a distância linear ao longo da curva da contracção da pupila entre TL e TM. A % A2 é o raio da distância da dilatação da pupila em T2, ou Ai- Am, para a média da distância de contracção da pupila ou Al- Am. A % A2 é o raio da distância da dilatação em T2 ou A2— Am, para a média da distância de contracção da pupila ou Al- Am.
Porque os pupilogramas de pessoas que usam drogas ou álcool diferem dos pupilogramas das pessoas que não usam drogas ou 27 álcool, o pupilograma pode ser usado para detectar drogas e/ou álcool usado por indivíduos. 0 pupilograma de uma pessoa que usa drogas tem um tempo mais lento do que o normal para contrair a pupila para o raio mínimo. TM. 0 pupilograma de uma pessoa que usa álcool é mais plano em comparação com o de uma pessoa que não usa álcool, isto é, DftB é mais pequeno para o utilizador de álcool. Também, as % Ai e % A2 são mais pequenas para o utilizador de álcool.
De modo a detectar a presença de droga e/ou álcool dentro do corpo de uma pessoa, o valor dos parâmetros, Dab, Sp, T2-T0, TM, % Ai e % A2 para cada pupila (esquerda e direita) são detectados usando um pupilograma. A taxa de valores entre o olho esquerdo e direito para cada um desses parâmetros é também computado. Os valores computados e detectados são depois comparados com valores de uma pessoa normal, não drogada ou alcoolizada; os valores da pessoa normal são derivados através da experimentação. Se os valores dos parâmetros detectados forem muito mais baixos ou menores do que os valores da pessoa normal, então o uso de drogas e/ou álcool foi detectado. Se os valores dos parâmetros detectados são aproximadamente iguais ou excedem os valores da pessoa normal, então não foi detectado o uso de droga e/ou álcool. Isto é porque a pupila de uma pessoa que usa droga e/ou álcool reage mais lentamente e contrai-se em menor quantidade em comparação com uma pessoa não drogada e/ou alcoolizada.
Para além disso, o raio da reacção da pupila esquerda e direita de uma pessoa pode ser usado para determinar a presença de drogas e/ou álcool no corpo da pessoa. As taxas dos valores definidos previamente Dab, Sp, T2- T0, Tm, % Ai e % A2 para a pupila esquerda e direita são comparados depois 28 do cálculo como acima descrito. Se as taxas são muito maiores ou menores do que 1:1 por mais do que aproximadamente 15% então o uso de droga e/ou álcool foi detectado. Se as taxas são aproximadamente de 1:1, então o uso de droga e/ou álcool não foi detectado. Uma pessoa que usa droga e/ou álcool tem menos coordenação entre as reacções da pupila esquerda e direita, por conseguinte uma diferença significativa na taxa da reacção da pupila esquerda ou direita é indicativo do uso de droga e/ou álcool.
FORMA DA COROA NERVOSA AUTÓNOMA E DA PUPILA Um processo de confirmação da forma da pupila e da ANW (S117-S119) verifica depois a identidade do utilizador através da detecção da pupila e da ANW a partir da imagem da iris seleccionada, seguida pela determinação dos parâmetros de identificação de acordo com as formas da pupila e da ANW detectadas. A forma da ANW é unicamente determinada na presente invenção através do uso da Transformação do Eixo Central aplicada ao sinal da imagem da iris seleccionada. A forma da pupila é unicamente determinada na presente invenção através do uso da detecção da extremidade e de algoritmos adequados à curva como é conhecido no estado da técnica.
Coroa Nervosa Autónoma
Adicionalmente, na respectiva forma de representação da presente invenção, o processo de confirmação da pupila e da ANW pode compreender os passos de detecção com o passo (5117) (FIGs. 10B e 10C) uma pupila e uma ANW a partir do sinal de imagem da iris seleccionada; computado com o passo (5118) os parâmetros de identificação baseados na forma da ANW através da transformação do sinal de imagem 29 bidimensional da ANW detectada com a Transformação do Eixo Central e a forma da pupila através da detecção da extremidade e algoritmos adequados à curva como acima descrito; e confirmar com os passos (SI19, S120) a identidade do utilizador através da busca dos parâmetros de identificação correspondentes a partir da base de dados. A FIG. 13 é uma vista exemplificativa da ANW (10b) e da lacuna (lOd) representando a extremidade detectada a partir da imagem da íris, e a FIG. 14 é uma vista exemplificativa da ANW (10b) e da lacuna (lOd) mostrada na FIG. 13 em dados unidimensionais transformados pela Transformação do Eixo Central. A Transformação do Eixo Central do objecto tendo forma específica, por exemplo, na localização dos centros das tangentes dos círculos para o limite do objecto em mais do que dois pontos. Por outras palavras, é a localização dos pontos mais próximos a partir do limite do objecto. Deste modo, visto que é possível transformar o objecto bidimensional em dados unidimensionais com a Transformação do Eixo Central, isto pode ser aplicado para identificar uma forma da ANW, e a forma e posição da pupila. A FIG. 18 é uma vista exemplif icativa da pupila e íris indicando a forma, posição, e parâmetros de identificação. A forma da pupila é determinada unicamente na presente invenção usando um algoritmo de detecção da extremidade como é conhecido no estado da técnica. A extremidade da pupila é geralmente indicada por referência de caracter (10a) na FIG. 18. Adicionalmente, o centro da íris e da pupila, respectivamente indicados pelas referências dos caracteres (lOi e lOh) na FIG. 18, são determinados através 30 de geometria e usados para parâmetros de identificação. A orientação de separação e distância entre os centros da íris e da pupila, geralmente indicadas pela referência de caracter (lOj), são usadas como parâmetros de identificação.
Ainda adicionalmente, muitas pupilas não são circularmente perfeitas na forma, muitas são elípticas com variação na orientação do eixo maior da elipse. Numa forma de realização preferida, a orientação e magnitude da elipsidade da pupila é unicamente determinada na presente invenção usando algoritmos adequados à curva e forma como é conhecido no estado da técnica. Em referência à FIG. 18, os eixos maiores e menores da elipse da pupila são respectivamente indicados pela referência de caracter (lOm e 10η) . A elipsidade da pupila é expressa como a taxa do eixo menor (10η) para o eixo maior (lOm). As porções planas ao longo da circunferência da pupila, geralmente indicadas por referência de caracter (lOf) na FIG. 18, bem como as áreas em que a pupila é guiada para dentro ou para fora, respectivamente (lOg e lOe) podem ser reconhecidas e caracterizadas para melhorar a qualidade do reconhecimento bem como para parâmetros de identificação.
DETECÇÃO DA LACUNA
Um processo de confirmação de lacuna (S121-S127) é também usado para verificar a identidade do utilizador pelo julgamento se a lacuna existe ou não, detectar se existe a zona de lacuna, e depois, determinar os parâmetros de identificação com base na localização detectada e forma da lacuna.
Adicionalmente, no método de identificação da íris de acordo com a presente invenção, o processo de confirmação 31 da lacuna pode ser aplicável às formas de realização acima mencionadas através da inclusão de, pelo menos, uma das seguintes pluralidades de processos descritos na FIG. 10c: um primeiro processo de confirmação de lacuna (S121) seguido pelos passos (S125-S129) para verificação da identidade do utilizador através do julgamento se a lacuna existe com base na imagem ainda seleccionada da iris adquirida, transformando depois o sinal da imagem da zona da lacuna com a Transformação do Eixo Central caso a lacuna exista, e determinar os parâmetros de identificação com base na localização, e forma da lacuna a partir do resultado da transformação. Um segundo processo de confirmação de lacuna (S122-S124) ocorre como resultado do primeiro processo de confirmação da lacuna se a lacuna não existe, em que o utilizador pode ser aceite se não existir lacuna na iris de referência depois de julgar novamente se uma lacuna existe na iris de referência; Inversamente, o utilizador é rejeitado como impróprio se existir uma lacuna na iris de referência.
Adicionalmente, em cada forma de realização da invenção o primeiro processo de confirmação de lacuna pode ser compreendido pelos passo de: julgar com o passo (S121) (FIG 10C) se existe uma lacuna ou não através da detecção da extremidade da imagem da iris a partir do sinal ainda adquirido da iris; detectar com o passo (S125) a zona de lacuna, no caso da lacuna existir como um resultado do passo de julgamento; computação com o passo (S126) dos parâmetros de identificação com base na forma e localização da lacuna após a transformação do sinal da imagem bidimensional da zona de lacuna detectada com a Transformação do Eixo Central; e confirmação com os passos 32 (S127-S129) a identidade do utilizador através da busca dos parâmetros correspondentes a partir da base de dados.
Ainda, na respectiva forma de realização da invenção, o segundo processo de confirmação de lacuna pode ser compreendido pelos passos de: julgar com o passo (S121) se a lacuna existe ou não na imagem de entrada; julgar novamente com o passo (S122) se a lacuna existe ou não na iris de referência, no caso de a lacuna não existir na imagem de entrada; aceitar com o passo (S123) se uma lacuna não existe na iris de referência, e rejeitar com o passo (S124) no caso da lacuna existir na iris de referência. A operação e efeito alcançado pela invenção construída como acima mencionado serão agora descritos através do uso de um exemplo.
Inicialmente, o número do cartão é lido ou o PIN do utilizador é introduzido pelo toque na tecla através da unidade de leitura de cartão (40) ou unidade de entrada de chave (50). O processo de confirmação por número de cartão e PIN é realizado para determinar se o número correspondente existe pela busca do número de cartão ou PIN através da unidade de armazenamento de dados (80) na unidade de controlo (70).
Se não existe número correspondente, o utilizador é rejeitado como um utilizador não identificável. Se o número correspondente é encontrado, depois a unidade de controlo (70) aceita o utilizador como um utilizador identificado e transmite depois o sinal de controlo para a unidade de condução do motor (30) para ajustar a altura da câmara para ser adequada ao utilizador depois de ler a informação 33 pessoal correspondente ao número de cartão ou PIN. Nesta altura, o sinal de controlo compara a diferença de altura entre a presente posição da câmara e a posição da câmara apropriada ao utilizador, e depois ajusta a câmara em altura automaticamente através da condução do motor numa direcção de avanço ou recuo. Adicionalmente, a largura entre os dois olhos também pode ser ajustada para cada utilizador.
De seguida, com a unidade de controlo (70), o ajuste da auto focagem inicial é realizado pelo acender da fonte de luz infravermelha (12a) através do controlo da unidade de captação de imagem da íris (20). O utilizador é guiado pelo apontador de visão (18) através da troca da fonte de luz que guia a visão (17) para prevenir que a imagem da iris fique inclinada para um lado. Por este motivo, quando se capta imagens da iris, a visão da imagem da iris da pessoa a ser captada é fixada com a fonte de luz que guia (17) (isto é, uma fonte de luz azul fraca) na parte central das lentes. A imagem da iris dinâmica é tirada por um número de segundos enquanto se opera o flash da fonte de luz (12b) num curto ciclo. Todas as luzes são depois extintas. A imagem da iris deve ser tirada de forma a que possa ilustrar a variação da forma da pupila e da ANW através do flash da fonte de luz (12b) controlado por um determinado software por um curto espaço. Para este propósito, mais de 25 frames por segundo da imagem da íris são tiradas na invenção. 34
As imagens sucessivas da íris captada como acima descrito são pré-processadas na unidade de processamento de dados (60) . Depois, o sinal de imagem da zona correspondente é seleccionado após seleccionar a zona relevante para a análise da iris. Numa forma de realização preferida, a análise é realizada com base num sector por sector de acordo com o sistema de sector múltiplo variável de conversão espectral acima descrito em detalhe. Noutra forma de realização, a zona usada para analisar a iris é a região da faixa horizontal, incluindo a pupila inteira, representada na FIG. 8, isto é, a porção vista claramente uma vez que não é afectada por pestanas, pálpebras ou semelhante da pessoa a ser identificada. A unidade de controlo (70) realiza o processo de confirmação da estrutura fibrosa da iris para verificar a identidade do utilizador através do uso de apenas componentes seleccionados de baixa frequência, como acima descrito em maior detalhe.
Seguidamente, na unidade de controlo (70), os processos de confirmação da reacção da pupila e da ANW são realizados para aceitar a captação de imagens como representativas de um ser vivo se a contracção e dilatação da pupila e da ANW forem provocadas pelo flash da fonte de luz (12b), e para rejeitar a imagem captada como não representativa de um ser vivo se não existir movimento, depois de analisar a reacção da pupila e da ANW a partir da imagem da iris dinâmica.
Subsequentemente, o processo de confirmação da forma da ANW e da pupila é realizado com a unidade de controlo (70), a qual verifica a identidade pessoal com base na forma da ANW e da pupila através da transformação do sinal de imagem 35 bidimensional da zona da ANW tendo diferentes caracteristicas em cada pessoa a partir da imagem da iris ainda seleccionada, com a Transformação do Eixo Central (ou técnica de Grass-Fire) como acima descrito, em dados unidimensionais. As diferentes particularidades da pupila, como acima descrito são também identificadas e comparadas. 0 processo de confirmação da primeira e da segunda lacuna são depois realizados com a unidade de controlo (70), que confirma por último a identidade do utilizador através do método de identificação para identificar se existe ou não uma lacuna, e a localização e forma da lacuna se ela existir. Como mostrado em resultado da Transformação do Eixo Central da ANW, a lacuna é extraída a partir da imagem da íris ainda seleccionada na FIG. 13 e FIG. 14 através do processo de tratamento de imagem: a forma e localização da lacuna são usados como parâmetros de identificação pela representação da forma e localização da lacuna em dados unidimensionais com Transformação do Eixo Central quando a forma da lacuna é claramente vista através da detecção da extremidade.
Por conseguinte, a presente invenção tem assim numerosas vantagens e pode prevenir acidentes financeiros quando aplicada a sistemas de bancos e sistemas de transacções/contratos electrónicos, e evita acidentes relacionados com a segurança quando aplicada a sistemas de controlo de acesso, visto que a presente invenção oferece um método para distinguir uma pessoa em particular a partir da identificação da íris de um ser vivo, não falsificada, rápida e precisa através da determinação de uma pluralidade de parâmetros para identificação da íris usando a forma da textura e da estrutura fibrosa da íris, a reacção da pupila 36 e da ANW em resposta à luz, a forma da ANW e da pupila, a existência, forma, e localização de uma lacuna adquirida a partir da imagem da íris dinâmica.
Lisboa, 31 de Outubro de 2007
Claims (12)
1 REIVINDICAÇÕES 1. Um sistema para confirmação da identidade de seres vivos através do exame minucioso da íris, compreendendo: a) uma unidade de controlo para receber a informação do identificador (40) identificando o ser vivo, e uma unidade de armazenamento de dados incluindo uma base de dados acessível pela unidade de controlo para conter informação pessoal predeterminada associada com um ser identificável para comparação com a informação do identificador; b) uma unidade de captação da íris (20) incluindo uma câmara operada pela unidade de controlo quando a informação do identificador corresponde à informação predeterminada para captura de imagens da íris para criar sinais de imagem de entrada; e c) uma unidade de processamento de dados (60) para pré-processar os sinais de imagem de entrada em dados processados incluindo sectores de identificação e de exclusão da imagem da íris com interferência através da comparação de variações de coeficientes espectrais de alta frequência em sectores adjacentes; em que a referida unidade de armazenamento inclui, para o ser identificável, pelo menos, uma de entre uma pluralidade de parâmetros pré-armazenados para identificação da iris seleccionada a partir do grupo que consiste de (1) densidade e forma da textura da estrutura fibrosa da íris dividida numa multiplicidade de sectores em que, para cada sector, um determinado número de coeficientes de transformação de frequência são calculados, (2) reacção da pupila, (3) a forma da 2 pupila, (4) reacção da coroa nervosa autónoma, (5) forma da coroa nervosa autónoma, (6) a existência de lacuna, (7) localização da lacuna, e (8) a forma de lacuna, sendo a referida unidade de controlo operada para comparar os dados processados com o(s) dito(s) parâmetro(s) para determinar se existe uma correspondência indicativa de uma confirmação de identidade e para analisar um sinal seleccionado de entre os sinais de imagem de entrada com um sistema de sector múltiplo variável de conversão espectral usando o método de transformação de frequência. 2. 0 sistema, de acordo com a reivindicação 1, em que, pelo menos, um sinal seleccionado de entre os sinais de imagem de entrada é analisado com um sistema de sector múltiplo variável de conversão espectral usando funções de Transformada de Haar. 3. 0 sistema, de acordo com a reivindicação 2, em que o sistema de sector múltiplo de análise espectral permite uma selecção variável de sectores da iris representativos das porções visíveis da íris para propósitos de análises que não são erradamente interpretadas por uma interferência. 4. 0 sistema, de acordo com a reivindicação 3, em que o referido sistema de sector múltiplo de análise espectral permite que sejam identificados e excluídos da análise de identificação defeitos ou interferências dentro de determinados limites. 5. 0 sistema, de acordo com a reivindicação 4, em que um sinal seleccionado de entre as imagem da íris de 3 entrada, para os referidos propósitos de análise espectral, é dividido num anel exterior tendo um limite externo situado aproximadamente no limite da íris na esclerótica, e uma porção circular interior, espaçada interiormente desde o anel exterior, e tendo um raio espaçado interiormente desde o limite externo por uma distância predeterminada. 6. 0 sistema, de acordo com a reivindicação 5, em que a referida distância predeterminada é de aproximadamente 30-80 pixels.
7. O sistema, de acordo com a reivindicação 6, em que o anel exterior, e uma área dentro da zona circular disposta entre o limite da zona circular com o anel exterior e a periferia da pupila são, cada uma dividida, numa pluralidades de sectores (n) e (p) respectivamente, em que (n) é um valor igual ou diferente de (p), criando um total de sectores n+p onde um número predeterminado (m2) de coeficientes Haar são calculados usando a Transformada de Haar formando uma matriz m x m.
8. O sistema, de acordo com a reivindicação 7, em que n=16, p=16 e m=32, e para cada um dos ditos 32 sectores, são calculados 1024 coeficientes de função Haar usando uma Transformada de Haar e a partir de uma matriz 32 x 32.
9. O sistema, de acordo com a reivindicação 8, em que os sectores oclusos ou interferidos com, pelas pálpebras, pestanas e semelhantes, são rejeitados através de comparação do coeficiente Haar do sector adjacente. 4 10. Ο sistema, de acordo com a reivindicação 7, em que pela comparação de coeficientes Haar de sectores adjacentes, um sector é rejeitado como defeituoso durante a análise se é detectada uma variação predeterminada pronunciada de coeficientes de alta frequência.
11. O sistema, de acordo com a reivindicação 10, em que depois da remoção dos sectores rejeitados pela análise, um subconjunto de um conjunto completo de m2 coeficientes Haar é seleccionado para criar um número predeterminado de coeficientes a partir da matriz m x m de m2 coeficientes Haar seleccionados para propósitos de análises. 12. 0 sistema, de acordo com a reivindicação 11, em que m=32 e o referido subconjunto inclui 31 coeficientes seleccionados a partir da matriz 32 x 32 de coeficientes Haar.
13. O sistema, de acordo com a reivindicação 11, em que a selecção do número predeterminado de coeficientes é usada para criar uma palavra de referência da iris. 14. 0 sistema, de acordo com a reivindicação 13, em que o dito número predeterminado de coeficientes é representativo de uma zona de baixa frequência seleccionada utilizada para propósitos de identificação 15. 0 sistema, de acordo com a reivindicação 1, em que a referida unidade de controlo calcula a informação representativa da reacçâo da pupila através da utilização de sinais de imagem de entrada para gerar um histograma da pupila ou pupilograma representativos da 5 média de contracção e dilatação da pupila ao longo do tempo em resposta à estimulação da luz. 16. 0 sistema, de acordo com a reivindicação 15, em que o dito pupilograma confirma o exame minucioso da imagem de um ser vivo. 17. 0 sistema, de acordo com a reivindicação 1, em que os dados processados incluem a forma da pupila determinada usando, pelo menos, uma curva de ajuste e um algoritmo de detecção da extremidade. 18. 0 sistema, de acordo com a reivindicação 17, em que os dados processados incluem a elipsidade da pupila e a orientação do eixo maior da elipse. 19. 0 sistema, de acordo com a reivindicação 17, em que porções planas, se algumas houver, ao longo da periferia da pupila são reconhecidas para propósitos de identificação.
20. O sistema, de acordo com a reivindicação 1, em que são obtidos componentes bidimensionais de baixa frequência de coeficientes de Transformada de Haar para propósitos de identificação a partir de uma selecção dos sinais de imagem de entrada.
21. O sistema, de acordo com a reivindicação 1, em que a referida unidade de captação da iris compreende ainda uma unidade de guia de visão para alinhar o olho do utilizador com as lentes da câmara. 6
22. Um método de confirmação da identidade de um ser vivo, compreendendo os passos de: a) determinar inicialmente se o ser vivo tem uma identidade correspondente a uma identidade de um ser vivo numa base de dados; b) se o passo (a) é sim, obter depois uma pluralidade de imagens representativas de, pelo menos, uma porção da iris e pupila do olho do ser vivo; c) processar a dita pluralidade de imagens incluindo sectores de identificação e exclusão da imagem da iris com interferência através da comparação de variações de coeficientes espectrais de alta frequência em sectores adjacentes para obter informação dos parâmetros de identificação da iris seleccionada a partir do grupo consistindo em, pelo menos, (1) a densidade e forma da textura da estrutura fibrosa da iris dividida numa multiplicidade de sectores em que, para cada sector, são calculados um número de coeficientes de transformação de frequência, (2) reacção da pupila, (3) a forma da pupila, (4) reacção da coroa nervosa autónoma, (5) forma da coroa nervosa autónoma, (6) a existência de lacuna, a localização da lacuna e (8) a forma de lacuna; d) comparar caracteristicas predeterminadas da referida informação da identificação da iris obtida anteriormente com a dita informação de identificação da iris obtida no passo (c) usando um sistema de sector múltiplo variável de análise espectral para permitir uma selecção variável de sectores da iris representativos das porções 7 visíveis da íris para propósitos de análises que não são erradamente interpretados por interferência; e e) confirmar se existe uma indicação de correspondência dos dados comparados no passo (d). 23. 0 método, de acordo com a reivindicação 22, compreendendo ainda o passo de utilizar o referido sistema de sector múltiplo variável de análise espectral para excluir da análise de identificação defeitos ou interferências com o limite para ser identificado. 24. 0 método, de acordo com a reivindicação 22, em que o passo de processamento inclui dividir a imagem da íris num número predeterminado de sectores localizados dentro do anel exterior e uma área circular de forma concêntrica com o referido anel exterior que inclui a pupila. 25. 0 método, de acordo com a reivindicação 24, em que os ditos sectores são analisados num sector com base no sector adjacente e certos sectores são rejeitados como defeituosos se uma variação pronunciada predeterminada dos coeficientes de alta frequência for detectada. 26. 0 método, de acordo com a reivindicação 25, em que o passo de processamento inclui, após remoção ou rejeição de sectores, determinar um subconjunto de um predeterminado número completo de coeficientes que são seleccionados para propósito de análise e a selecção do número predeterminado de coeficientes no subconjunto para cada sector seleccionado é usado para criar uma gravação da referência da íris usada no passo de comparação (d) da reivindicação 22. 27. 0 método, de acordo com a reivindicação 26, em que coeficientes representativos de uma zona de frequência seleccionada de sectores seleccionados são utilizados para propósitos de identificação. 28. 0 método, de acordo com a reivindicação 22, compreendendo ainda o passo de obter a referida pluralidade de imagens para cada olho. 29. 0 método, de acordo com a reivindicação 22, compreendendo ainda o passo da fase de iniciação (b) da reivindicação 22 através da correspondência da informação da palavra-chave introduzida com a informação armazenada anteriormente da identificação de uma pessoa.
30. O método, de acordo com a reivindicação 22, compreendendo ainda o passo de iluminação do olho com uma fronte de luz seguida pela captura em sucessão, de uma pluralidade das referidas imagens da íris.
31. O método, de acordo com a reivindicação 22, em que o passo de processamento inclui análises da forma da pupila da íris utilizando, pelo menos, uma curva de ajuste e um algoritmo de detecção da extremidade.
32. O método, de acordo com a reivindicação 31, em que o passo de processamento inclui a detecção da elipsidade da pupila e a orientação do eixo maior da elipse. 9 33. 0 método, de acordo com a reivindicação 32, em que o passo de processamento utiliza a determinação da existência de porções planas ao longo da periferia da pupila. 34. 0 método, de acordo com a reivindicação 22, em que o passo de processamento inclui a obtenção de componentes bidimensionais de baixa frequência de coeficientes de Transformada de Haar a partir de uma selecção de sinais de imagem de entrada. 35. 0 método, de acordo com a reivindicação 22, em que o passo de processamento inclui a selecção da Transformada de Haar a partir de uma classe de funções signum Haar. 36. 0 método, de acordo com a reivindicação 22, compreendendo ainda o passo de utilizar a informação armazenada previamente para orientar automaticamente o olho com uma fonte de obtenção das ditas pluralidades de imagens do passo (b). Lisboa, 31 de Outubro de 2007
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR19990012440 | 1999-04-09 | ||
KR19990012439 | 1999-04-09 | ||
KR1019990012438A KR100356600B1 (ko) | 1999-04-09 | 1999-04-09 | 열공 및/또는 자율신경환의 형태에 의한 홍채인식방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
PT1093633E true PT1093633E (pt) | 2007-11-15 |
Family
ID=27349933
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PT00921118T PT1093633E (pt) | 1999-04-09 | 2000-04-07 | Sistema de identificação da íris e método para identificar uma pessoa através do reconhecimento da íris |
Country Status (11)
Country | Link |
---|---|
US (1) | US6247813B1 (pt) |
EP (1) | EP1093633B1 (pt) |
CN (1) | CN100347718C (pt) |
AT (1) | ATE373280T1 (pt) |
AU (1) | AU6408600A (pt) |
DE (1) | DE60036347T2 (pt) |
DK (1) | DK1093633T3 (pt) |
ES (1) | ES2292437T3 (pt) |
PT (1) | PT1093633E (pt) |
TW (1) | TW555547B (pt) |
WO (1) | WO2000062239A1 (pt) |
Families Citing this family (169)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USRE39539E1 (en) | 1996-08-19 | 2007-04-03 | Torch William C | System and method for monitoring eye movement |
GB9907515D0 (en) * | 1999-04-01 | 1999-05-26 | Ncr Int Inc | Self service terminal |
US6700998B1 (en) * | 1999-04-23 | 2004-03-02 | Oki Electric Industry Co, Ltd. | Iris registration unit |
JP2001034754A (ja) * | 1999-07-19 | 2001-02-09 | Sony Corp | 虹彩認証装置 |
US7277561B2 (en) * | 2000-10-07 | 2007-10-02 | Qritek Co., Ltd. | Iris identification |
DE10052201B8 (de) * | 2000-10-20 | 2005-06-30 | Carl Zeiss Meditec Ag | Verfahren und Vorrichtung zur Identifizierung eines Patienten und eines Operationsgebietes |
US7215797B2 (en) * | 2001-02-02 | 2007-05-08 | Lg Electronics Inc. | Iris recognition system |
JP3586431B2 (ja) * | 2001-02-28 | 2004-11-10 | 松下電器産業株式会社 | 個人認証方法および装置 |
KR100374707B1 (ko) * | 2001-03-06 | 2003-03-04 | 에버미디어 주식회사 | 도비치스 웨이블렛 변환을 이용한 홍채인식방법 |
DE01274188T1 (de) * | 2001-04-27 | 2004-07-15 | Bausch & Lomb Inc. | Iris-mustererkennung und ausrichtung |
JP2003141516A (ja) * | 2001-10-31 | 2003-05-16 | Matsushita Electric Ind Co Ltd | 虹彩撮像装置及び虹彩認証装置 |
KR100453943B1 (ko) * | 2001-12-03 | 2004-10-20 | 주식회사 세넥스테크놀로지 | 개인 식별을 위한 홍채 영상의 처리 및 인식방법과 시스템 |
KR20030051970A (ko) * | 2001-12-20 | 2003-06-26 | 주식회사 큐리텍 | 홍채 등록 및 인식 시스템 |
US20050084137A1 (en) * | 2002-01-16 | 2005-04-21 | Kim Dae-Hoon | System and method for iris identification using stereoscopic face recognition |
US6665426B1 (en) * | 2002-01-29 | 2003-12-16 | West Virginia University Research Corporation | Method of biometric identification of an individual and associated apparatus |
US7155035B2 (en) * | 2002-02-05 | 2006-12-26 | Matsushita Electric Industrial Co., Ltd. | Personal authentication method, personal authentication apparatus and image capturing device |
US7039224B2 (en) * | 2002-04-29 | 2006-05-02 | Activcard Ireland Limited | Method and device for preventing false acceptance of latent fingerprint images |
AUPS254302A0 (en) * | 2002-05-24 | 2002-06-13 | Resmed Limited | A sleepiness test |
KR20040026905A (ko) * | 2002-09-26 | 2004-04-01 | 주식회사 세넥스테크놀로지 | 실시간 홍채인식을 위한 영상품질 평가장치 및 방법과 그프로그램을 저장한 기록매체 |
AU2003275724A1 (en) * | 2002-11-07 | 2004-06-07 | Matsushita Electric Industrial Co., Ltd. | Method for cerficating individual, iris registering device, system for certificating iris, and program for cerficating individual |
US7436986B2 (en) * | 2003-03-25 | 2008-10-14 | Bausch & Lomb Incorporated | Positive patient identification |
US7599524B2 (en) * | 2003-04-04 | 2009-10-06 | Sarnoff Corporation | Method and apparatus for providing a robust object finder |
CN1698068A (zh) * | 2003-04-28 | 2005-11-16 | 松下电器产业株式会社 | 伪眼识别方法及装置、伪眼识别程序、虹膜认证方法、伪造印刷物识别方法以及图像识别方法 |
US8098901B2 (en) | 2005-01-26 | 2012-01-17 | Honeywell International Inc. | Standoff iris recognition system |
US7593550B2 (en) | 2005-01-26 | 2009-09-22 | Honeywell International Inc. | Distance iris recognition |
US8049812B2 (en) | 2006-03-03 | 2011-11-01 | Honeywell International Inc. | Camera with auto focus capability |
US8090157B2 (en) | 2005-01-26 | 2012-01-03 | Honeywell International Inc. | Approaches and apparatus for eye detection in a digital image |
US8442276B2 (en) | 2006-03-03 | 2013-05-14 | Honeywell International Inc. | Invariant radial iris segmentation |
US8064647B2 (en) | 2006-03-03 | 2011-11-22 | Honeywell International Inc. | System for iris detection tracking and recognition at a distance |
US8705808B2 (en) | 2003-09-05 | 2014-04-22 | Honeywell International Inc. | Combined face and iris recognition system |
US7731360B2 (en) * | 2003-11-07 | 2010-06-08 | Neuro Kinetics | Portable video oculography system |
US20050111704A1 (en) * | 2003-11-24 | 2005-05-26 | Verghis James S. | Iris mapping and compatibility and personality evaluation |
FR2864290B1 (fr) * | 2003-12-18 | 2006-05-26 | Sagem | Procede et dispositif de reconnaissance d'iris |
JP2005258860A (ja) * | 2004-03-12 | 2005-09-22 | Matsushita Electric Ind Co Ltd | 複数認証方法及びその装置 |
EP1755441B1 (en) * | 2004-04-01 | 2015-11-04 | Eyefluence, Inc. | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
US10039445B1 (en) | 2004-04-01 | 2018-08-07 | Google Llc | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
US20110077548A1 (en) * | 2004-04-01 | 2011-03-31 | Torch William C | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
GB0412175D0 (en) * | 2004-06-01 | 2004-06-30 | Smart Sensors Ltd | Identification of image characteristics |
US20050281440A1 (en) * | 2004-06-18 | 2005-12-22 | Pemer Frederick A | Iris feature detection and sensor-based edge detection |
US8333472B2 (en) * | 2004-07-13 | 2012-12-18 | Neuro Kinetics | Compact neuro-otologic, neuro-ophthalmologic testing device and dynamic visual acuity testing and desensitization platform |
IL165586A0 (en) * | 2004-12-06 | 2006-01-15 | Daphna Palti Wasserman | Multivariate dynamic biometrics system |
FR2880136B1 (fr) * | 2004-12-29 | 2007-03-02 | Sagem | Procede de verification de la validite d'un oeil |
JP2006202212A (ja) * | 2005-01-24 | 2006-08-03 | Konica Minolta Business Technologies Inc | 個人認証装置、情報処理装置及び個人認証システム |
JP4449762B2 (ja) * | 2005-01-24 | 2010-04-14 | コニカミノルタビジネステクノロジーズ株式会社 | 人物照合装置、人物照合システム及び人物照合方法 |
KR101224408B1 (ko) * | 2005-01-26 | 2013-01-22 | 허니웰 인터내셔널 인코포레이티드 | 원격 홍채 인식 시스템 |
US20060165264A1 (en) * | 2005-01-26 | 2006-07-27 | Hirofumi Saitoh | Method and apparatus for acquiring images, and verification method and verification apparatus |
WO2006081505A1 (en) | 2005-01-26 | 2006-08-03 | Honeywell International Inc. | A distance iris recognition system |
KR100658426B1 (ko) * | 2005-01-31 | 2006-12-15 | 김신호 | 리니어모터 구동에 의한 홍채줌카메라 촬영장치 |
US7769218B2 (en) * | 2005-03-23 | 2010-08-03 | Apteryx, Inc. | System and method to adjust medical imaging equipment |
US7760962B2 (en) * | 2005-03-30 | 2010-07-20 | Casio Computer Co., Ltd. | Image capture apparatus which synthesizes a plurality of images obtained by shooting a subject from different directions, to produce an image in which the influence of glare from a light is reduced |
US7327860B2 (en) * | 2005-05-04 | 2008-02-05 | West Virginia University | Conjunctival scans for personal identification |
GB0512729D0 (en) * | 2005-06-22 | 2005-07-27 | Ecebs Group Ltd | Smartcard indexed pupil response test |
US8260008B2 (en) | 2005-11-11 | 2012-09-04 | Eyelock, Inc. | Methods for performing biometric recognition of a human eye and corroboration of same |
US7801335B2 (en) * | 2005-11-11 | 2010-09-21 | Global Rainmakers Inc. | Apparatus and methods for detecting the presence of a human eye |
KR101423153B1 (ko) | 2006-03-03 | 2014-07-25 | 허니웰 인터내셔널 인코포레이티드 | 불변 방사상 홍채 세그먼트화 |
US8364646B2 (en) | 2006-03-03 | 2013-01-29 | Eyelock, Inc. | Scalable searching of biometric databases using dynamic selection of data subsets |
WO2007103834A1 (en) | 2006-03-03 | 2007-09-13 | Honeywell International, Inc. | Indexing and database search system |
AU2007220010B2 (en) | 2006-03-03 | 2011-02-17 | Gentex Corporation | Single lens splitter camera |
KR101299074B1 (ko) | 2006-03-03 | 2013-08-30 | 허니웰 인터내셔널 인코포레이티드 | 홍채 인코딩 시스템 |
WO2008019168A2 (en) | 2006-03-03 | 2008-02-14 | Honeywell International, Inc. | Modular biometrics collection system architecture |
DE602007007062D1 (de) | 2006-03-03 | 2010-07-22 | Honeywell Int Inc | Iriserkennungssystem mit bildqualitätsmetrik |
DE102006021002A1 (de) * | 2006-05-04 | 2007-11-08 | Henning, Jürgen, Dipl.-Ing. | Verfahren zur Verifizierung und Identifizierung von Personen |
US8014571B2 (en) * | 2006-05-15 | 2011-09-06 | Identix Incorporated | Multimodal ocular biometric system |
US8604901B2 (en) * | 2006-06-27 | 2013-12-10 | Eyelock, Inc. | Ensuring the provenance of passengers at a transportation facility |
WO2008091401A2 (en) | 2006-09-15 | 2008-07-31 | Retica Systems, Inc | Multimodal ocular biometric system and methods |
US8121356B2 (en) | 2006-09-15 | 2012-02-21 | Identix Incorporated | Long distance multimodal biometric system and method |
EP2062197A4 (en) * | 2006-09-15 | 2010-10-06 | Retica Systems Inc | MULTIMODAL BIOMETRIC SYSTEM AND METHOD FOR LARGE DISTANCES |
US8965063B2 (en) | 2006-09-22 | 2015-02-24 | Eyelock, Inc. | Compact biometric acquisition system and method |
US7970179B2 (en) * | 2006-09-25 | 2011-06-28 | Identix Incorporated | Iris data extraction |
WO2008042879A1 (en) | 2006-10-02 | 2008-04-10 | Global Rainmakers, Inc. | Fraud resistant biometric financial transaction system and method |
US7809747B2 (en) * | 2006-10-23 | 2010-10-05 | Donald Martin Monro | Fuzzy database matching |
US9846739B2 (en) | 2006-10-23 | 2017-12-19 | Fotonation Limited | Fast database matching |
US7769219B2 (en) * | 2006-12-11 | 2010-08-03 | Cytyc Corporation | Method for assessing image focus quality |
US7621636B2 (en) * | 2007-01-10 | 2009-11-24 | Clarity Medical Systems, Inc. | Working distance and alignment sensor for a fundus camera |
RU2326589C1 (ru) * | 2007-01-15 | 2008-06-20 | Дмитрий Евгеньевич Антонов | Способ идентификации личности по радужной оболочке глаза (его варианты) |
WO2008131201A1 (en) | 2007-04-19 | 2008-10-30 | Global Rainmakers, Inc. | Method and system for biometric recognition |
US8953849B2 (en) | 2007-04-19 | 2015-02-10 | Eyelock, Inc. | Method and system for biometric recognition |
US8063889B2 (en) | 2007-04-25 | 2011-11-22 | Honeywell International Inc. | Biometric data collection system |
US8031970B2 (en) * | 2007-08-27 | 2011-10-04 | Arcsoft, Inc. | Method of restoring closed-eye portrait photo |
US20090060348A1 (en) * | 2007-08-28 | 2009-03-05 | Donald Martin Monro | Determination of Image Similarity |
WO2009029757A1 (en) | 2007-09-01 | 2009-03-05 | Global Rainmakers, Inc. | System and method for iris data acquisition for biometric identification |
US9036871B2 (en) | 2007-09-01 | 2015-05-19 | Eyelock, Inc. | Mobility identity platform |
US8212870B2 (en) | 2007-09-01 | 2012-07-03 | Hanna Keith J | Mirror system and method for acquiring biometric data |
US9117119B2 (en) | 2007-09-01 | 2015-08-25 | Eyelock, Inc. | Mobile identity platform |
US9002073B2 (en) | 2007-09-01 | 2015-04-07 | Eyelock, Inc. | Mobile identity platform |
US7824034B2 (en) * | 2007-09-19 | 2010-11-02 | Utc Fire & Security Americas Corporation, Inc. | Iris imaging system and method for the same |
CA2736609C (en) | 2008-02-14 | 2016-09-20 | Iristrac, Llc | System and method for animal identification using iris images |
US9655515B2 (en) * | 2008-04-08 | 2017-05-23 | Neuro Kinetics | Method of precision eye-tracking through use of iris edge based landmarks in eye geometry |
US8436907B2 (en) | 2008-05-09 | 2013-05-07 | Honeywell International Inc. | Heterogeneous video capturing system |
WO2009158662A2 (en) | 2008-06-26 | 2009-12-30 | Global Rainmakers, Inc. | Method of reducing visibility of illimination while acquiring high quality imagery |
US8213782B2 (en) | 2008-08-07 | 2012-07-03 | Honeywell International Inc. | Predictive autofocusing system |
US8090246B2 (en) | 2008-08-08 | 2012-01-03 | Honeywell International Inc. | Image acquisition system |
US8306279B2 (en) * | 2008-09-15 | 2012-11-06 | Eyelock, Inc. | Operator interface for face and iris recognition devices |
US10398309B2 (en) | 2008-10-09 | 2019-09-03 | Neuro Kinetics, Inc. | Noninvasive rapid screening of mild traumatic brain injury using combination of subject's objective oculomotor, vestibular and reaction time analytic variables |
US8585609B2 (en) * | 2008-10-09 | 2013-11-19 | Neuro Kinetics, Inc. | Quantitative, non-invasive, clinical diagnosis of traumatic brain injury using simulated distance visual stimulus device for neurologic testing |
US9039631B2 (en) | 2008-10-09 | 2015-05-26 | Neuro Kinetics | Quantitative, non-invasive, clinical diagnosis of traumatic brain injury using VOG device for neurologic testing |
US20100278394A1 (en) * | 2008-10-29 | 2010-11-04 | Raguin Daniel H | Apparatus for Iris Capture |
US8317325B2 (en) * | 2008-10-31 | 2012-11-27 | Cross Match Technologies, Inc. | Apparatus and method for two eye imaging for iris identification |
US8280119B2 (en) | 2008-12-05 | 2012-10-02 | Honeywell International Inc. | Iris recognition system using quality metrics |
TWI392858B (zh) * | 2008-12-12 | 2013-04-11 | Inst Information Industry | Pupil position acquisition system, method and computer program products |
JP5126084B2 (ja) * | 2009-01-22 | 2013-01-23 | 日本電気株式会社 | 生体認証装置、生体認証方法及びプログラム |
US8374404B2 (en) * | 2009-02-13 | 2013-02-12 | Raytheon Company | Iris recognition using hyper-spectral signatures |
US8195044B2 (en) | 2009-03-30 | 2012-06-05 | Eyelock Inc. | Biometric camera mount system |
US8472681B2 (en) | 2009-06-15 | 2013-06-25 | Honeywell International Inc. | Iris and ocular recognition system using trace transforms |
US8630464B2 (en) | 2009-06-15 | 2014-01-14 | Honeywell International Inc. | Adaptive iris matching using database indexing |
JP2011008713A (ja) * | 2009-06-29 | 2011-01-13 | Fujitsu Semiconductor Ltd | 画像処理プログラム、画像処理装置、および画像処理方法 |
DE102009039190A1 (de) | 2009-08-28 | 2011-03-03 | Human Bios Gmbh | Verfahren für die Zugriffskontrolle oder Autorisierung einer Handlung |
US10216995B2 (en) | 2009-09-25 | 2019-02-26 | International Business Machines Corporation | System and method for generating and employing short length iris codes |
US8452131B2 (en) * | 2009-09-25 | 2013-05-28 | International Business Machines Corporation | Iris recognition system and method |
US20110119141A1 (en) * | 2009-11-16 | 2011-05-19 | Hoyos Corporation | Siccolla Identity Verification Architecture and Tool |
US20110142297A1 (en) * | 2009-12-16 | 2011-06-16 | Eye Controls, Llc | Camera Angle Compensation in Iris Identification |
US8890946B2 (en) * | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
US8577094B2 (en) | 2010-04-09 | 2013-11-05 | Donald Martin Monro | Image template masking |
TWI466038B (zh) * | 2010-06-02 | 2014-12-21 | Nat Univ Chin Yi Technology | Eyelid length measurement method and device thereof |
US8742887B2 (en) | 2010-09-03 | 2014-06-03 | Honeywell International Inc. | Biometric visitor check system |
US10043229B2 (en) | 2011-01-26 | 2018-08-07 | Eyelock Llc | Method for confirming the identity of an individual while shielding that individual's personal data |
BR112013021160B1 (pt) | 2011-02-17 | 2021-06-22 | Eyelock Llc | Método e aparelho para processar imagens adquiridas usando um único sensor de imagens |
CN103562986B (zh) | 2011-04-11 | 2017-10-27 | 日本电气株式会社 | 信息分发设备、信息接收设备、系统和方法 |
RU2013151175A (ru) | 2011-04-19 | 2015-05-27 | Айлок Инк. | Биометрическая цепочка происхождения |
WO2012158825A2 (en) * | 2011-05-17 | 2012-11-22 | Eyelock Inc. | Systems and methods for illuminating an iris with visible light for biometric acquisition |
US8385685B2 (en) * | 2011-06-08 | 2013-02-26 | Honeywell International Inc. | System and method for ocular recognition |
CN102429637B (zh) * | 2011-08-17 | 2015-09-16 | 北京百纳威尔科技有限公司 | 移动终端虹膜检测装置 |
KR102024954B1 (ko) | 2011-08-22 | 2019-09-24 | 아이락 엘엘씨 | 아티팩트 없는 이미지들을 캡처하기 위한 시스템들 및 방법들 |
JP6559062B2 (ja) * | 2012-03-26 | 2019-08-14 | ニューヨーク ユニバーシティ | 中枢神経系の完全性を評価するための方法およびキット |
US9122926B2 (en) * | 2012-07-19 | 2015-09-01 | Honeywell International Inc. | Iris recognition using localized Zernike moments |
US8808179B1 (en) | 2012-08-06 | 2014-08-19 | James Z. Cinberg | Method and associated apparatus for detecting minor traumatic brain injury |
KR101417415B1 (ko) * | 2012-11-19 | 2014-07-08 | 아이리텍 잉크 | 살아있는 눈 식별 방법 및 장치 |
JP6573831B2 (ja) | 2013-01-28 | 2019-09-11 | エルケーシー テクノロジーズ インコーポレイテッド | 視覚電気生理学デバイス |
US9495526B2 (en) | 2013-03-15 | 2016-11-15 | Eyelock Llc | Efficient prevention of fraud |
WO2015100335A1 (en) | 2013-12-23 | 2015-07-02 | Eyelock, Inc. | Methods and apparatus for power-efficient iris recognition |
US10372982B2 (en) | 2014-01-06 | 2019-08-06 | Eyelock Llc | Methods and apparatus for repetitive iris recognition |
US9355315B2 (en) * | 2014-07-24 | 2016-05-31 | Microsoft Technology Licensing, Llc | Pupil detection |
AU2015301370B2 (en) * | 2014-08-04 | 2020-04-30 | New York University | Methods and kits for diagnosing, assessing or quantitating drug use, drug abuse and narcosis, internuclear ophthalmoplegia, attention deficit hyperactivity disorder (ADHD), chronic traumatic encephalopathy, schizophrenia spectrum disorders and alcohol consumption |
WO2016040836A1 (en) | 2014-09-12 | 2016-03-17 | Eyelock Llc | Methods and apparatus for directing the gaze of a user in an iris recognition system |
US10425814B2 (en) | 2014-09-24 | 2019-09-24 | Princeton Identity, Inc. | Control of wireless communication device capability in a mobile device with a biometric key |
EP3221835A4 (en) | 2014-11-19 | 2018-04-18 | Eyelock Llc | Model-based prediction of an optimal convenience metric for authorizing transactions |
EP3227816A4 (en) | 2014-12-03 | 2018-07-04 | Princeton Identity, Inc. | System and method for mobile device biometric add-on |
US10074011B2 (en) | 2015-01-20 | 2018-09-11 | Eyelock Llc | Lens system for high quality visible image acquisition and infra-red iris image acquisition |
EP3067459A1 (en) | 2015-03-09 | 2016-09-14 | LG Electronics Inc. | Drying machine |
KR102306539B1 (ko) | 2015-03-12 | 2021-09-29 | 삼성전자주식회사 | 홍채를 촬영하기 위하여 이용되는 광을 조사하는 방법 및 디바이스 |
CN107580767B (zh) | 2015-03-12 | 2020-12-29 | 眼锁有限责任公司 | 使用生物特征来管理网络活动的方法和系统 |
CN114077726A (zh) * | 2015-04-16 | 2022-02-22 | 托比股份公司 | 用于对用户进行认证的系统、方法和机器可读介质 |
KR102393228B1 (ko) * | 2015-05-11 | 2022-04-29 | 매직 립, 인코포레이티드 | 뉴럴 네트워크들을 활용하여 생체 인증 사용자 인식을 위한 디바이스들, 방법들 및 시스템들 |
CN105631394B (zh) * | 2015-05-29 | 2019-08-02 | 宇龙计算机通信科技(深圳)有限公司 | 虹膜信息采集方法、虹膜信息采集装置及终端 |
US10157312B2 (en) * | 2015-10-08 | 2018-12-18 | Microsoft Technology Licensing, Llc | Iris recognition |
US10311299B2 (en) | 2015-12-21 | 2019-06-04 | Eyelock Llc | Reflected optic camera module for iris recognition in a computing device |
JP2019506694A (ja) | 2016-01-12 | 2019-03-07 | プリンストン・アイデンティティー・インコーポレーテッド | 生体測定分析のシステムおよび方法 |
EP3427185B1 (en) | 2016-03-07 | 2024-07-31 | Magic Leap, Inc. | Blue light adjustment for biometric security |
WO2017173228A1 (en) | 2016-03-31 | 2017-10-05 | Princeton Identity, Inc. | Biometric enrollment systems and methods |
US10373008B2 (en) | 2016-03-31 | 2019-08-06 | Princeton Identity, Inc. | Systems and methods of biometric analysis with adaptive trigger |
CA3024128A1 (en) | 2016-05-18 | 2017-11-23 | Eyelock, Llc | Iris recognition methods and systems based on an iris stochastic texture model |
CN106339668A (zh) * | 2016-08-16 | 2017-01-18 | 信利光电股份有限公司 | 一种虹膜识别方法及虹膜识别系统 |
CN106899567B (zh) | 2016-08-24 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 用户核身方法、装置及系统 |
US10534969B2 (en) | 2017-02-24 | 2020-01-14 | Eyelock Llc | Systems and methods for providing illumination for iris biometric acquisition |
US10817722B1 (en) | 2017-03-20 | 2020-10-27 | Cross Match Technologies, Inc. | System for presentation attack detection in an iris or face scanner |
US11531756B1 (en) | 2017-03-20 | 2022-12-20 | Hid Global Corporation | Apparatus for directing presentation attack detection in biometric scanners |
US10607096B2 (en) | 2017-04-04 | 2020-03-31 | Princeton Identity, Inc. | Z-dimension user feedback biometric system |
IL251596A0 (en) * | 2017-04-05 | 2017-06-29 | Robin Koch | System and method for photographing a user's iris |
US10810773B2 (en) * | 2017-06-14 | 2020-10-20 | Dell Products, L.P. | Headset display control based upon a user's pupil state |
JP2020529073A (ja) | 2017-07-26 | 2020-10-01 | プリンストン・アイデンティティー・インコーポレーテッド | 生体セキュリティシステムおよび方法 |
EP3451042B1 (en) | 2017-08-31 | 2022-08-10 | Eyelock, LLC | Systems and methods of biometric acquisition using positive optical distortion |
CN107550507B (zh) * | 2017-10-11 | 2024-09-06 | 北京驰马特图像技术有限公司 | C形臂x射线剂量控制设备及系统 |
US10685101B1 (en) * | 2017-11-30 | 2020-06-16 | Wells Fargo Bank, N.A. | Pupil dilation response for authentication |
CN110013217B (zh) * | 2018-01-10 | 2022-01-14 | 深圳神盾电子科技有限公司 | 检测吸食毒品人员的方法、装置、终端设备及介质 |
CN112494950A (zh) * | 2019-08-26 | 2021-03-16 | 上海海姆网络科技有限公司 | 一种网络游戏防沉迷系统及方法 |
CN110688951B (zh) | 2019-09-26 | 2022-05-31 | 上海商汤智能科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN113409383A (zh) * | 2020-03-16 | 2021-09-17 | 同方威视技术股份有限公司 | 基于人眼瞳孔的吸毒判别方法 |
CN112043235B (zh) * | 2020-07-13 | 2024-02-06 | 天津市眼科医院 | 一种便携式眼球静态旋转测量仪及利用其测量眼球旋转角度的方法 |
KR102508789B1 (ko) | 2021-01-27 | 2023-03-14 | 아이리텍 잉크 | 홍채 인증 방법 및 홍채 인증 시스템 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4641349A (en) * | 1985-02-20 | 1987-02-03 | Leonard Flom | Iris recognition system |
US5291560A (en) * | 1991-07-15 | 1994-03-01 | Iri Scan Incorporated | Biometric personal identification system based on iris analysis |
GB9323489D0 (en) * | 1993-11-08 | 1994-01-05 | Ncr Int Inc | Self-service business system |
US5572596A (en) * | 1994-09-02 | 1996-11-05 | David Sarnoff Research Center, Inc. | Automated, non-invasive iris recognition system and method |
US5729619A (en) * | 1995-08-08 | 1998-03-17 | Northrop Grumman Corporation | Operator identity, intoxication and drowsiness monitoring system and method |
JPH09212644A (ja) * | 1996-02-07 | 1997-08-15 | Oki Electric Ind Co Ltd | 虹彩認識装置および虹彩認識方法 |
CN1092372C (zh) * | 1997-05-30 | 2002-10-09 | 王介生 | 虹膜识别方法 |
JP3271750B2 (ja) * | 1998-03-05 | 2002-04-08 | 沖電気工業株式会社 | アイリス識別コード抽出方法及び装置、アイリス認識方法及び装置、データ暗号化装置 |
-
1999
- 1999-11-04 US US09/433,254 patent/US6247813B1/en not_active Expired - Lifetime
-
2000
- 2000-04-07 PT PT00921118T patent/PT1093633E/pt unknown
- 2000-04-07 EP EP00921118A patent/EP1093633B1/en not_active Expired - Lifetime
- 2000-04-07 AU AU64086/00A patent/AU6408600A/en not_active Abandoned
- 2000-04-07 ES ES00921118T patent/ES2292437T3/es not_active Expired - Lifetime
- 2000-04-07 AT AT00921118T patent/ATE373280T1/de not_active IP Right Cessation
- 2000-04-07 WO PCT/KR2000/000324 patent/WO2000062239A1/en active IP Right Grant
- 2000-04-07 CN CNB008005443A patent/CN100347718C/zh not_active Expired - Fee Related
- 2000-04-07 DE DE60036347T patent/DE60036347T2/de not_active Expired - Lifetime
- 2000-04-07 DK DK00921118T patent/DK1093633T3/da active
- 2000-04-26 TW TW089107818A patent/TW555547B/zh not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
ATE373280T1 (de) | 2007-09-15 |
DE60036347T2 (de) | 2008-07-10 |
EP1093633B1 (en) | 2007-09-12 |
DK1093633T3 (da) | 2008-01-14 |
AU6408600A (en) | 2000-11-14 |
CN100347718C (zh) | 2007-11-07 |
TW555547B (en) | 2003-10-01 |
US6247813B1 (en) | 2001-06-19 |
DE60036347D1 (de) | 2007-10-25 |
EP1093633A4 (en) | 2004-10-20 |
EP1093633A1 (en) | 2001-04-25 |
WO2000062239A1 (en) | 2000-10-19 |
ES2292437T3 (es) | 2008-03-16 |
CN1300407A (zh) | 2001-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
PT1093633E (pt) | Sistema de identificação da íris e método para identificar uma pessoa através do reconhecimento da íris | |
da Costa et al. | Dynamic features for iris recognition | |
Bowyer et al. | Image understanding for iris biometrics: A survey | |
Chang et al. | An evaluation of multimodal 2D+ 3D face biometrics | |
EP1605822B1 (en) | Positive patient identification | |
US8170293B2 (en) | Multimodal ocular biometric system and methods | |
US20060008124A1 (en) | Iris image-based recognition system | |
CN111344703A (zh) | 基于虹膜识别的用户认证设备和方法 | |
CN105320932A (zh) | 虹膜识别终端及方法 | |
Saha et al. | An expert multi-modal person authentication system based on feature level fusion of iris and retina recognition | |
KR20010006975A (ko) | 동공 및 자율신경환의 반응에 의한 홍채인식방법 | |
Sathish et al. | Multi-algorithmic iris recognition | |
JP4006192B2 (ja) | 虹彩認識システム及び方法 | |
JP2001195594A (ja) | 虹彩同定システム及び虹彩認識によって人を同定する方法 | |
KR20010006976A (ko) | 홍채인식시스템 | |
KR102176882B1 (ko) | 특징점 변동을 이용한 위조 홍채 판별장치 및 그 방법 | |
JP4619384B2 (ja) | 虹彩同定システム | |
KR100356600B1 (ko) | 열공 및/또는 자율신경환의 형태에 의한 홍채인식방법 | |
Rawate et al. | Human identification using IRIS recognition | |
Lawal et al. | Development of a Two-Level Segmentation System for Iris Recognition Using Circular and Linear Hough Transform Algorithm | |
JP2004288221A (ja) | 虹彩同定システム | |
Khan et al. | Iris Recognition Through Feature Extraction Methods: A Biometric Approach | |
عبد السلام حسن عباس | Adaptive Iris Recognition System | |
Mehrotra | Iris identification using keypoint descriptors and geometric hashing | |
Pradeep Kumar | Tiger census by the method of IRIS pattern matching |