ES2662912B2 - Método y aparato para el reconocimiento biométrico corneal - Google Patents

Método y aparato para el reconocimiento biométrico corneal Download PDF

Info

Publication number
ES2662912B2
ES2662912B2 ES201800020A ES201800020A ES2662912B2 ES 2662912 B2 ES2662912 B2 ES 2662912B2 ES 201800020 A ES201800020 A ES 201800020A ES 201800020 A ES201800020 A ES 201800020A ES 2662912 B2 ES2662912 B2 ES 2662912B2
Authority
ES
Spain
Prior art keywords
subject
comparison
classification
ocular
records
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES201800020A
Other languages
English (en)
Other versions
ES2662912A1 (es
Inventor
Ramos Celia Sanchez
Arias Cristina Bonnin
Gonzalez-Garzon Javier Pascau
Martinez Rafael Moreta
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universidad Complutense de Madrid
Universidad Carlos III de Madrid
Original Assignee
Universidad Complutense de Madrid
Universidad Carlos III de Madrid
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidad Complutense de Madrid, Universidad Carlos III de Madrid filed Critical Universidad Complutense de Madrid
Priority to ES201800020A priority Critical patent/ES2662912B2/es
Publication of ES2662912A1 publication Critical patent/ES2662912A1/es
Application granted granted Critical
Publication of ES2662912B2 publication Critical patent/ES2662912B2/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

DESCRIPCIÓN
MÉTODO Y APARATO PARA EL RECONOCIMIENTO BIOMÉTRICO CORNEAL
Es un objeto de la presente invención un método y un aparato para el reconocimiento biométrico de seres vivos (personas o animales) que incorpora la topografía de la córnea como constante biométrica propia de cada individuo.
Estado de la técnica anterior
Los tipos de reconocimiento de personas denominados biométricos se basan en las características físicas del usuario a identificar, aunque la autenticación de usuarios mediante métodos biométricos es posible utilizando cualquier característica única y mesurable del individuo, tradicionalmente ha estado basada en seis grandes grupos: ojo-iris, ojo-retina, huellas dactilares, geometría de la mano, escritura-firma y voz. No obstante, los modelos de autenticación biométrica basados en patrones oculares se dividen en tecnologías diferentes: o bien analizan patrones retiñíanos, o bien analizan las características morfológicas del iris.
El iris es la parte más visible del ojo de los humanos. Es un patrón complejo que contiene muchos aspectos distintivos, como arrugas, ligamentos arqueados, crestas o anillos. La imagen del iris se puede tomar desde una distancia razonable (aproximadamente 1 metro) con un gran nivel de exactitud, aunque es difícil de obtener si la persona no se mantiene cerca de la cámara o no le interesa su autenticación. Además, los procesos médicos pueden alterar algo el color (que no la textura), la humedad del iris puede provocar reflexión, los párpados pueden cubrir parcialmente el iris en ciertas personas o grupos humanos (por ejemplo, en personas con ojos rasgados) y puede ser manipulado por lentillas, hipotéticos traumatismos o sufrir modificaciones de tamaño por dilatación de la pupila.
El escáner de retina es una técnica biométrica que utiliza los patrones de la retina para identificar a una persona. La autenticación de la retina se puede realizar a través del registro inicial de la estructura vascular de la retina, es decir, la forma de los vasos sanguíneos de la retina humana, que tiene elementos característicos de cada individuo y diferenciales del resto de la población. Como ejemplo de estos métodos tenemos los documentos US2015/0193666; US2015/0186721; US2015/0078630; US2014/0294252; US2014/0270405; US2014/0198959; US2014/0044321; US2014/0044320; US2014/0044319; US8483450; US8437513 y US8369595.
En estos sistemas, el usuario a identificar debe mirar a través de un dispositivo ocular, ajustar la distancia y el movimiento de la cabeza, mirar al punto de fijación determinado y, por último, pulsar un botón para indicar al dispositivo que se encuentra listo para el análisis. Para establecer registros válidos, se tiene que esperar cinco minutos a que se produzca la midriasis, o dilatación pupilar necesaria en los sistemas de entrada por la pupila o utilizar fármacos midriáticos.
Posteriormente, se escanea la retina con una radiación infrarroja de baja intensidad en forma de espiral, detectando en una imagen los nodos y ramas del área de la retina para compararlos con los almacenados en una base de datos, si la muestra coincide con la almacenada por el usuario que el individuo dice ser, se valida la autenticación. Sin embargo, los reconocimientos a través del iris y de la retina presentan limitaciones similares y siguen siendo necesarios nuevos sistemas y métodos que superen los inconvenientes de los métodos actuales.
El documento EP2319392, con el fin de superar los inconvenientes mencionados, proporciona un método y un sistema de reconocimiento biométrico basado en el análisis de las irregularidades del mapa de la superficie del segundo dioptrio ocular respecto a una superficie normalizada, que tiene como principal ventaja la imposibilidad de acceder al segundo dioptrio ocular, ni por un individuo externo, ni por la propia persona a reconocer, ya que se encuentra en el interior del ojo. Este documento se basa en tomar una imagen exclusivamente del segundo dioptrio ocular con el objetivo de determinar las irregularidades de su mapa de superficie respecto a una superficie normalizada y cuantificarlas, resultando un conjunto de rasgos característicos de cada persona que se pueden utilizar como sistema de autenticación, es decir, utilizando las variaciones y los cálculos realizados con ellos como minucias biométricas. La toma de imagen es de probada seguridad en cuanto a que es no invasiva, se puede tomar sin contraindicación alguna y tantas veces como fuera necesario.
Explicación de la invención
El objeto de la presente invención es un método y un aparato para el reconocimiento biométrico de personas que incorpora, como constante biométrica, las irregularidades en la topografía de la córnea, mejorando la técnica descrita en el documento EP2319392. Así pues, el reconocimiento de la persona se lleva a cabo a través de la captura de una imagen en tiempo real de la topografía de la córnea, para lo que el dispositivo cuenta con una cámara giratoria que realiza una imagen tridimensional de la córnea. En una realización particular la cámara es una cámara de Scheimpflug, Posteriormente, se generan los mapas del primer y segundo dioptrio del sistema óptico ocular a partir de las medidas realizadas en las superficies anterior y posterior de la córnea.
Los mapas generados mediante la cámara son corregidos matemáticamente considerando el efecto óptico del primer dioptrio en el segundo dioptrio. Finalmente, frente al documento EP2319392, donde se comparan los mapas de superficie del segundo dioptrio ocular con una superficie patrón, en la presente invención se utiliza un sistema de comparación de registros normalizados de los parámetros oculares (superficies frontal y posterior, potencia refractiva ocuiar, o cualquier otro medióle mediante la cámara) para obtener una serie de características normalizadas de la comparación (matemáticamente, una matriz numérica) para, posteriormente, establecer un proceso de clasificación matemática de las características normalizadas de la comparación, de tal forma que el resultado de dicho proceso de clasificación indique quién es la persona, o si la persona es quién dice ser. El proceso de clasificación matemática, además, cuenta con la particularidad de aprender durante su funcionamiento, de tal forma que, a mayor cantidad de registros, más robusto será el proceso de clasificación.
A lo largo de la descripción y las reivindicaciones la palabra «comprende» y sus vanantes no pretenden excluir otras características técnicas, componentes o pasos. Para los expertos en la materia, otros objetos, ventajas y características de la invención se desprenderán en parte de la descripción y en parte de ¡a práctica de la invención. Los siguientes ejemplos y dibujos se proporcionan a modo de ilustración, y no se pretende que restrinjan la presente invención. Además, la presente invención cubre todas las posibles combinaciones de realizaciones particulares y preferidas aquí indicadas
Breve descripción de los dibujos
A continuación, se pasa a describir de manera muy breve una serie de dibujos que ayudan a comprender mejor la invención y que se relacionan expresamente con una realización de dicha invención que se presenta como un ejemplo no limitativo de ésta.
FIG.1 Muestra el diagrama de bloques del ejemplo 1 de aplicación del método de la invención.
FIG.2 Muestra el diagrama de bloques del ejemplo 2 de aplicación del método de la invención.
FIG.3 Muestra el diagrama de bloques del ejemplo 3 de aplicación del método de la invención.
Exposición de un modo detallado de realización de la invención
EJEMPLO 1. Aplicación del método de reconocimiento para la identificación de un sujeto
Tal y como se observa en la FIG.1, se toma un registro de la córnea de un sujeto a través de una cámara convencional de Scheimpflug y, posteriormente, se extraen una pluralidad de parámetros oculares de los mapas de superficie de la córnea. En una realización particular, los parámetros oculares empleados son la curvatura anterior, la curvatura posterior de la córnea y la potencia refractiva total de la córnea.
Cada medición o captura dura, aproximadamente, 30 segundos y se constituye en un registro, de tal forma que para cada sujeto y parámetro ocular se establecen «n» registros, ya que de este modo se minimizan los posibles errores y falsos positivos en la medición.
Posteriormente, una vez establecidos los mapas de cada parámetro ocular se compara el registro A de un sujeto, con un segundo registro B del mismo parámetro ocular para comprobar si corresponde a un mismo sujeto o a un sujeto distinto. Esta comparativa da como resultado una matriz numérica. Para realizar la comparativa, parámetro a parámetro, se pueden utilizar distintos métodos matemáticos, al menos uno de los siguientes:
Coeficiente de correlación:
Se intersectan dos registros (A, B) del mismo parámetro ocular.
Se escogen únicamente los valores del área de intersección.
Se calcula un valor numérico aplicando la siguiente fórmula:
Las siguientes funciones se calculan para aquellos puntos (subíndice n) de intersección entre los registros A y B,
An= valor del registro A en el punto n
Bn = valor del registro B en el punto n
N = número total de elementos de intersección entre los registros A y B
Figure imgf000006_0001
Suma de diferencias absolutas:
Se intersectan dos registros (A, B) del mismo parámetro ocular.
Se escogen únicamente los valores del área de Intersección.
Se calcula un valor numérico aplicando la siguiente fórmula:
AD =
Figure imgf000006_0002
Suma de distancias al cuadrado:
Se Intersectan dos registros (A,B) del mismo parámetro ocular.
Se escogen únicamente los valores del área de intersección.
Se calcula un valor numérico aplicando la siguiente fórmula:
Figure imgf000006_0003
Comparación de histogramas (divergencia de Jeffrey):
Se calcula el histograma para cada registro.
Se calcula un valor numérico aplicando la siguiente fórmula:
La Divergencia de Jeffry se calcula a partir de los histogramas de cada registro. El índice i representa los valores de intensidad.
hA¡ = histograma de A para el valor de intensidad i
hB¡ = histograma de B para el valor de intensidad i
Figure imgf000006_0004
Comparación de mapas de nivel:
Se establecen una pluralidad de niveles para cada registro.
Se compara, por separado cada nivel en el registro A con su correspondiente nivel en el registro B.
Se establece un indice de Jaccard para las comparativas:
El índice de Jaccard se calcula a partir de dos imágenes binarias (X e Y) para dar un valor de su solapamiento. Se obtiene dividiendo la cardinalidad de la intersección de ambas por la cardinalidad de su unión.
Figure imgf000007_0001
Se redondea el índice de Jaccard a 0 y 1.
Se suman los coeficientes redondeados.
Se dividen los coeficientes redondeados por el número de niveles.
Cabe indicar que estos métodos no son excluyentes entre sí, sino que se pueden aplicar indistintamente, uno a uno, o en combinación entre ellos. Una vez establecida la comparativa, es necesario clasificar matemáticamente dichos datos para establecer quién es el sujeto (identificación), o en un caso particular, descrito en el ejemplo 2, establecer si el sujeto es quien dice ser (autenticación).
Para ello es posible implementar uno cualquiera de los algoritmos de clasificación con autoaprendizaje siguientes:
Vecinos más cercanos (https://es.wikipedia.Org/wiki/K vecinos más próximos) SVM lineal (https://es.wikipedia.orq/wik¡/Máquinas de vectores de soporte)
RBF SVM (https://en.wikipedia.org/wiki/Radial basis function kernel)
Árbol de decisión (https://es.wikipedia.org/wiki/Aprendizaie basado en árboles de decisión) Random Forest (https://es.wikipedia.org/wiki/Random forest)
Red Neuronal (https://es.wikipedia.org/wiki/Red neuronal artificial)
AdaBoost (https://en.wikipedia.org/wiki/AdaBoost)
Nai've Bayes (https://es.wikipedia.org/wiki/Clasificador bavesiano ingenuo)
QDA (https://en.wikipedia.org/wiki/Quadratic classifier)
En cualquiera de los algoritmos anteriores se requiere de una fase de aprendizaje que se realiza a partir de un grupo de registros de una pluralidad de sujeto (grupo de entrenamiento) a partir de las cuales se generan las reglas de decisión de cada algoritmo de clasificación. No obstante, se ha observado que la clasificación con redes neuronales artificiales es la que mejores resultados ofrece.
Las redes neuronales son un modelo computacional basado en un gran conjunto de unidades neuronales simples. Las unidades neuronales están agrupadas en capas y cada una se conecta con unidades neuronales de la capa siguiente (si existe). Cada unidad neuronal, de forma individual, opera empleando funciones de suma a partir de la información que recibe de las unidades neuronales conectadas con ella. Puede existir una función limitadora en cada conexión y en la propia unidad, de tal modo que la señal debe sobrepasar un límite antes de propagarse a otra neurona, incrementando o inhibiendo el estado de activación de neuronas adyacentes. Esta función limitadora o función de activación permite modelar procesos complejos de forma no lineal. Existen pesos multiplicativos en cada enlace de conexión entre unidades neuronales. Estos pesos se definen de forma iterativa en base al resultado que se desea obtener con un proceso de auto-aprendizaje.
Una aplicación de redes neuronales artificiales comprende varias fases o etapas. Para el desarrollo y validación de la estructura se realizan las siguientes fases:
Definición de la red neuronal: se determinan el número de neuronas y capas, así como las diferentes funciones de activación.
Entrenamiento de la red neuronal: se define el tipo de entrenamiento que se realizará, a su vez que se determinan los algoritmos de aprendizaje. El aprendizaje es un proceso de ajuste de los pesos entre las conexiones de las capas. Este ajuste se realiza a partir de unos datos de entrenamiento, de forma que los pesos se modifican iterativamente hasta que la red clasifica de la mejor manera posible los datos de entrenamiento.
Utilización de la red neurona!: vez realizada la fase de entrenamiento, la red responde a un estímulo de entrada aplicando los pesos calculados en la fase de entrenamiento, ofreciendo como resultado una clasificación. En esta utilización no se realiza un ajuste de pesos.
Mantenimiento de la red neuronal: a lo largo del tiempo si se usan nuevos conjuntos de datos, sería necesario validar la arquitectura para garantizar la buena utilización, incluso efectuar un nuevo aprendizaje.
La red neuronal permite modelar diferentes problemas de clasificación sin demasiadas restricciones respecto a las características de estos. Esta puede ser la razón por la cual se obtienen los mejores resultados de clasificación de registros de la córnea con este método.
EJEMPLO 2. Aplicación del método de reconocimiento para la autenticación de un sujeto
Tal como se puede observar en la FIG.2 es posible ¡mplementar una segunda capa para la comprobación de la identidad de un sujeto, i.e. para saber sí un sujeto es quien dice ser y no otro. Así pues, los parámetros corneales de un sujeto A se introducen en el algoritmo clasificador previamente entrenado (preferentemente una red neuronal) como el descrito en el ejemplo anterior, que los compara con todos los registros almacenados de dicho sujeto A, Posteriormente, se calcula el número de registros coincidentes entre el sujeto A y los registros almacenados del citado sujeto A, de tal forma que, si este número es igual o mayor a un umbral pre-establecido de registros coincidentes, se determina si el sujeto A es el sujeto A almacenado en una base de datos conectada con el aparato de la invención.
EJEMPLO 3. Red neuronal convolucional (CNN)
Tal y como es posible observar en la FIG.3 y como posible alternativa al ejemplo 1 para determinar si dos registros son del mismo sujeto o no, se puede hacer uso de las redes neuronales convolucionales (CNNs). Una vez obtenidos los registros de un sujeto A y de un Sujeto B se introducen, sin hacer ningún tipo de comparación previa, en el algoritmo basado en redes neuronales convolucionales. El resultado de éste sería directamente la clasificación de los dos registros como del mismo sujeto. Este algoritmo necesita también un proceso de aprendizaje (de forma semejante a las redes neuronales convencionales) realizado con un grupo de registros de una pluralidad de sujetos (grupo de entrenamiento). Sin embargo, no sería necesaria la fase de obtención de características a partir de la comparación entre los registros durante ninguna fase del algoritmo, ya que durante el entrenamiento la CNN calcula los filtros convolucionales que detectan qué características de las imágenes son las adecuadas para la clasificación.

Claims (9)

REIVINDICACIONES
1. Un método de reconocimiento biométrico corneal que comprende: (i) capturar al menos una imagen de la superficie-anterior y posterior de la córnea, potencia refractiva ocular o cualquier otro parámetro medióle mediante una cámara configurada para la realización de una imagen tridimensional de la córnea; (ii) generar unos mapas del primer y segundo dioptrio del sistema óptico ocular a partir de las medidas realizadas en las superficies anterior y posterior de la córnea, donde dichos mapas generados son corregidos matemáticamente considerando el efecto óptico del primer dioptrio en el segundo dioptrio; y donde cada captura se configura como un registro normalizado con al menos un parámetro ocular de tal forma que para cada sujeto y parámetro ocular extraído de los mapas generados se establecen una pluralidad de registros normalizados; y que se caracteriza porque comprende una etapa de comparación entre: (a) al menos un primer registro normalizado con al menos un parámetro ocular; y (b) al menos un segundo registro normalizado del mismo parámetro ocular; y donde además comprende una etapa de clasificación de las características normalizadas de la comparación mediante un algoritmo de clasificación con autoaprendizaje.
2. El método de acuerdo con la reivindicación 1, donde la comparación de registros se realiza mediante, al menos, un algoritmo seleccionado entre: coeficiente de correlación, suma de diferencias absolutas, suma de diferencias al cuadrado, comparación de histogramas y comparación de mapas de nivel.
3. El método de acuerdo con la reivindicación 1 donde la clasificación con autoaprendizaje se realiza mediante al menos un algoritmo seleccionado entre: vecinos más cercanos, SVM lineal, RBF SVM, Árbol de decisión, Random Forest, Red Neuronal, AdaBoost, Naive Bayes o QDA.
4. El método de acuerdo con la reivindicación 3 donde la clasificación se realiza mediante una red neuronal entrenada.
5. Método de acuerdo con la reivindicación 1 donde las etapas de comparación y clasificación se realizan mediante, al menos, un algoritmo de aprendizaje profundo que incluye, una capa convolucional integrada en una red neuronal convolucional multicapa.
6. El método de acuerdo con la reivindicación 1 donde se calcula el número de registros parecidos entre un primer sujeto y los registros almacenados del citado primer sujeto, de tal forma que, si el número de registros coincidentes es igual o mayor a un umbral preestablecido de registros coincidentes, se determina si el primer sujeto es el sujeto almacenado en una base de datos.
7. Un aparato de reconocimiento biométrico corneal que comprende una cámara que comprende un dispositivo electrónico con un procesador, una memoria y uno o más programas, en el que el programa o programas están almacenados en la memoria y configurados para ejecutarse mediante el procesador; y caracterizado porque los programas incluyen instrucciones para ejecutar el método de acuerdo con cualquiera de las reivindicaciones 1 a 6.
8. Uso del aparato de la reivindicación 7 para la autenticación de un sujeto.
9. Uso del aparato de la reivindicación 7 para la identificación de un sujeto.
ES201800020A 2018-01-24 2018-01-24 Método y aparato para el reconocimiento biométrico corneal Active ES2662912B2 (es)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ES201800020A ES2662912B2 (es) 2018-01-24 2018-01-24 Método y aparato para el reconocimiento biométrico corneal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201800020A ES2662912B2 (es) 2018-01-24 2018-01-24 Método y aparato para el reconocimiento biométrico corneal

Publications (2)

Publication Number Publication Date
ES2662912A1 ES2662912A1 (es) 2018-04-10
ES2662912B2 true ES2662912B2 (es) 2019-09-13

Family

ID=61828386

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201800020A Active ES2662912B2 (es) 2018-01-24 2018-01-24 Método y aparato para el reconocimiento biométrico corneal

Country Status (1)

Country Link
ES (1) ES2662912B2 (es)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2224838A1 (es) * 2003-02-21 2005-03-01 Universidad Politecnica De Madrid Sistema de identificacion biometrica de personas mediante el analisis del iris.
ES2337866B2 (es) * 2008-07-24 2011-02-14 Universidad Complutense De Madrid Reconocimiento biometrico mediante estudio del mapa de superficie delsegundo dioptrio ocular.
US10025982B2 (en) * 2013-10-08 2018-07-17 Princeton Identity, Inc. Collecting and targeting marketing data and information based upon iris identification
US9836647B2 (en) * 2013-10-08 2017-12-05 Princeton Identity, Inc. Iris biometric recognition module and access control assembly
WO2018013199A1 (en) * 2016-07-14 2018-01-18 Magic Leap, Inc. Iris boundary estimation using cornea curvature

Also Published As

Publication number Publication date
ES2662912A1 (es) 2018-04-10

Similar Documents

Publication Publication Date Title
Czajka Pupil dynamics for iris liveness detection
ES2524267T3 (es) Reconocimiento biométrico mediante estudio del mapa de superficie del segundo dioptrio ocular
US20180360305A1 (en) Method and system for classifying optic nerve head
KR101790719B1 (ko) 보행 데이터에 기반한 대상자 식별 방법
CN109886080A (zh) 人脸活体检测方法、装置、电子设备及可读存储介质
Jia et al. Biometric recognition through eye movements using a recurrent neural network
CN111967296B (zh) 虹膜活体检测方法、门禁控制方法及装置
Fatima et al. A secure personal identification system based on human retina
Zhang et al. On biometrics with eye movements
US20220198831A1 (en) System for determining one or more characteristics of a user based on an image of their eye using an ar/vr headset
Boyd et al. Post-mortem iris recognition—a survey and assessment of the state of the art
Lakra et al. Segdensenet: Iris segmentation for pre-and-post cataract surgery
Homayon Iris recognition for personal identification using LAMSTAR neural network
Czajka Iris liveness detection by modeling dynamic pupil features
ES2662912B2 (es) Método y aparato para el reconocimiento biométrico corneal
Trokielewicz et al. Iris and periocular recognition in arabian race horses using deep convolutional neural networks
CN113330522B (zh) 使用正视区预测来选择人工晶状体的系统和方法
Pin et al. Retinal diseases classification based on hybrid ensemble deep learning and optical coherence tomography images
Kasprowski et al. Enhancing eye-movement-based biometric identification method by using voting classifiers
Borkar et al. IRIS recognition system
CN111374632B (zh) 视网膜病变检测方法、装置及计算机可读存储介质
Azimi et al. The effects of gender factor and diabetes mellitus on the iris recognition system’s accuracy and reliability
Otuna-Hernández et al. Diagnosis and degree of evolution in a Keratoconus-type corneal Ectasia from image processing
Sainis et al. ’Biometrics: Cardless Secured Architecture for Authentication in ATM using IRIS Technology
Narote et al. An automated iris image localization in eye images used for personal identification

Legal Events

Date Code Title Description
FG2A Definitive protection

Ref document number: 2662912

Country of ref document: ES

Kind code of ref document: B2

Effective date: 20190913