ES2688399T3 - Sistemas y métodos para análisis de vida - Google Patents

Sistemas y métodos para análisis de vida Download PDF

Info

Publication number
ES2688399T3
ES2688399T3 ES15781779.2T ES15781779T ES2688399T3 ES 2688399 T3 ES2688399 T3 ES 2688399T3 ES 15781779 T ES15781779 T ES 15781779T ES 2688399 T3 ES2688399 T3 ES 2688399T3
Authority
ES
Spain
Prior art keywords
signal
pixel location
images
correlation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15781779.2T
Other languages
English (en)
Inventor
David Hirvonen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EyeVerify Inc
Original Assignee
EyeVerify Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=54330842&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2688399(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by EyeVerify Inc filed Critical EyeVerify Inc
Application granted granted Critical
Publication of ES2688399T3 publication Critical patent/ES2688399T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/36Applying a local operator, i.e. means to operate on image points situated in the vicinity of a given point; Non-linear local filtering operations, e.g. median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Nonlinear Science (AREA)
  • Biomedical Technology (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Un método implementado por ordenador que comprende: renderizar (102) en un dispositivo de visualización una primera señal variable en el tiempo que comprende una pluralidad de diferentes señales respectivas que están separadas en fase entre sí; durante el renderizado, capturar (104) una pluralidad de imágenes de un objetivo que se ilumina mediante la primera señal renderizada; aplicar (110) un filtro de paso de banda temporal a las imágenes para generar una pluralidad de imágenes filtradas; extraer una segunda señal de las imágenes filtradas; generar una primera medida en base, al menos, a una correlación temporal de la primera señal y la segunda señal; para cada ubicación de píxel en una pluralidad de ubicaciones de píxel, extraer una señal respectiva para la ubicación del píxel en base a cambios en un valor respectivo de la ubicación del píxel a lo largo del tiempo en una pluralidad de imágenes filtradas; calcular una puntuación de correlación de ubicación de píxel respectiva para cada uno de las ubicaciones de píxel en base a una correlación de la señal extraída respectiva de la ubicación del píxel a la primera señal; generar una segunda medida en base, al menos, a una pluralidad de las puntuaciones de correlación de ubicación de píxel; y aceptar o rechazar el objetivo en base, al menos, a las medidas primera y segunda.

Description

5
10
15
20
25
30
35
40
45
50
55
60
65
DESCRIPCION
Sistemas y métodos para análisis de vida REFERENCIA A APLICACIONES RELACIONADAS
Esta solicitud es una continuación de, y reivindica la prioridad para, la solicitud pendiente de patente de EE. UU. N° 14/480.802, presentada el 9 de septiembre de 2014, titulada "Systems and Methods for the Liveness Analysis", cuya descripción se incorpora en el presente documento como referencia en su totalidad.
CAMPO TÉCNICO
La presente invención se refiere, en general, al análisis de imágenes y, en particular, a técnicas de procesamiento de imágenes para detectar si un sujeto representado en una imagen está vivo.
ANTECEDENTES
A menudo es deseable restringir el acceso a la propiedad o recursos a individuos concretos. Los sistemas biométricos se pueden utilizar para autenticar la identidad de un individuo para otorgar o negar el acceso a un recurso. Por ejemplo, los escáneres de iris pueden ser utilizados por un sistema de seguridad biométrica para identificar a un individuo en base a estructuras únicas en el iris del individuo. Sin embargo, dicho sistema puede autorizar erróneamente a un impostor si el impostor presenta para escaneo una imagen o un video pregrabado de la cara de una persona autorizada. Tal imagen o video falso puede ser mostrado en un monitor tal como una pantalla de tubo de rayos catódicos (CRT - Cathode Ray Tube, en inglés) o de pantalla de cristal líquido (LCD - Liquid Crystal Display, en inglés), en fotografías con brillo, etc., que se encuentra frente a una cámara utilizada para escanear. Algunos de los llamados sistemas de detección de falsificación pueden detectar una imagen falsa mediante la determinación del movimiento del ojo. Pero, dicho sistema puede no ser efectivo para identificar un video falso que incluye el movimiento esperado del ojo. Por lo tanto, se necesitan sistemas y métodos mejorados para determinar de manera eficiente imágenes y videos falsos de aquellos proporcionados en vivo por las personas autorizadas.
COMPENDIO
En diversas implementaciones descritas en la presente memoria, las diferencias en las propiedades reflectantes de caras reales / auténticas y caras de impostores se utilizan para distinguir caras y/u ojos vivos y auténticos de imágenes / videos impostores. Esto se logra, en parte, mediante la representación de una señal de referencia en una pantalla que se encuentra delante de un objetivo, que puede ser una cara real o una imagen falsa, mediante la grabación de un reflejo de la señal de referencia por parte del objetivo, y mediante el cálculo de una o más correlaciones entre las señales reflejadas y las renderizadas.
En consecuencia, en un aspecto, un método implementado por ordenador para determinar si una imagen viva se presenta para autentificación incluye renderizar en un dispositivo de visualización una primera señal variable en el tiempo que incluye varias señales respectivas diferentes que están separadas en fase entre sí. El método incluye asimismo capturar, durante la renderización, varias imágenes de un objetivo que es iluminado con la primera señal renderizada, y aplicar temporalmente un filtro de paso de banda a las imágenes para generar una pluralidad de imágenes filtradas. El método incluye además extraer una segunda señal de las imágenes filtradas, y generar una primera medida basada en, al menos, una correlación temporal de la primera señal y la segunda señal. Además, el método incluye, para cada ubicación de píxel en varias ubicaciones de píxeles, extraer una señal respectiva para la ubicación del píxel en base a los cambios en un valor respectivo de la ubicación de píxeles en el tiempo en una serie de imágenes filtradas, y calcular una puntuación de correlación de la ubicación de píxeles respectiva para cada una de las ubicaciones de píxeles en base a una correlación de la señal extraída respectiva de la ubicación de píxeles para la primera señal El método incluye además generar una segunda medida basada en, al menos, varias de las puntuaciones de correlación de ubicación de píxeles, y aceptar o rechazar el objetivo en base, por lo menos, a las medidas primera y segunda.
Cada señal respectiva de la primera señal puede tener un color diferente, y cada uno de los colores puede ser representado utilizando una misma frecuencia. En algunas implementaciones, cada señal respectiva de la primera señal es una señal monocromática diferente, y la primera señal puede ser sinusoidal. Cada señal respectiva de la primera señal puede ser una sinusoide distinta, y las sinusoides se pueden superponer en la primera señal. Las señales respectivas de la primera señal pueden ser generadas al azar. En algunas implementaciones, un valor respectivo concreto de una ubicación de píxel puede ser un color.
Cada imagen puede incluir una serie de imágenes respectivas que han sufrido cada una una transformación respectiva, que está en una resolución respectiva diferente, o que incluye una banda de frecuencia espacial respectiva diferente que corresponde a un fenómeno de iluminación seleccionado. La primera medida puede estar basada más en si una fase de la primera señal coincide con una fase de la segunda señal. La extracción de una segunda señal de las imágenes filtradas puede incluir extraer la segunda señal de un valor de color dominante respectivo de cada una de las imágenes filtradas. En algunas implementaciones, el método incluye además estabilizar el objetivo en varias de las imágenes capturadas y/o procesadas antes de aplicar el filtro de paso de banda. El filtro de paso de banda puede ser aplicado en el dominio de la frecuencia o en el dominio del tiempo.
5
10
15
20
25
30
35
40
45
50
55
60
65
En algunas implementaciones, generar la segunda medida en base, al menos, a un número de puntuaciones de correlación de ubicación de píxeles incluye combinar las puntuaciones de correlación de ubicación de píxeles para generar la segunda medida. El objetivo puede ser un rostro humano y las puntuaciones de la correlación de la ubicación de píxeles combinados pueden ser para ubicaciones de píxeles de una región particular de la cara. La región particular de la cara puede ser determinada utilizando uno o más de: (i) análisis dinámico de imágenes para evitar, al menos en parte, una o más porciones de la cara que están ocluidas o sobreexpuestas en la pluralidad de imágenes, e (ii) una máscara o un mapa de pesos que representa el conocimiento acerca de las características de la cara que es probable que reflejen la primera señal emitida.
Cada ubicación de píxel puede representar varios elementos de datos de imagen, pudiendo tener, algunos o todos, distintas resoluciones. Cada ubicación de píxel puede ser una combinación ponderada de los elementos de datos de imagen respectivos de la ubicación del píxel. Las varias imágenes capturadas pueden representar una pirámide gaussiana o una pirámide laplaciana. Una imagen filtrada concreta de las imágenes filtradas puede representar una combinación ponderada de varios niveles de la pirámide. Otras realizaciones de este aspecto incluyen sistemas, aparatos y programas informáticos correspondientes.
Las implementaciones concretas del objeto descrito en esta memoria descriptiva pueden realizar una o más de las siguientes ventajas. Por ejemplo, la técnica de detección depende de una señal de patrón de múltiples espectros que se representa mientras se realiza la detección. Es poco probable que las imágenes de la cara y/o el ojo de una persona provenientes de una autenticación preprogramada de video / imagen para la autenticación se correlacionen con la señal de patrón multiespectral proporcionada durante la detección de la vida. Además, cualquier reflexión de la señal de patrón multiespectral de una pantalla que representa dicho video / imagen es probablemente de naturaleza diferente a la reflexión de la cara y/o el ojo de una persona viva. Diversas implementaciones descritas en este documento pueden detectar estas anomalías, tal como se explica a continuación y, de este modo, pueden ser más robustas para distinguir a una persona autorizada viva de videos y/o imágenes falsos.
Los detalles de una o más realizaciones del tema descrito en esta especificación se establecen en los dibujos adjuntos y la descripción que siguen. Otras características, aspectos y ventajas del objeto se pondrán de manifiesto a partir de la descripción, los dibujos y las reivindicaciones.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
El archivo de la patente o la solicitud contiene, al menos, un dibujo ejecutado en color. Las copias de esta publicación de patente o solicitud de patente con dibujos a color serán proporcionadas por la Oficina tras la solicitud y el pago de la tarifa necesaria.
La figura 1 ilustra un procedimiento de ejemplo para determinar dos medidas de vida.
Las figuras 2(a) - 2(c) representan un fotograma de video capturado de ejemplo, un fotograma de video normalizado y estabilizado correspondiente, y un fotograma de filtrado en paso de banda temporal correspondiente, respectivamente.
Las figuras 3(a) - 3(c) representan ejemplos de señales RGB recuperadas correspondientes a una secuencia de fotogramas de video capturados, a una respuesta de filtro de paso de banda de las señales RGB recuperadas, y a las correspondientes señales RGB de referencia representadas, respectivamente.
Las figuras 4(a) - 4(c) describen, de arriba a abajo, los diagramas de periodo de la transformada rápida de Fourier (FFT) de las señales representadas en las figuras 3(a) -3(c), respectivamente.
La figura 4(d) representa un filtro Butterworth temporal utilizado para generar la respuesta del filtro de paso de banda representada en la figura 3(b).
La figura 5(a) representa un ejemplo de fotograma de imagen normalizado y estabilizado promediado.
Las figuras 5(b) - 5(d) representan una imagen de correlación bidimensional (2D) correspondiente, una imagen de correlación procesada y una imagen de saturación correspondiente, respectivamente.
La figura 5(e) representa una máscara facial de ejemplo.
Las figuras 5(f) - 5(k) representan fotogramas de video capturados, correspondientes a un ciclo completo de una señal RGB de referencia, utilizando la imagen de correlación 2D mostrada en la figura 5(b).
La figura 6 representa una configuración de ejemplo de un monitor LCD que representa una imagen falsa y un teléfono que captura y analiza la imagen falsa.
La Figura 7 representa otra configuración de ejemplo de un monitor LCD que representa una imagen falsa y un teléfono que captura y analiza la imagen falsa.
Las figuras 8(a) - 8(k) representan un fotograma de imagen media falsa capturada desde un monitor LCD configurado tal como se muestra en la figura 6, la correspondiente imagen de correlación 2D y fotogramas de video, correspondientes a un ciclo completo de la señal RGB mediante cuya utilización se calcula la imagen de correlación 2D mostrada en la figura 8(b).
Las figuras 9(a) - 9(k) representan un fotograma de imagen media falsa capturada desde un monitor LCD configurado tal como se muestra en la figura 7, la correspondiente imagen de correlación 2D, y los fotogramas de video, correspondientes a un ciclo completo de la señal RGB, mediante cuya utilización se calcula la imagen de correlación 2D mostrada en la figura 9(b).
5
10
15
20
25
30
35
40
45
50
55
60
65
Las figuras 10(a) -10(c) representan las señales RGB recuperadas correspondientes a la secuencia de los cuadros de video falso capturados que se muestran en las figuras 9(f) - 9(k), respuesta de filtro de paso de banda de las señales RGB recuperadas, y las correspondientes señales RGB de referencia representadas, respectivamente.
Las figuras 11 (a) -11 (c) representan, de arriba a abajo, los diagramas de periodo de la transformada rápida de Fourier (FFT) de las señales representadas en las figuras 10(a) -10(c), respectivamente.
La figura 11 (d) representa un filtro temporal de Butterworth utilizado para generar la respuesta del filtro de paso de banda representado en la figura 10(b).
La figura 12 representa patrones de Moiré asociados con una imagen falsa.
La figura 13 ilustra otro procedimiento de ejemplo para detectar la vida de un ojo.
Las figuras 14(a) y 14(b) representan un ojo de ejemplo que refleja un teléfono que captura una imagen del ojo, y la correspondiente imagen de correlación 2D, respectivamente.
La figura 15(a) muestra la imagen falsa representada en la figura 12 con una resolución más alta.
Las figuras 15(b) y 15(c) muestran una porción recortada de alta resolución de la imagen representada en la figura 15(a) y una correlación 2D local calculada de acuerdo con el procedimiento mostrado en la figura 13.
Los números de referencia y las designaciones iguales en los diversos dibujos indican elementos iguales.
DESCRIPCIÓN DETALLADA
La figura 1 ilustra un marco general para calcular dos medidas que pueden ser utilizadas para distinguir entre imágenes de un ojo obtenidas de una persona viva real y una falsa, por ejemplo, imágenes o videos previamente capturados de una persona viva). En la etapa 102, se representa un patrón multiespectral en el dispositivo de visualización, de modo que la cara (u "objetivo") de una persona es iluminada mediante el patrón. En algunas implementaciones, el patrón se muestra durante aproximadamente un segundo, pero otras duraciones son posibles. El dispositivo de visualización puede ser el dispositivo de visualización de un aparato de procesamiento de datos tal como, por ejemplo, un teléfono inteligente, unas gafas inteligentes, un reloj inteligente, una tableta, un ordenador portátil, etc. Son posibles otros dispositivos de visualización. Las imágenes del objetivo iluminadas por el patrón multiespectral son capturadas por una cámara digital en la etapa 104. En algunas implementaciones, la cámara digital es una cámara digital frontal del aparato de procesamiento de datos. Se pueden utilizar otras cámaras digitales, incluidas cámaras digitales en otros dispositivos.
En diversas implementaciones, el patrón multiespectral incluye tres señales sinusoidales superpuestas. Por ejemplo, las sinusoides rojas, verdes y azules (RGB - Red Green Blue, en inglés) pueden ser utilizadas para hacer coincidir las sensibilidades de los filtros nativos para cada canal de color en las cámaras digitales comunes de patrón Bayer. Las señales sinusoidales pueden ser renderizadas sustancialmente a una sola frecuencia, de manera que se puede utilizar un solo filtro de paso de banda para su posterior análisis (descrito a continuación). Además, las tres señales sinusoidales pueden estar separadas de manera uniforme en fase a través de los tres canales de color (por ejemplo, rojo = 0, verde = (2 * pi) / 3, y azul = (2 * pi) * 2/3), para mejorar la capacidad de separación de la señal recuperada para reducir las brechas de iluminación que pueden exacerbar los efectos de destello que pueden ser incómodos para algunos usuarios. En una implementación, se utiliza una frecuencia de aproximadamente 4 Hz, que es más baja que el umbral para la epilepsia fotosensible, aunque es lo suficientemente rápida para poder ser separada fácilmente del ruido típico de iluminación de baja frecuencia en un corto período de tiempo. Se pueden utilizar otros patrones multiespectrales además de las sinusoides RGB, que incluyen patrones que tienen menos o más señales componentes, una sinusoide roja y azul, por ejemplo.
En la etapa 104, se graba una señal de video que incluye imágenes capturadas por la cámara digital. En algunas implementaciones, la señal de video es un videoclip de 0,75 segundos aproximadamente a 25 Hz, es decir, 25 fotogramas / segundo. Otras duraciones y velocidades de fotogramas son posibles. En la etapa 106, cada fotograma en la señal de video grabada se puede etiquetar con el valor (por ejemplo, el valor RGB) del patrón representado en el dispositivo de visualización en la etapa 102 aproximadamente en el momento en que se capturó el fotograma de imagen. Los metadatos de archivos de imágenes intercambiables (EXIF) (u otros metadatos) también se pueden almacenar en la etapa 106, en general, para proporcionar una medida de la iluminación ambiental para el ajuste automático del umbral. Los metadatos pueden incluir brillo ambiental, tiempo de exposición, ajuste ISO y/o el valor de la apertura.
En algunas implementaciones, se puede llevar a cabo la estabilización de video (registro y deformación) en la señal de video grabada en la etapa 108 para asignar puntos en la escena al sistema de coordenadas común de referencia. Después de la estabilización y la deformación, los fotogramas pueden ser convertidos en un espacio de color RGB normalizado para reducir la sensibilidad a las sombras y otras aberraciones de iluminación en el entorno y, de este modo, se obtiene una señal de video estabilizada y normalizada en la etapa 108.
En la etapa 110, el video estabilizado y normalizado es procesado utilizando un filtro de paso de banda temporal que está sintonizado a la frecuencia de la sinusoide procesada, por ejemplo, 4 Hz en un ejemplo. A modo de ilustración, el filtro se puede aplicar a las pirámides gaussianas correspondientes a los fotogramas de video estabilizados y normalizados. El filtrado en paso de banda temporal se puede realizar para aislar, a partir de la señal normalizada obtenida en la etapa 108, una señal de respuesta correspondiente al patrón multiespectral representado en la etapa
5
10
15
20
25
30
35
40
45
50
55
60
65
102. Finalmente, la señal de video filtrada por paso de banda es comparada con el patrón multiespectral previamente renderizado, por ejemplo, a diferentes escalas, para obtener: (1) una correlación temporal basada en el fotograma global en la etapa 112, y/o (2) una correlación local de píxeles en la etapa 114, tal como se describe a continuación.
Con el fin de calcular una medida global de la correlación temporal, cada fotograma de la señal de respuesta filtrada obtenida en la etapa 110 se puede representar con un valor RGB dominante, en la etapa 122. Se espera que el valor RGB dominante asignado en la etapa 122 corresponda al color del patrón multiespectral RGB entregado, tal como se representa mediante los valores RGB etiquetados en la señal de video grabada en la etapa 106. A modo de ilustración, los valores RGB dominantes se pueden calcular mediante un modo robusto a partir de un histograma de cromaticidad, o como una media ponderada de los valores de píxel para cada fotograma. Otras formas de determinar el valor RGB dominante son posibles.
Se calcula una imagen de saturación media a partir de la señal de respuesta filtrada (etapa 110), y se puede utilizar para proporcionar los pesos para el método de media ponderada (etapa 122). En algunas implementaciones, la imagen de saturación promedio es la distancia desde una imagen gris correspondiente al fotograma que se va a procesar. La imagen de saturación bidimensional (2D) resultante es proporcional a la intensidad del patrón multiespectral RGB reflejado. A continuación, en la etapa 124, se realiza una deducción de tendencia lineal de manera independiente en cada una de las señales estimadas de rojo, verde y azul, para eliminar cualquier componente de rampa de los datos, lo que lo hace más adecuado para la comparación con la señal patrón multiespectral RGB de referencia. La tendencia lineal puede ser calculada utilizando un estimador m lineal, por ejemplo.
La figura 3(a) muestra un ejemplo de señal RGB global. La señal se denomina "global" porque representa los valores RGB dominantes correspondientes a un fotograma, y no a ningún píxel en particular en ese fotograma. En la etapa 126, esta señal global es procesada con un filtro de Butterworth de paso de banda temporal en el dominio de la frecuencia, para extraer la frecuencia apropiada correspondiente a la señal grabada. Las figuras 2(b) y 2(c) muestran la señal RGB filtrada y la señal de referencia renderizada (es decir, el patrón multiespectral RGB), respectivamente. Estas dos señales son comparadas en la etapa 128 utilizando una correlación cruzada normalizada, y el valor resultante, designado como nxcorr, indica una primera medida de vida. En una implementación, se realiza una pequeña búsqueda temporal unidimensional (1D) en la etapa 128 para compensar la latencia en el controlador de la cámara, que puede causar un pequeño desplazamiento entre las señales RGB medidas y las renderizadas. La búsqueda es una búsqueda 1D, porque cada punto en la forma de onda combinada en la figura 2(a) representa un fotograma completo. Las figuras 4(a) - 4(c) representan los diagramas de periodo de la transformada rápida de Fourier (FFT - Fast Fourier Transform, en inglés) de las señales representadas en las figuras 3(a) - 3(c), respectivamente.
Correlación local por píxeles
En la etapa 114, se calcula una media espacial de correlación cruzada normalizada temporal local calculada en cada ubicación de píxel en la respuesta de video filtrada (es decir, la señal obtenida en la etapa 110 mediante el filtrado de la señal registrada estabilizada y normalizada por medio del filtro de paso de banda temporal). La media espacial puede producir una imagen de correlación 2D (por ejemplo, en un rango [-1 ...+1], que puede indicar con qué precisión coincide cada píxel en la respuesta filtrada con la señal RGB renderizada. Por ejemplo, la figura 5(b) muestra una imagen de correlación correspondiente a una imagen registrada estabilizada y normalizada de ejemplo representada en la figura 5(a). La figura 5(c) muestra una imagen de correlación 2D procesada obtenida, por ejemplo, seleccionando el máximo de las imágenes de correlación izquierda y derecha, tal como se describe a continuación. Para calcular una correlación 2D, se puede aplicar una máscara facial en la etapa 132, por ejemplo, para restringir el procesamiento a la parte de piel de la cara, y para eliminar las características oscuras de la cara con un albedo bajo y/o para eliminar el ruido del movimiento independiente de los ojos. La figura 5(e) representa una máscara de ejemplo. A continuación, se calcula la correlación local píxel por píxel en la etapa 134, por ejemplo, para cada uno de los fotogramas de imagen mostrados en las figuras 5(f) - 5(k). Estas imágenes corresponden a un ciclo completo del patrón multiespectral RGB, y las respectivas correlaciones píxel por píxel pueden ser promediadas y procesadas para obtener la imagen final de correlación 2D que se muestra en la figura 5(c).
En algunas implementaciones, al calcular la correlación local, píxel por píxel, el retardo de fase recuperado de la correlación global anterior puede ser utilizado en la etapa 134 para evitar la necesidad de una búsqueda costosa de la correlación en los datos volumétricos correspondientes a los fotogramas estabilizados y normalizados obtenidos en la etapa 110. En algunas implementaciones, los valores promedio de la correlación cruzada espacial normalizada se calculan por separado, en las etapas 136, 138, respectivamente, para los lados izquierdo y derecho de la máscara facial. El máximo de dos correlaciones espaciales puede ser seleccionado en la etapa 140. Esto puede proporcionar una medida más robusta de la correlación, que solo una media, ya que las condiciones de iluminación extrema a menudo se limitan a un solo lado de la cara. Alternativamente, la media global de todos los píxeles de la máscara facial puede ser utilizado si el valor del brillo ambiental de los metadatos EXIF es lo suficientemente bajo para hacer que la saturación sea poco probable, como la que se puede encontrar en la mayoría de los entornos de interior. La figura 5(d) representa una imagen de saturación correspondiente a la imagen de correlación 2D que se
5
10
15
20
25
30
35
40
45
50
55
60
65
muestra en la figura 5(c). La medida de correlación local promediada final, designada como nxcorr2, puede ser una segunda medida de vida.
Típicamente, la piel de una cara real proporciona una reflexión relativamente difusa con un alto albedo y, por lo tanto, el valor de correlación en cada píxel puede ser alto. La imagen de correlación también tiende a ser bastante uniforme, con una varianza espacial relativamente baja. Por el contrario, cuando se utiliza un monitor de video para una reproducción impostora, el monitor tiende a comportarse como un espejo y, dependiendo del ángulo de reflexión de la luz emitida desde la pantalla en la que se representa el patrón multiespectral RGB, la luz es reflejada principalmente de manera local en una pequeña porción de la imagen de la cara capturada en la pantalla (tal como se representa en la figura 6) o se refleja fuera de la pantalla de visualización, tal como se muestra en la figura 7.
Por ejemplo, la figura 8(a) representa una imagen impostora capturada que se muestra en una pantalla LCD mantenida frente al dispositivo al que se debe autorizar el acceso (por ejemplo, un teléfono), tal como se muestra en la figura 6. Las figuras 8(b) y 8(c) muestran las correspondientes imágenes de correlación 2D, la figura 8(d) muestra la imagen de saturación correspondiente, la figura 8(e) muestra la máscara aplicada, y las figuras 8(f) a 8(k) representan diversos fotogramas de imagen capturados que corresponden a un ciclo completo del patrón multiespectral RGB proporcionado tal como se muestra en la etapa 102 en la figura 1. En este ejemplo, la segunda medición nxcorr2 es alta (alrededor de 0,63) debido a que la pantalla LCD es mantenida paralela al teléfono utilizado para capturar las imágenes, y debido a que la pantalla LCD actúa como un espejo. La primera medida nxcorr, es decir, la correlación global, es baja, no obstante, lo que indica que las imágenes capturadas probablemente no se obtienen de una fuente viva. Si la pantalla LCD que muestra las imágenes impostoras es mantenida en un ángulo relativo a la pantalla utilizada para representar el patrón multiespectral RGB, tal como se muestra en la figura 7, por ejemplo, se espera que los valores de nxcorr2 y nxcorr sean bajos, es decir, menores que un umbral seleccionado de 15, tal como 0,5, 0,4, 0,3, etc. Un ejemplo típico correspondiente a este caso, en el que la luz es reflejada lejos de la cámara, se muestra en las figuras. 9(a) - 9(k). En este caso, ni las medidas de correlación local global ni media corresponden a la señal RGB esperada, lo que, en general, hace que ambas medidas nxcorr y nxcorr2 sean bajas. Por lo tanto, la señal de respuesta filtrada obtenida en la etapa 124 puede tener mucho ruido, tal como ilustra la señal 1D RGB mostrada en las figuras 10(a) a 10(c).
Además de aprovechar las propiedades similares a un espejo de muchas pantallas de reproducción de video, las medidas de correlación pueden reflejar otras anomalías de una reproducción de video, por ejemplo, aberraciones de muestreo tales como bandas verticales en las imágenes de salida filtradas de paso de banda temporal, tal como se puede ver en los últimos seis fotogramas en la figura 9. En una implementación, una FFT normalizada para cada señal de color representada en la señal de respuesta filtrada es un indicador fuerte de que el sujeto es un impostor, tal como se puede ver en la figura 11. Las tres filas superiores son los diagramas de periodo correspondientes a los canales de color rojo, verde y azul, obtenidos a partir de la señal de respuesta filtradas / obtenidas en la etapa 110, figura 1). La última fila es un filtro Butterworth de paso de banda temporal sintonizado al período esperado de la señal en el video grabado. Una relación baja de la señal de paso de banda filtrada con respecto a la energía total de la señal es otra medida que se puede utilizar para detectar casos de impostores.
El análisis de los reflejos desde la pantalla LCD mantenida delante del dispositivo de captura de imágenes (por ejemplo, una cámara de teléfono celular) puede ser utilizado para ayudar a la detección de un impostor cuando, por ejemplo, nxcorr2 es alta, pero nxcorr es baja, tal como se describe haciendo referencia a las figuras 8(a) - 8(k). Por ejemplo, las figuras 12(a) - 12(c) muestran una imagen falsa que se muestra en una pantalla LCD que se encuentra delante de una cámara, una imagen recortada de la región de la cara cerca del ojo y una imagen de borde correspondiente a la imagen recortada, que representa un reflejo del teléfono que se utilizó para capturar la imagen falsa mostrada en la pantalla LCD. Otra aberración son los patrones muaré del monitor, que son visibles en la imagen de correlación 2D, tal como se puede ver en la figura 12(d). Un clasificador 2D, tal como un clasificador Haar, se puede entrenar para identificar patrones en la imagen de correlación que son únicos para los casos de impostores. En general, en diversas implementaciones, se devuelve una clasificación de auténtica si y solo si tanto la correlación global (nxcorr) como la correlación global (nxcorr2) exceden un umbral predeterminado.
La figura 13 Ilustra otra técnica de detección de impostores que aprovecha las propiedades de reflexión de un ojo típico. Específicamente, la etapa 1302 de renderizar un patrón multiespectral rGb, la etapa 1304 de capturar una señal de video, la etapa 1306 de etiquetar cada fotograma con un valor RGB, y la etapa 1306 de estabilizar la señal de video grabada y etiquetada se realizan de manera similar a la descrita anteriormente haciendo referencia a la figura 1. Posteriormente, en la etapa 1308 se realiza una descomposición en paso de banda espacio temporal para aprovechar las propiedades reflectantes convexas del ojo. Se observa que un ojo tiene típicamente una superficie reflectante convexa, de modo que cada fotograma de imagen capturado en la etapa 1304 incluye una imagen reducida del espejo del entorno del ojo, que puede incluir una imagen compacta del patrón RGB renderizado en una pantalla de visualización en la etapa 1302.
En la etapa 1310 se aplican filtros temporales de paso de banda a una pirámide laplaciana correspondiente a señales marcadas estabilizadas. La pirámide laplaciana puede proporcionar una descomposición del paso de banda espacial del video de entrada para ayudar a aislar las frecuencias espaciales principalmente altas del patrón multiespectral RGB reflejado desde el ojo.
5
10
15
20
25
30
35
40
45
50
55
60
65
A continuación, se produce una imagen de correlación 2D píxel por píxel por medio de la correlación cruzada normalizada temporal entre la señal de referencia y la salida de video filtrada en paso de banda, en la etapa 1312. Un promedio local en una proximidad pequeña del pico dominante puede ser utilizado como una medida adicional de vida. En general, este enfoque puede detectar la viveza de los ojos en lugar de detectar la vitalidad de la cara utilizando las primera y segunda medidas descritas anteriormente. En una correlación local píxel por píxel solo para la región del ojo de un ojo real vivo, se espera solamente una mancha brillante correspondiente a la reflexión de la señal RGB renderizada por la pupila del ojo, tal como se puede ver en las figuras 14(a) y 14(b). Si se ven múltiples puntos o no se detecta ningún punto, se determina que las imágenes capturadas probablemente están suministradas por un impostor.
Los sistemas y las técnicas que se describen en el presente documento pueden ser implementadas en un sistema informático que incluye un componente del lado del sistema operativo (back end, en inglés) (por ejemplo, tal como un servidor de datos), o que incluye un componente entre el sistema operativo y las aplicaciones (middleware, en inglés) (por ejemplo, un servidor de aplicaciones), o que incluye un componente del lado de las aplicaciones (front end, en inglés) (por ejemplo, un ordenador del cliente que tiene una interfaz gráfica de usuario o un navegador web con el que un usuario puede interactuar con una implementación de los sistemas y técnicas descritos en el presente documento), o cualquier combinación de dichos componentes back end, middleware o front end. Los componentes del sistema pueden estar interconectados por medio de cualquier forma o medio de comunicación de datos digitales (por ejemplo, una red de comunicación). Ejemplos de redes de comunicación incluyen una red de área local ("LAN" - Local Area Network, en inglés), una red de área extensa ("WAN" - Wide Area NetWork, en inglés) e Internet.
El sistema informático puede incluir clientes y servidores. Un cliente y un servidor, en general, son remotos, y pueden interactuar a través de una red de comunicación. La relación del cliente y el servidor surge en virtud de los programas informáticos que se ejecutan en los ordenadores respectivos y que tienen una relación de cliente a servidor entre sí. Se han descrito varias realizaciones. No obstante, se comprenderá que se pueden realizar diversas modificaciones sin apartarse del alcance de la invención.
Las realizaciones del objeto y las operaciones descritas en esta memoria descriptiva pueden ser implementadas en circuitos electrónicos digitales, o en software, firmware o hardware, que incluyen las estructuras descritas en esta memoria descriptiva y sus equivalentes estructurales, o en combinaciones de uno o más de ellos. Las realizaciones del objeto descrito en esta memoria descriptiva pueden ser implementadas como uno o más programas informáticos, es decir, uno o más módulos de instrucciones de programas informáticos, codificados en un medio de almacenamiento informático para su ejecución, o para controlar el funcionamiento del aparato de procesamiento de datos. Alternativa o adicionalmente, las instrucciones del programa pueden ser codificadas en una señal propagada generada artificialmente, por ejemplo, una señal eléctrica, óptica o electromagnética generada mediante una máquina, que se genera para codificar información para su transmisión a un aparato receptor adecuado para su ejecución mediante un aparato de procesamiento de datos. Un medio de almacenamiento informático puede ser, o estar incluido en, un dispositivo de almacenamiento legible por ordenador, un sustrato de almacenamiento legible por ordenador, un conjunto o dispositivo de memoria de acceso aleatorio o en serie, o una combinación de uno o más de ellos. Además, aunque un medio de almacenamiento informático no es una señal propagada, un medio de almacenamiento informático puede ser una fuente o destino de instrucciones de programa informático codificadas en una señal propagada generada artificialmente. El medio de almacenamiento informático también puede ser, o puede estar incluido en, uno o más componentes o medios físicos separados (por ejemplo, múltiples CD, discos u otros dispositivos de almacenamiento).
Las operaciones descritas en esta memoria descriptiva pueden ser implementadas como operaciones realizadas mediante un aparato de procesamiento de datos sobre datos almacenados en uno o más dispositivos de almacenamiento legibles por ordenador o recibidos de otras fuentes.
El término "aparato de procesamiento de datos" abarca todo tipo de aparatos, dispositivos y máquinas para procesar datos, que incluyen, a modo de ejemplo, un procesador programable, un ordenador, un sistema en uno o en múltiples chips, o combinaciones de los anteriores. El aparato puede incluir una circuitería lógica de propósito especial, por ejemplo, una FPGA (matriz de puertas programable por campo - Field Programmable Gate Array, en inglés) o un ASIC (circuito integrado específico para una aplicación - Application-Specific Integrated Circuit, en inglés). El aparato puede incluir, asimismo, además de hardware, código que crea un entorno de ejecución para el programa informático en cuestión, por ejemplo, código que constituye el firmware del procesador, una pila de protocolo, un sistema de administración de bases de datos, un sistema operativo, un entorno de ejecución multiplataforma, una máquina virtual o una combinación de uno o más de ellos. El aparato y el entorno de ejecución pueden realizar diversas infraestructuras de modelos informáticos diferentes, tales como servicios web, cálculo distribuido e infraestructuras de cálculo en malla.
Un programa informático (también conocido como programa, software, aplicación de software, secuencia de comandos o código) puede estar escrito en cualquier forma de lenguaje de programación, incluidos los lenguajes compilados o interpretados, los lenguajes declarativos o de procedimiento, y puede ser desplegado en cualquier forma, incluso como un programa independiente o como un módulo, componente, subrutina, objeto u otra unidad
5
10
15
20
25
30
35
40
45
50
55
60
adecuada para ser utilizada en un entorno informático. Un programa informático puede, pero no es necesario, corresponder a un archivo en un sistema de archivos. Un programa puede estar almacenado en una parte de un archivo que contiene otros programas o datos (por ejemplo, uno o más textos almacenados en un recurso de lenguaje de marcado), en un único archivo dedicado al programa en cuestión, o en múltiples archivos coordinados (por ejemplo, archivos que almacenan uno o más módulos, subprogramas o porciones de código). Se puede implementar un programa informático para ser ejecutado en un ordenador o en varios ordenadores ubicados en un sitio o distribuidas a través de múltiples sitios e interconectados por una red de comunicación.
Las realizaciones del tema descrito en esta especificación pueden ser implementadas en un sistema informático que incluye un componente back end, por ejemplo, tal como un servidor de datos, o que incluye un componente middleware, por ejemplo, un servidor de aplicaciones, o que incluye un componente front end, por ejemplo, un ordenador de un cliente que tiene una interfaz gráfica de usuario o un navegador web a través del cual un usuario puede interactuar con una implementación del objeto descrito en esta memoria descriptiva, o cualquier combinación de uno o más de dichos componentes back end, middleware o front end. Los componentes del sistema pueden estar interconectados por cualquier forma o medio de comunicación de datos digitales, por ejemplo, una red de comunicación. Ejemplos de redes de comunicación incluyen una red de área local ("LAN") y una red de área extensa ("WAN"), una red interconectada (por ejemplo, Internet) y redes de igual a igual (por ejemplo, redes de igual a igual ad hoc).
El sistema informático puede incluir clientes y servidores. Un cliente y un servidor, en general, son remotos y pueden interactuar a través de una red de comunicación. La relación de cliente y servidor surge en virtud de los programas de ordenador que se ejecutan en los respectivos ordenadores y que tienen una relación de cliente a servidor entre sí. En algunas realizaciones, un servidor transmite datos (por ejemplo, una página HTML) a un dispositivo del cliente (por ejemplo, con el fin de mostrar datos y recibir la entrada de usuario de un usuario que interactúa con el dispositivo del cliente). Los datos generados en el dispositivo del cliente (por ejemplo, un resultado de la interacción del usuario) pueden ser recibidos desde el dispositivo del cliente en el servidor.
Un sistema de uno o más ordenadores se puede configurar para realizar operaciones o acciones concretas en virtud de tener software, firmware, hardware o una combinación de ellos, instalado en el sistema, que en operación causa o hace que el sistema realice las acciones. Se pueden configurar uno o más programas informáticos para realizar operaciones o acciones concretas mediante la inclusión de instrucciones que, cuando son ejecutadas mediante un aparato de procesamiento de datos, hacen que el aparato realice las acciones.
Si bien esta memoria descriptiva contiene muchos detalles específicos de implementación, estos no deben ser interpretados como limitaciones en el alcance de cualquier invención o de lo que se puede reivindicar, sino más bien como descripciones de características específicas de realizaciones concretas de invenciones concretas. Ciertas características que se describen en esta memoria descriptiva en el contexto de realizaciones separadas pueden ser implementadas asimismo en combinación en una única realización. A la inversa, diversas características que se describen en el contexto de una única realización pueden ser implementadas asimismo en múltiples realizaciones, por separado o en cualquier combinación secundaria adecuada. Además, aunque las características se han podido describir anteriormente como que actúan en ciertas combinaciones e incluso se reivindican inicialmente como tales, una o más características de una combinación reivindicada pueden ser, en algunos casos, escindidas de la combinación, y la combinación reivindicada puede dirigirse a un combinación secundaria o variación de una combinación secundaria.
De manera similar, aunque las operaciones se representan en los dibujos en un orden particular, esto no se debe entender como que requiere que dichas operaciones se realicen en el orden particular mostrado o en orden secuencial, o que se realicen todas las operaciones ilustradas, para lograr resultados deseables. En determinadas circunstancias, la multitarea y el procesamiento paralelo pueden ser ventajosos. Además, la separación de diversos componentes del sistema en las realizaciones descritas anteriormente no se debe entender como que requiere dicha separación en todas las realizaciones, y se debe entender que los componentes y sistemas del programa descritos, en general, pueden estar integrados juntos en un solo producto de software o empaquetados en múltiples productos de software.
Por lo tanto, se han descrito realizaciones particulares del objeto. Otras formas están dentro del alcance de las siguientes reivindicaciones. En algunos casos, las acciones enumeradas en las reivindicaciones pueden ser realizadas en un orden diferente y, aun así, lograr los resultados deseables. Además, los procesos representados en las figuras adjuntas no requieren necesariamente el orden particular mostrado, o el orden secuencial, para lograr resultados deseables. En ciertas implementaciones, la multitarea y el procesamiento en paralelo pueden ser ventajosos.
Lo que se reivindica es:

Claims (14)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    REIVINDICACIONES
    1. Un método implementado por ordenador que comprende:
    renderizar (102) en un dispositivo de visualización una primera señal variable en el tiempo que comprende una pluralidad de diferentes señales respectivas que están separadas en fase entre sí; durante el renderizado, capturar (104) una pluralidad de imágenes de un objetivo que se ilumina mediante la primera señal renderizada;
    aplicar (110) un filtro de paso de banda temporal a las imágenes para generar una pluralidad de imágenes filtradas;
    extraer una segunda señal de las imágenes filtradas;
    generar una primera medida en base, al menos, a una correlación temporal de la primera señal y la segunda señal; para cada ubicación de píxel en una pluralidad de ubicaciones de píxel, extraer una señal respectiva para la ubicación del píxel en base a cambios en un valor respectivo de la ubicación del píxel a lo largo del tiempo en una pluralidad de imágenes filtradas;
    calcular una puntuación de correlación de ubicación de píxel respectiva para cada uno de las ubicaciones de píxel en base a una correlación de la señal extraída respectiva de la ubicación del píxel a la primera señal; generar una segunda medida en base, al menos, a una pluralidad de las puntuaciones de correlación de ubicación de píxel; y
    aceptar o rechazar el objetivo en base, al menos, a las medidas primera y segunda.
  2. 2. El método de la reivindicación 1, en el que cada señal respectiva de la primera señal es de un color diferente, en el que, opcionalmente, cada uno de los colores es renderizado utilizando una misma frecuencia.
  3. 3. El método de la reivindicación 1 en el que cada señal respectiva de la primera señal es una señal monocromática diferente.
  4. 4. El método de la reivindicación 1 en el que la primera señal es sinusoidal.
  5. 5. El método de la reivindicación 1, en el que cada señal respectiva de la primera señal es una sinusoidal distinta, y en el que las sinusoides se superponen en la primera señal.
  6. 6. El método de la reivindicación 1, en el que las señales respectivas de la primera señal se generan aleatoriamente.
  7. 7. El método de la reivindicación 1, en el que un valor respectivo concreto de una ubicación de píxel es un color.
  8. 8. El método de la reivindicación 1, en el que cada imagen comprende una pluralidad de imágenes respectivas que se transforman cada una, respectivamente, en una resolución respectiva diferente, o comprenden una banda de frecuencia espacial respectiva diferente que corresponde a un fenómeno de iluminación seleccionado.
  9. 9. El método de la reivindicación 1, en el que la primera medida se basa además en si una fase de la primera señal coincide con una fase de la segunda señal.
  10. 10. El método de la reivindicación 1, en el que extraer una segunda señal de las imágenes filtradas comprende extraer la segunda señal de un valor de color dominante respectivo de cada una de las imágenes filtradas.
  11. 11. El método de la reivindicación 1, que comprende además estabilizar el objetivo en la pluralidad de imágenes antes de aplicar el filtro de paso de banda, y/o en el que el filtro de paso de banda es aplicado en el dominio de la frecuencia o en el dominio del tiempo.
  12. 12. El método de la reivindicación 1 en el que generar la segunda medida en base, al menos, a una pluralidad de puntuaciones de correlación de ubicación de píxel comprende combinar las puntuaciones de correlación de ubicación de píxel para generar la segunda medida,
    en el que, opcionalmente el objetivo es un rostro humano, y en el que las puntuaciones de correlación de ubicación el píxel combinadas son para ubicaciones de píxel de una región concreta de la cara, y
    en el que, además, opcionalmente, se determina la región concreta de la cara utilizando al menos uno de: (i) análisis dinámico de imágenes para evitar, al menos en parte, que una o más porciones de la cara sean ocluidas o sobreexpuestas en la pluralidad de imágenes, e (ii) una máscara o un mapa de pesos que representa el conocimiento acerca de las características de la cara que es probable que reflejen la primera señal renderizada.
  13. 13. El método de la reivindicación 1, en el que cada ubicación de píxel representa una respectiva pluralidad de elementos de datos de imagen y en el que, opcionalmente, una pluralidad de elementos de datos de imagen están en diferentes resoluciones, y en el que, opcionalmente, cada ubicación de píxel es una combinación ponderada de los elementos de datos de imagen respectivos de la ubicación de píxel.
  14. 14. El método de la reivindicación 1, en el que la pluralidad capturada de imágenes representa una pirámide gaussiana o una pirámide laplaciana, en el que, opcionalmente una imagen filtrada concreta de las imágenes filtradas representa una combinación ponderada de una pluralidad de niveles de pirámide.
    5 15. Un sistema que comprende un procesador y una memoria en comunicación electrónica con el procesador,
    estando programado el procesador para realizar operaciones de acuerdo con el método de cualquiera de las reivindicaciones 1 a 14.
ES15781779.2T 2014-09-09 2015-09-09 Sistemas y métodos para análisis de vida Active ES2688399T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201414480802 2014-09-09
US14/480,802 US9396537B2 (en) 2014-09-09 2014-09-09 Systems and methods for liveness analysis
PCT/US2015/049195 WO2016040487A2 (en) 2014-09-09 2015-09-09 Systems and methods for liveness analysis

Publications (1)

Publication Number Publication Date
ES2688399T3 true ES2688399T3 (es) 2018-11-02

Family

ID=54330842

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15781779.2T Active ES2688399T3 (es) 2014-09-09 2015-09-09 Sistemas y métodos para análisis de vida

Country Status (13)

Country Link
US (2) US9396537B2 (es)
EP (1) EP3192008B1 (es)
JP (1) JP6257840B2 (es)
KR (1) KR101902136B1 (es)
CN (1) CN107077602B (es)
AU (2) AU2015315156A1 (es)
BR (1) BR112017004427B1 (es)
CA (1) CA2960397C (es)
ES (1) ES2688399T3 (es)
MX (1) MX359546B (es)
RU (1) RU2671540C2 (es)
SG (1) SG11201701855RA (es)
WO (1) WO2016040487A2 (es)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2945030C (en) 2014-04-07 2020-03-31 EyeVerify Inc. Bio leash for user authentication
US10698995B2 (en) 2014-08-28 2020-06-30 Facetec, Inc. Method to verify identity using a previously collected biometric image/data
US11256792B2 (en) * 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
US10614204B2 (en) 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
US9934443B2 (en) * 2015-03-31 2018-04-03 Daon Holdings Limited Methods and systems for detecting head motion during an authentication transaction
WO2016204968A1 (en) 2015-06-16 2016-12-22 EyeVerify Inc. Systems and methods for spoof detection and liveness analysis
CN107135348A (zh) 2016-02-26 2017-09-05 阿里巴巴集团控股有限公司 拍摄对象的识别方法、装置、移动终端和照相机
US10111103B2 (en) 2016-03-02 2018-10-23 EyeVerify Inc. Spoof detection using proximity sensors
FR3053499B1 (fr) * 2016-06-29 2018-06-29 Safran Identity & Security Procede et dispositif de detection de fraude par examen a deux focales distinctes lors d'une reconnaissance automatique d'un visage
WO2018079031A1 (ja) 2016-10-31 2018-05-03 日本電気株式会社 画像処理装置、画像処理方法、顔認証システム、プログラム及び記録媒体
US10204262B2 (en) 2017-01-11 2019-02-12 Microsoft Technology Licensing, Llc Infrared imaging recognition enhanced by 3D verification
US10372974B2 (en) 2017-01-11 2019-08-06 Microsoft Technology Licensing, Llc 3D imaging recognition by stereo matching of RGB and infrared images
US10679083B2 (en) 2017-03-27 2020-06-09 Samsung Electronics Co., Ltd. Liveness test method and apparatus
CN108694357A (zh) * 2017-04-10 2018-10-23 北京旷视科技有限公司 用于活体检测的方法、装置及计算机存储介质
US10657401B2 (en) * 2017-06-06 2020-05-19 Microsoft Technology Licensing, Llc Biometric object spoof detection based on image intensity variations
CN113095124B (zh) * 2017-06-07 2024-02-06 创新先进技术有限公司 一种人脸活体检测方法、装置以及电子设备
GB201713697D0 (en) 2017-06-28 2017-10-11 Cirrus Logic Int Semiconductor Ltd Magnetic detection of replay attack
GB2563953A (en) 2017-06-28 2019-01-02 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201801528D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Method, apparatus and systems for biometric processes
CN107506687B (zh) 2017-07-17 2020-01-21 Oppo广东移动通信有限公司 活体检测方法及相关产品
US20190108551A1 (en) * 2017-10-09 2019-04-11 Hampen Technology Corporation Limited Method and apparatus for customer identification and tracking system
GB201801664D0 (en) 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of liveness
GB201801874D0 (en) 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Improving robustness of speech processing system against ultrasound and dolphin attacks
GB201801661D0 (en) * 2017-10-13 2018-03-21 Cirrus Logic International Uk Ltd Detection of liveness
GB201804843D0 (en) 2017-11-14 2018-05-09 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB2567503A (en) 2017-10-13 2019-04-17 Cirrus Logic Int Semiconductor Ltd Analysing speech signals
CN107832712A (zh) * 2017-11-13 2018-03-23 深圳前海微众银行股份有限公司 活体检测方法、装置和计算机可读存储介质
GB201801659D0 (en) 2017-11-14 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of loudspeaker playback
US11735189B2 (en) 2018-01-23 2023-08-22 Cirrus Logic, Inc. Speaker identification
US11475899B2 (en) 2018-01-23 2022-10-18 Cirrus Logic, Inc. Speaker identification
CN109376592B (zh) * 2018-09-10 2021-04-27 创新先进技术有限公司 活体检测方法、装置和计算机可读存储介质
EP3852051A4 (en) * 2018-09-12 2021-09-22 Fujitsu Limited BIOMETRIC AUTHENTICATION DEVICE, FAKE DETECTION PROGRAM AND COUNTERFEIT DETECTION METHOD
US11023756B2 (en) 2018-10-26 2021-06-01 Advanced New Technologies Co., Ltd. Spoof detection using iris images
US11272157B2 (en) 2019-02-15 2022-03-08 Analog Devices International Unlimited Company Depth non-linearity compensation in time-of-flight imaging
WO2021046773A1 (zh) * 2019-09-11 2021-03-18 深圳市汇顶科技股份有限公司 人脸防伪检测方法、装置、芯片、电子设备和计算机可读介质
TWI761739B (zh) * 2019-12-10 2022-04-21 緯創資通股份有限公司 活體臉部辨識系統與方法
US11687778B2 (en) * 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
CN112269975A (zh) * 2020-03-31 2021-01-26 周亚琴 物联网人工智能人脸验证方法、系统及物联网云服务器
US11694480B2 (en) * 2020-07-27 2023-07-04 Samsung Electronics Co., Ltd. Method and apparatus with liveness detection
DE102020123927A1 (de) 2020-09-15 2022-03-17 Audi Aktiengesellschaft Verfahren zur Lebenderkennung bezüglich eines Fahrers eines Kraftfahrzeugs und Kraftfahrzeug
CN112348881B (zh) * 2020-11-12 2023-06-30 网易(杭州)网络有限公司 图像渲染方法、装置和电子设备
KR20220102450A (ko) * 2021-01-13 2022-07-20 삼성전자주식회사 이미지 필터 효과의 생성 방법 및 그 전자 장치
US11562600B2 (en) 2021-03-29 2023-01-24 Nec Corporation Of America Liveness detection based on reflections analysis
US20230073410A1 (en) * 2021-09-07 2023-03-09 Facetec, Inc. Facial recognition and/or authentication system with monitored and/or controlled camera cycling
US12020512B2 (en) * 2021-09-17 2024-06-25 Jumio Corporation Spoof detection using eye boundary analysis

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5329379A (en) 1992-10-22 1994-07-12 International Business Machines Corporation System and method of measuring fidelity of decompressed video signals and images
US6075905A (en) * 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
KR100320188B1 (ko) 1999-03-23 2002-01-10 구자홍 홍채인식 시스템의 위조 판별방법
KR100407319B1 (ko) 2001-04-11 2003-11-28 학교법인 인하학원 확장 정합 함수를 이용한 블록 매칭 기반 얼굴 특징 추적방법
US7440590B1 (en) * 2002-05-21 2008-10-21 University Of Kentucky Research Foundation System and technique for retrieving depth information about a surface by projecting a composite image of modulated light patterns
RU2309672C2 (ru) * 2005-10-05 2007-11-10 Общество с ограниченной ответственностью "Научно-производственное предприятие "Лазерные системы" Способ распознавания принадлежности отпечатка пальца живому или неживому человеку
US8260008B2 (en) * 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
CN101493884B (zh) * 2008-01-24 2012-05-23 中国科学院自动化研究所 多光谱图像采集装置和方法
KR100949801B1 (ko) 2008-04-17 2010-03-30 한국전자통신연구원 퍼지볼트 시스템에서의 다항식 복원장치 및 그 방법
US7508960B1 (en) * 2008-05-06 2009-03-24 International Business Machines Corporation Projection of light patterns for liveness verification of biometrics
JP5814799B2 (ja) * 2012-01-06 2015-11-17 キヤノン株式会社 画像処理装置及び画像処理方法
US8542879B1 (en) * 2012-06-26 2013-09-24 Google Inc. Facial recognition
US10452894B2 (en) * 2012-06-26 2019-10-22 Qualcomm Incorporated Systems and method for facial verification
US8457367B1 (en) 2012-06-26 2013-06-04 Google Inc. Facial recognition
JP5955133B2 (ja) * 2012-06-29 2016-07-20 セコム株式会社 顔画像認証装置
CN102831400B (zh) * 2012-07-31 2015-01-28 西北工业大学 一种多光谱人脸识别方法及其系统
KR101417433B1 (ko) * 2012-11-27 2014-07-08 현대자동차주식회사 눈동자의 움직임을 이용한 사용자 인증 장치 및 그 방법

Also Published As

Publication number Publication date
US9396537B2 (en) 2016-07-19
RU2017111779A (ru) 2018-10-10
WO2016040487A2 (en) 2016-03-17
EP3192008A2 (en) 2017-07-19
RU2017111779A3 (es) 2018-10-10
WO2016040487A3 (en) 2016-04-28
CA2960397A1 (en) 2016-03-17
JP2017534102A (ja) 2017-11-16
US10237459B2 (en) 2019-03-19
US20170053406A1 (en) 2017-02-23
CN107077602A (zh) 2017-08-18
BR112017004427A2 (pt) 2017-12-05
AU2015315156A1 (en) 2017-03-23
EP3192008B1 (en) 2018-06-27
KR101902136B1 (ko) 2018-09-27
JP6257840B2 (ja) 2018-01-10
CN107077602B (zh) 2018-11-02
AU2018247216B2 (en) 2019-11-14
US20160071275A1 (en) 2016-03-10
BR112017004427B1 (pt) 2021-01-19
MX359546B (es) 2018-10-02
CA2960397C (en) 2018-05-01
RU2671540C2 (ru) 2018-11-01
AU2018247216A1 (en) 2018-11-01
KR20170052636A (ko) 2017-05-12
MX2017002987A (es) 2017-07-28
SG11201701855RA (en) 2017-04-27

Similar Documents

Publication Publication Date Title
ES2688399T3 (es) Sistemas y métodos para análisis de vida
US10204262B2 (en) Infrared imaging recognition enhanced by 3D verification
CN109716268B (zh) 眼部和头部跟踪
US10380421B2 (en) Iris recognition via plenoptic imaging
US10853625B2 (en) Facial signature methods, systems and software
CN105659200B (zh) 用于显示图形用户界面的方法、设备和系统
US10824859B2 (en) Authentication apparatus and authentication method
US10310219B2 (en) Imaging apparatus, imaging system that includes imaging apparatus, electron mirror system that includes imaging apparatus, and ranging apparatus that includes imaging apparatus
KR101286454B1 (ko) 눈 영상의 특성을 이용한 모조얼굴 식별장치 및 방법
EP3756161B1 (en) Method and system for calibrating a plenoptic camera system
CN109670390A (zh) 活体面部识别方法与系统
CN108140114A (zh) 虹膜识别
Farrukh et al. FaceRevelio: a face liveness detection system for smartphones with a single front camera
JP2014157428A (ja) 画像表示装置、画像表示方法、及び、プログラム
JP2008021072A (ja) 撮影システム、撮影装置およびそれを用いた照合装置ならびに撮影方法
JP6783928B2 (ja) 情報処理装置および法線情報取得方法
US11551475B2 (en) System architecture and method of authenticating a 3-D object
WO2023229498A1 (en) Biometric identification system and method for biometric identification
CN108701700A (zh) 被配置用于双模式操作的图像传感器
JP2017207930A (ja) 虹彩認証装置及び虹彩認証プログラム