ES2768252T3 - Aparato y procedimiento de reconocimiento de imagen - Google Patents

Aparato y procedimiento de reconocimiento de imagen Download PDF

Info

Publication number
ES2768252T3
ES2768252T3 ES13164722T ES13164722T ES2768252T3 ES 2768252 T3 ES2768252 T3 ES 2768252T3 ES 13164722 T ES13164722 T ES 13164722T ES 13164722 T ES13164722 T ES 13164722T ES 2768252 T3 ES2768252 T3 ES 2768252T3
Authority
ES
Spain
Prior art keywords
image
specific object
region
person
comparison
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13164722T
Other languages
English (en)
Inventor
Daniel Choi
Suk-Soon Kim
Bo-Ram Namgoong
Mi-Sun Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of ES2768252T3 publication Critical patent/ES2768252T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming

Abstract

Un procedimiento de reconocimiento de una imagen en un dispositivo electrónico, comprendiendo el procedimiento: obtener por una unidad de procesamiento una primera imagen y una segunda imagen de un objeto específico que se enfoca y dispara en diferentes magnificaciones por un subsistema de cámara; caracterizado porque el procedimiento comprende además: extraer una región de objeto y una región de fondo de cada imagen obtenida; obtener una primera característica de comparación entre la región de objeto y la región de fondo de la primera imagen, y una segunda característica de comparación entre la región de objeto y la región de fondo de la segunda imagen; comparar por la unidad de procesamiento en conjunción con un módulo de cámara la primera característica de la primera imagen con la segunda característica de la segunda imagen; y determinar por la unidad de procesamiento si el objeto específico está físicamente dentro de la presencia del subsistema de cámara y no es una copia o fotografía del objeto específico dependiendo del resultado de comparación.

Description

DESCRIPCIÓN
Aparato y procedimiento de reconocimiento de imagen
Antecedentes de la invención
1. Campo de la invención
La presente invención se refiere a un aparato y un procedimiento de reconocimiento de una imagen.
2. Descripción de la técnica relacionada
Hoy en día, se ha desarrollado un dispositivo electrónico, particularmente, un dispositivo electrónico portátil para tener diversas funciones para cumplir con los deseos de usuarios. Por ejemplo, un terminal de comunicación móvil proporciona funciones mucho más allá de comunicación por voz y, por ejemplo, permite que un usuario escuche diversa música usando una fuente de sonido MP3 en funciones de comunicación básicas tal como comunicar por texto con un usuario de contraparte, y también permite que el usuario disfrute de navegación web usando una Internet inalámbrica, descargue diversos programas usando la internet inalámbrica y use los mismos. También, el terminal de comunicación móvil tiene al menos un dispositivo de recogida de imágenes de un megapíxel (conjunto de lente de cámara) para permitir que el usuario capture la imagen de un objeto específico deseado. Más recientemente, terminales portátiles permiten tanto grabar como ver una instantánea en movimiento así como una imagen fija, más particularmente, se distribuye generalmente una función fotográfica de imágenes tridimensionales.
En la actualidad, dado que se está creando un entorno ubicuo para los dispositivos electrónicos, tales como terminales de comunicación móvil, se desarrolla ampliamente una tecnología que puede reconocer una fotografía (imagen) de un objeto específico. Más particularmente, entre estos reconocimientos de objetos, reconocimiento facial se está aplicado ahora como un campo de una pluralidad de reconocimientos de cuerpo vivo. El reconocimiento facial por el dispositivo electrónico indica una operación de reconocimiento de rasgos faciales analizando una estructura simétrica, una apariencia de una cara, pelo, color de ojos, movimiento de un músculo facial, etc. Aplicaciones de reconocimiento facial pueden variar en gran medida.
Por ejemplo, el reconocimiento facial puede usarse para fines de identificación para sustituir un pasaporte, una tarjeta de crédito, etc., y puede usarse para fines de seguridad, tal como gestión de tiempo y asistencia, pase de entrada, sustitución de contraseña, etc. También, el reconocimiento facial puede utilizarse para fines de seguridad pública, tal como una búsqueda de un presunto criminal, supervisión de distrito asolado por crímenes, etc. Adicionalmente, el reconocimiento facial se aplica incluso a una aplicación de teléfono inteligente para entretenimiento que puede encontrar una figura similar que se parece al propio usuario. Por lo tanto, la función de reconocimiento facial es conveniente en que un usuario no necesita recordar o poseer algo de forma separada, tal como una tarjeta de crédito o tarjeta de identificación, o clave de tarjeta, o algún tipo de código de acceso. El reconocimiento facial también puede comprender únicamente reconocimiento de una porción de la cara de una persona.
Sin embargo, un dispositivo electrónico en general habitualmente captura la imagen de una cara en una imagen bidimensional y realiza reconocimiento facial usando la imagen capturada. La imagen capturada no es una cara real, sino una cara identificada en la instantánea/instantánea en movimiento, pero el reconocimiento facial se aplica a la imagen capturada. Este aspecto de reconocimiento facial provoca una vulnerabilidad para fines de seguridad.
Por ejemplo, en el caso en el que un usuario encripta y usa información de reconocimiento con respecto a una cara específica como un objeto, el usuario puede descifrar un código capturando únicamente una instantánea de una persona relevante, no una cara que se está fotografiando realmente. En otras palabras, sistemas de reconocimiento facial convencionales son vulnerables a alguien que coloca, por ejemplo, una imagen en alta definición de otra persona en frente de una cámara para engañar al sistema para que proporcione acceso a registros bancarios, para hacer compras a crédito o cualquier sistema que usa reconocimiento facial en lugar de contraseñas, tarjetas de identificación, etc.
El documento US 2011/007949 A1 desvela un procedimiento de reconocimiento biométrico, que comprende las etapas de adquisición de múltiples imágenes de la cara e iris de un individuo, determinando si las múltiples imágenes forman una secuencia esperada de imágenes; y si se determina que las múltiples imágenes forman una secuencia esperada, asociar juntas las imágenes de cara e iris.
El documento US 2011/0188712 A1 desvela un aparato de determinación de una imagen falsa e incluye un bloque de adquisición de imágenes para la adquisición de una imagen capturada por e introducida desde una cámara; y un bloque de aprendizaje de fondo para el aprendizaje de un fondo de la imagen para crear un fondo de aprendizaje.
El documento EP 2426 909 A1 se refiere a un aparato de procesamiento de imagen capaz de asociar una imagen con información posicional que indica dónde se ha fotografiado la imagen.
Sumario de la invención
Un aspecto ilustrativo de la presente invención es abordar al menos algunos de los problemas anteriormente mencionados y/o desventajas y para proporcionar al menos las ventajas descritas a continuación. Por consiguiente, un aspecto ilustrativo de la presente invención proporciona un procedimiento y un aparato de reconocimiento de una imagen, para mejorar la seguridad de reconocimiento de un objeto específico, como se define en las reivindicaciones adjuntas.
Cualquier "ejemplo" o "realización" de la descripción que no pertenece al ámbito de las reivindicaciones no forma parte de la invención y únicamente se proporciona para fines de ilustración.
Breve descripción de los dibujos
Los aspectos ilustrativos anteriores y otros, características y ventajas de ciertas realizaciones ilustrativas de la presente invención serán más evidentes para el experto a partir de la siguiente descripción tomada en conjunción con los dibujos adjuntos en los que:
La Figura 1 es un diagrama de bloques que ilustra un dispositivo electrónico de acuerdo con una realización ilustrativa de la presente invención;
La Figura 2 es un diagrama de flujo que ilustra un procedimiento de operación de un dispositivo electrónico de acuerdo con una realización ilustrativa de la presente invención;
La Figura 3 es un diagrama de flujo que ilustra la etapa 203 de la Figura 2 que identifica si una persona cuya imagen se ha capturado es o no una persona real en frente de (es decir, en la presencia de) la cámara o una fotografía de una persona en una instantánea/instantánea en movimiento de acuerdo con una realización ilustrativa de la presente invención;
La Figura 4 es un diagrama de flujo que ilustra la etapa 203 de la Figura 2 que identifica si una persona cuya imagen se ha capturado es una persona real en frente de la cámara o una fotografía de una persona en una instantánea/instantánea en movimiento de acuerdo con una realización ilustrativa de la presente invención; La Figura 5 es un diagrama de flujo que ilustra la etapa 203 de la Figura 2 que identifica si una persona cuya imagen se ha capturado es una persona real en frente de la cámara o una fotografía de una persona en una instantánea/instantánea en movimiento de acuerdo con una realización ilustrativa de la presente invención; Las Figuras 6A a 6D son vistas que ilustran una operación ilustrativa de un procedimiento de operación de un dispositivo electrónico de acuerdo con una realización ilustrativa de la presente invención; y
Las Figuras 7A a 7D son vistas que ilustran una operación ilustrativa de un procedimiento de operación de un dispositivo electrónico de acuerdo con una realización ilustrativa de la presente invención.
A lo largo de los dibujos, números de referencia similares se entenderán que se refieren a partes, componentes y estructuras similares.
Descripción detallada
La siguiente descripción con referencia a los dibujos adjuntos se proporciona para ayudar a un experto en la materia con un entendimiento comprensivo de realizaciones ilustrativas de la invención según se define mediante las reivindicaciones. La descripción incluye diversos detalles específicos para ayudar en ese entendimiento, pero estos deben considerarse como meramente ilustrativos. Por consiguiente, los expertos en la materia reconocerán que diversos cambios y modificaciones de las realizaciones ilustrativa descritas en el presente documento pueden hacerse sin alejarse del ámbito de la invención según se define mediante las reivindicaciones adjuntas. También, pueden omitirse descripciones de funciones y construcciones bien conocidas por claridad y concisión cuando su inclusión podría obstaculizar la apreciación de la invención por un experto en la materia con tales funciones y construcciones bien conocidas.
Las expresiones y palabras usadas en la siguiente descripción y reivindicaciones no se limitan a sus significados bibliográficos, sino que se usan meramente por el inventor para habilitar una comprensión clara y consistente de la invención. Por consiguiente, debería ser evidente a los expertos en la materia que la siguiente descripción de realizaciones ilustrativas de la presente invención se proporcionan para fines de ilustración únicamente y no para el fin de limitación de la invención según se define mediante las reivindicaciones adjuntas.
En la descripción de la presente invención, se ilustra un terminal de comunicación móvil y se describen un procedimiento y un aparato de reconocimiento de una cara usando el terminal de comunicación móvil. Sin embargo, la presente invención no está limitada a lo mismo. Por ejemplo, la presente invención es aplicable a diversos dispositivos electrónicos que incluyen al menos un conjunto de lente de cámara (dispositivo de recogida de imágenes) para fotografiar un objeto. Adicionalmente, aunque la presente invención describe reconocimiento facial de una persona en una imagen disparada, un experto en la materia debería apreciar que la presente invención es aplicable a reconocimiento de diversos objetos tal como una cosa, un animal, etc., así como una persona.
Realizaciones ilustrativas de la presente invención proporcionan un procedimiento y un aparato de reconocimiento de una imagen (una imagen en vivo en lugar de una instantánea de una instantánea), para mejorar la seguridad en reconocimiento de una persona. Una realización ilustrativa de la presente invención identifica si una persona que está siendo disparada por una cámara es una persona real o una persona en una instantánea/instantánea en movimiento, y aplica reconocimiento de persona a una imagen obtenida disparando a una persona real. La presente invención ventajosamente supera al menos una vulnerabilidad de sistemas de reconocimiento facial convencionales, a saber que uno podría disponer de una fotografía de alta calidad de otra persona en frente del módulo de cámara y engañar al sistema de reconocimiento facial para permitir acceso a registros financieros, hacer compras con tarjetas de crédito o débito vinculadas, etc.
La Figura 1 es un diagrama de bloques que ilustra un dispositivo electrónico de acuerdo con una realización ilustrativa de la presente invención. El dispositivo 100 electrónico puede ser un dispositivo electrónico portátil, y puede comprender un dispositivo tal como un terminal portátil, un teléfono móvil, una tableta móvil, un reproductor multimedia, un ordenador de tableta, un ordenador de bolsillo y un Asistente Digital Personal (PDA). También, el dispositivo electrónico puede ser un dispositivo electrónico arbitrario que incluye un dispositivo que acopla dos o más funciones entre estos dispositivos. También es posible que el dispositivo pudiera ser, por ejemplo, dispositivo usado como parte de un sistema de pago, tal como para tarjetas de crédito, débito o cheques, o incluso una máquina expendedora, en la que una persona podría intentar usar una imagen de otra persona o bien para obtener acceso a información personal o hacer uso fraudulento de la imagen de otra persona para usar su cuenta de crédito, etc.
El dispositivo 100 electrónico incluye una memoria 110, una unidad 120 de procesador, un primer subsistema 130 de comunicación inalámbrica, un segundo subsistema 131 de comunicación inalámbrica, un puerto 160 externo, un subsistema 150 de audio, un altavoz 151, un micrófono 152, un subsistema 170 de Entrada/Salida (sistema de E/S), una pantalla 180 táctil y una unidad 190 de control/entrada diferente. Pueden configurarse una pluralidad de memorias 110 y puertos 160 externos.
La unidad 120 de procesador incluye hardware tal como un procesador 122 o microprocesador, una interfaz 121 de memoria, uno o más procesadores 122 y una interfaz 123 periférica. Toda la unidad 120 de procesador también puede llamarse un controlador o unidad de control, o procesador. La interfaz 121 de memoria, el uno o más procesadores 122 y/o la interfaz 123 periférica pueden ser elementos separados o pueden integrarse en uno o más circuitos integrados.
El procesador 122 ejecuta código ejecutable por diversas máquinas para realizar diversas funciones para el dispositivo 100 electrónico. Además, el procesador 122 realiza procedimientos y controles para comunicación por voz, comunicación de vídeo y comunicación de datos. Además de estas funciones generales, el procesador 122 ejecuta un módulo de software específico (conjunto de instrucciones) almacenado en la memoria 110 que se carga en el procesador para configurar que el procesador realice diversas funciones específicas que corresponden al módulo relevante. En otras palabras, el procesador 122 realiza un procedimiento de una realización ilustrativa de la presente invención en cooperación con módulos de software almacenados en la memoria 110. La memoria es una memoria no transitoria.
El procesador 122 puede incluir uno o más procesadores de datos, procesadores de imágenes y/o un CÓDEC. El dispositivo 100 electrónico también puede incluir los procesadores de datos, los procesadores de imágenes o el CÓDEC de forma separada. La interfaz 123 periférica conecta el subsistema 170 de E/S del dispositivo 100 electrónico y diversos dispositivos periféricos al procesador 122. Adicionalmente, la interfaz 123 periférica conecta el subsistema 170 de E/S del dispositivo 100 electrónico y diversos dispositivos periféricos a la memoria 110 a través de la interfaz 121 de memoria.
Particularmente, de acuerdo con la presente invención, el procesador 122 controla un módulo 116 de cámara para el reconocimiento de un objeto. El módulo 116 de cámara se describe a continuación en más detalle. Diversos elementos del dispositivo 100 electrónico pueden acoplarse a través de uno o más buses de comunicación (número de referencia no mostrado) o líneas de flujo (número de referencia no mostrado).
El puerto 160 externo se usa para conectar directamente el dispositivo 100 electrónico a otros dispositivos electrónicos o conectar indirectamente el dispositivo 100 electrónico a otros dispositivos electrónicos a través de una red (por ejemplo, la Internet, una Intranet, una LAN inalámbrica, etc.). Por ejemplo, el puerto 160 externo puede ser un Bus Serial Universal (USB) o un puerto FIREWIRE, etc. pero no se limita a los mismos.
Un sensor 191 de movimiento (desplazamiento) y un sensor 192 de luz pueden acoplarse a la interfaz 123 periférica para habilitar diversas funciones. Por ejemplo, el sensor 191 de movimiento y el sensor 192 de luz pueden acoplarse a la interfaz 123 periférica para detectar movimiento del dispositivo 100 electrónico o detectar luz externa.
Un subsistema 193 de cámara puede realizar una función de cámara tal como tomar una instantánea, una grabación de clip de vídeo, etc. El sensor 192 de luz puede ser un Dispositivo Acoplado por Carga (CCD) o un dispositivo de Semiconductor Complementario de Óxido Metálico (CMOS) para el subsistema 193 de cámara.
Más particularmente, de acuerdo con una realización ilustrativa de la presente invención, el subsistema 193 de cámara puede cambiar la configuración de hardware, por ejemplo, controlando el movimiento de lente, número F de una apertura, etc. dependiendo del módulo 116 de cámara ejecutado por el procesador 122.
El primer y secundo subsistemas 130 y 131 de comunicación inalámbrica habilitan comunicación. El primer y secundo subsistemas 130 y 131 de comunicación inalámbrica pueden incluir un receptor de radiofrecuencia (RF) y un transceptor de RF y/o un receptor de luz (por ejemplo, infrarroja) y un transceptor de luz. Mientras una antena se muestra para cada uno, el experto entiende que la invención reivindicada puede incluir múltiples antenas, tal como una red de antenas o un sistema MIMO. El primer y secundo subsistemas 130 y 131 de comunicación inalámbrica pueden clasificarse dependiendo de una red de comunicación. Por ejemplo, el primer y secundo subsistemas 130 y 131 de comunicación inalámbrica pueden diseñarse para operar a través de una de una red de Sistema Global para Comunicación Móvil (GSM), una red de Entorno de GSM de Datos Mejorado (EDGE), una red de Acceso Múltiple por División de Código (CDMA), una red de CDMA Ancho (W-CDMA), una Red de Evolución a Largo Plazo (LTE), una red de Acceso Múltiple por División Ortogonal de Frecuencia (OFDMA), una red de Fidelidad Inalámbrica (Wi-Fi), una red de WiMax y/o una red Bluetooth, solo por nombrar algunos posibles ejemplos no limitantes.
El subsistema 150 de audio puede acoplarse a un altavoz 151 y un micrófono 152 para tomar cargo de reconocimiento de voz, duplicación de voz, grabación digital y entrada/salida de un audio tal una función de comunicación. En otras palabras, el subsistema 150 de audio se comunica con un usuario a través del altavoz 151 y el micrófono 152. El subsistema 150 de audio recibe una señal de datos a través de la interfaz 123 periférica de la unidad 120 de procesador, convierte la señal de datos recibida a una señal eléctrica, y proporciona la señal eléctrica convertida al altavoz 151. El altavoz 151 convierte la señal eléctrica a una señal en una banda de frecuencia audible y emite la misma. El micrófono 152 convierte una onda de sonido transferida desde una persona u otras fuentes de sonido a una señal eléctrica. El subsistema 150 de audio recibe la señal eléctrica desde el micrófono 152, convierte la señal eléctrica recibida a una señal de datos de audio, y transmite la señal de datos de audio convertida a la interfaz 123 periférica. El subsistema 150 de audio puede incluir, por ejemplo, un auricular conectable y extraíble, auriculares o un casco.
El subsistema 170 de E/S puede incluir un controlador 171 de pantalla táctil y/o un controlador 172 de entrada diferente. La pantalla 180 táctil permite al menos una transformación de estirar, encoger, deformar, plegar, torcer, doblar y desplegar. El controlador 171 de pantalla táctil se acopla a la pantalla 180 táctil y controla una salida de imagen dependiendo de la transformación de la pantalla 180 táctil. La pantalla 180 táctil y el controlador 171 de pantalla táctil pueden aplicar adicionalmente una tecnología de detección de múltiples toques arbitraria que incluye otras disposiciones de sensores de proximidad u otros elementos así como tecnologías capacitivas, resistivas, infrarrojas y de onda acústica de superficie. El controlador 172 de entrada diferente es un controlador, por ejemplo, para una entrada distinta de la pantalla 180 táctil, y el controlador 172 de entrada diferente puede acoplarse a una unidad 190 de control/entrada diferente. La unidad 190 de control/entrada diferente puede incluir un botón de arriba/abajo para control de volumen. Además, la unidad 190 de control/entrada diferente puede incluir al menos uno de un botón de pulsar, un botón basculante, un interruptor basculante, una rueda, un dial, una palanca y/o un dispositivo de puntero tal como un lápiz óptico, etc. que proporciona una función pertinente.
Con referencia continuada a la Figura 1, la pantalla 180 táctil proporciona una interfaz de entrada/salida entre el dispositivo 100 electrónico y un usuario. Por ejemplo, la pantalla 180 táctil aplica la tecnología de detección de toques, transfiere la entrada de toque del usuario al dispositivo 100 electrónico, y muestra información visual (por ejemplo, texto, gráficos, vídeo, etc.) proporcionada desde el dispositivo 100 electrónico al usuario.
La memoria 110 se conecta a la interfaz 121 de memoria. La memoria 110 incluye una memoria de acceso aleatorio de alta velocidad tal como uno o más dispositivos de almacenamiento de disco magnético y/o una memoria no volátil, uno o más dispositivos de almacenamiento óptico y/o una memoria flash (por ejemplo, NANd , NOR).
La memoria 110 almacena código ejecutable por máquina. Por ejemplo, código ejecutable por máquina incluye un módulo 111 de sistema operativo, un módulo 112 de comunicación, un módulo 113 gráfico, un módulo 114 de interfaz de usuario, un módulo 115 de CÓDEC, un módulo 116 de cámara, uno o más módulos 117 de aplicación, etc. Una terminología de un módulo puede expresarse como un conjunto de instrucciones o un conjunto de instrucciones o un programa, que se cargan en hardware tal como procesadores, microprocesador, o subprocesadores que se configuran para funcionar de acuerdo con el respectivo módulo.
El sistema 111 de operación indica un sistema operativo incorporado tal como WINDOWS, LINUX, Darwin, RTXC, UNIX, OS X o VxWorks, e incluye diversos elementos de software para controlar una operación de sistema general. Este control de la operación de sistema general incluye gestión y control de memoria, control y gestión de hardware de almacenamiento (dispositivo), control y gestión de potencia, etc. Adicionalmente, este software de sistema operativo realiza una función para suavizar la comunicación entre diversos elementos de hardware (dispositivos) y software (módulos).
El módulo 112 de comunicación puede proporcionar comunicación con dispositivos electrónicos de contraparte tal como un ordenador, un servidor y/o un terminal portátil, etc. a través de los subsistemas 130, 131 de comunicación inalámbrica o el puerto 160 externo.
El módulo 113 gráfico incluye diversos elementos de software que comprenden código ejecutable por máquina para proporcionar y visualizar gráficos en la pantalla 180 táctil. Una terminología de gráficos indica texto, una página web, un icono, una imagen digital, un vídeo, animación, etc. Puede existir un procesador o subprocesador de gráficos especializado.
El módulo 114 de interfaz de usuario incluye diversos elementos de software que comprenden código ejecutable por máquina relacionado con una interfaz de usuario. Adicionalmente, el módulo 114 de interfaz de usuario incluye contenido en cuanto a cómo se cambia el estado de la interfaz de usuario y en qué condición se realiza un cambio de un estado de interfaz de usuario, etc.
El módulo 115 de CÓDEC incluye un elemento de software que comprende código ejecutable por máquina relacionado con la codificación y decodificación de un archivo de video.
El módulo 116 de cámara incluye un elemento de software relacionado con cámara que comprende código ejecutable por máquina para habilitar procedimientos y funciones relacionados con cámara. Adicionalmente, de acuerdo con una realización de la presente invención, el módulo 116 de cámara puede identificar si un objeto específico en una imagen disparada es un objeto real o un objeto en una instantánea/instantánea en movimiento. Más preferentemente, el módulo 116 de cámara puede identificar si o una persona en una imagen capturada tomada para aplicación a reconocimiento de persona es una imagen real de la persona tomada en frente de la cámara (es decir, "en la presencia de", "en la vecindad inmediata") o una persona en una instantánea/instantánea en movimiento (una instantánea de una instantánea, o disponiendo una instantánea de una persona en frente de la cámara para engañar al sistema de reconocimiento en la determinación de que alguien permitió que su imagen se usara de forma fraudulenta). Por ejemplo, el módulo 116 de cámara puede obtener una pluralidad de imágenes controladas mediante magnificación mientras enfoca a un objeto específico, e identificar si el objeto es un objeto real o un objeto en una instantánea/instantánea en movimiento a base de las imágenes obtenidas. Más preferentemente, el módulo 116 de cámara puede obtener una pluralidad de imágenes controladas mediante magnificación mientras enfoca a una persona específica en la imagen, e identificar si la imagen de la persona es o no una persona real en frente de la cámara o una imagen de una persona en una instantánea/instantánea en movimiento a base de las imágenes obtenidas. El módulo 116 de cámara puede operar en conjunción con su propio microprocesador o subprocesador acoplado al procesador que se configura para operación, o el procesador 122 puede cargarse con (configurarse) para operación por el código ejecutable por máquina del módulo de cámara.
En lo sucesivo, aunque se describe reconocimiento de una persona específica en una imagen disparada por el módulo 116 de cámara, un experto en la materia debería apreciar que la persona específica puede sustituirse por diversos objetos tal como una cosa, un animal, etc.
El módulo 116 de cámara puede identificar si una imagen de una persona es o no una persona real en frente de la cámara o una persona en una instantánea/instantánea en movimiento de las siguientes tres formas.
Primero, el módulo 116 de cámara extrae "regiones de persona" y "regiones de fondo" de las imágenes disparadas en la pluralidad de magnificaciones, e identifica si existe una diferencia de contraste entre las regiones de persona extraídas y las regiones de fondo extraídas. En el caso en el que la diferencia de contraste no existe entre las regiones de persona y regiones de fondo extraídas, el módulo 116 de cámara determina que la persona disparada es una persona en una instantánea/instantánea en movimiento. Una razón es que una imagen real de una persona en la región de persona y la imagen real del fondo en la región de fondo es que en el caso de una persona viva el primer plano y fondo es tridimensional, que se captura y muestra como una imagen bidimensional en una instantánea. Por lo tanto, artículos en el fondo de una persona viva tendría un contraste diferente que una fotografía de una fotografía (poniendo una fotografía en frente de una cámara, por ejemplo), ya que la fotografía es bidimensional, y la imagen de la fotografía bidimensional, si se sitúa en frente de un módulo de cámara, por ejemplo, no tendría el contraste diferente entre primer plano y fondo. En contraste, en el caso en el que la diferencia de contraste exista entre las regiones de persona y regiones de fondo extraídas, el módulo 116 de cámara determina que la persona disparada es una persona real.
Segundo, el módulo 116 de cámara identifica si se detecta o no una línea de borde única (contorno) de únicamente una instantánea/instantánea en movimiento de al menos una de las imágenes disparadas en la pluralidad de magnificaciones. Por lo tanto, en el caso en el que la línea de borde (contorno) de una instantánea/instantánea en movimiento se detecta de al menos una de las imágenes, el módulo 116 de cámara determina que la persona disparada es una persona en una instantánea/instantánea en movimiento y no una persona viva. En contraste, en el caso en el que la línea de borde (contorno) de una instantánea/instantánea en movimiento no se detecta de al menos una de las imágenes, el módulo 116 de cámara determina que la persona disparada es una persona real.
Tercero, el módulo 116 de cámara extrae una región de persona y una región de fondo de las imágenes disparadas a una pluralidad de magnificaciones, e identifica si existe una diferencia de contraste entre las regiones de persona y regiones de fondo extraídas. Adicionalmente, el módulo 116 de cámara identifica si se detecta o no una línea de borde (contorno) de una instantánea/instantánea en movimiento de al menos una de imágenes obtenidas. En el caso en el que la diferencia de contraste no existe entre las regiones de persona y regiones de fondo y se detecta la línea de borde (contorno) de una instantánea/instantánea en movimiento de al menos una de las imágenes, el módulo 116 de cámara determina que la persona es una persona en una instantánea/instantánea en movimiento. Adicionalmente, en el caso en el que la diferencia de contraste no existe entre las regiones de persona y regiones de fondo y no se detecta la línea de borde (contorno) de una instantánea/instantánea en movimiento de al menos una de las imágenes, el módulo 116 de cámara determina que la persona es una persona real. También, el módulo 116 de cámara extrae regiones de persona y regiones de fondo de imágenes. En el caso en el que existe una diferencia de contraste entre las regiones de persona y regiones de fondo extraídas, el módulo 116 de cámara determina que la persona es una persona real.
En caso de determinar que una imagen de persona disparada usando el procedimiento anteriormente descrito es una persona real y no una instantánea de una instantánea, el módulo 116 de cámara extrae una región de persona (por ejemplo, una región facial) de al menos una de las imágenes obtenidas y aplica una función relacionada con reconocimiento (facial) de persona a la región de persona extraída.
El módulo 117 de aplicación comprende un procesador o subprocesador para operación e incluye un navegador, un correo electrónico, un mensaje instantáneo, procesamiento de textos, emulación de teclado, un libro de direcciones, una lista de toques, un artilugio, Gestión de Derechos Digitales (DRM), reconocimiento de voz, duplicación de voz, función de determinación de posición, servicio basado en localización, etc. La memoria 110 puede incluir adicionalmente un módulo adicional (código ejecutable por máquina) además de los módulos descritos anteriormente.
También, diversas funciones del dispositivo 100 electrónico de acuerdo con la presente invención pueden ejecutarse por uno o más procesamientos de flujo y/o hardware incluyendo un circuito integrado de aplicación específica (ASIC) y/o software y/o combinación de estos.
La Figura 2 es un diagrama de flujo que ilustra operación ilustrativa de un procedimiento de operación de un dispositivo electrónico de acuerdo con una realización ilustrativa de la presente invención.
Haciendo referencia ahora a la Figura 2, el procesador 122 (Figura 1) ejecuta el código ejecutable por máquina del módulo 116 de cámara y al menos otro módulo. El procesador 122 ejecuta módulos y controla el subsistema 193 de cámara.
En la etapa (201), el módulo 116 de cámara enfoca a una persona y obtiene una primera imagen capturada a una primera magnificación, así como una segunda imagen capturada a una segunda magnificación. Dependiendo del módulo 116 de cámara, el subsistema 193 de cámara regula la configuración del mismo. Por ejemplo, en caso de cambio de magnificación, el subsistema 193 de cámara regula un zum óptico para conseguir los respectivos niveles de magnificación. El módulo 116 de cámara puede extraer una región de imagen capturada de una persona específica para reconocimiento a partir de la imagen capturada. En el caso en el que una calidad de imagen de la región extraída es mala, el módulo 116 de cámara puede regular un enfoque del subsistema 193 de cámara para una "región de persona" para elevar la calidad de imagen.
A continuación, en la etapa (203), el módulo 116 de cámara compara la primera imagen obtenida con la segunda imagen obtenida para identificar si la persona es o no una persona real o una persona en una instantánea/instantánea en movimiento extrayendo una región de persona y una región de fondo que excluye la región de persona de una primera imagen, y deriva una primera característica de comparación entre la región de persona extraída y la región de fondo extraída. Un procedimiento de la misma se describe a continuación con referencia a los dibujos. La primera característica de comparación puede ser al menos una de contraste, una distancia focal y nitidez. Un experto entiende que existen diversas formas de comparar contraste, distancia focal y nitidez de una imagen.
Después de eso, cuando se determina que la persona disparada (fotografiada) es una persona en una instantánea/instantánea en movimiento en la etapa 203, el módulo 116 de cámara entra en la etapa 209 para limitar una función relacionada con persona. En otras palabras, cualquier acceso que requiere identificación basada en imagen se limitaría porque la imagen debe ser una imagen en vivo realmente dentro de la presencia del dispositivo electrónico, y no una fotografía para evitar fraude, robo de identidad, etc. Esta función relacionada con persona puede ser reconocimiento facial, reconocimiento de desplazamiento, etc. En contraste, cuando se determina que la persona no es una persona en una instantánea/instantánea en movimiento, es decir, la persona es una persona real en la etapa 203, el módulo 116 de cámara realiza la etapa 207 para aplicar la función relacionada con persona a al menos una de la primera imagen y la segunda imagen.
La Figura 3 es un diagrama de flujo que ilustra la etapa 203 de la Figura 2 que identifica si una persona disparada desde imágenes es una persona real o una persona en una instantánea/instantánea en movimiento de acuerdo con una realización ilustrativa de la presente invención.
Haciendo referencia ahora a la Figura 3, en la etapa (221) el módulo 116 de cámara extrae una región de persona que incluye la persona, y una región de fondo que excluye la región de persona de una primera imagen, y deriva una primera característica de comparación entre la región de persona extraída y la región de fondo extraída.
En la etapa 223, el módulo 116 de cámara extrae una región de persona y una región de fondo que excluye la región de persona de una segunda imagen y deriva una segunda característica de comparación entre la región de persona extraída y la región de fondo extraída.
La primera característica de comparación y la segunda característica de comparación pueden ser al menos una de contraste, una distancia focal y nitidez.
Por ejemplo, cuando la primera característica de comparación y la segunda característica de comparación comprende contraste, el contraste indica una diferencia de una característica visual que habilita que un usuario discrimine entre un primer plano (región de persona) y un fondo (región de fondo), y puede calcularse como un valor numérico.
Además, en el caso en el que un objeto disparado no se enfoque, el contraste de una región relevante es bajo.
En contraste, en el caso en el que un objeto disparado esté enfocado, el contraste de una región relevante es relativamente alto. En otras palabras, una región en la que el contraste es bajo es tenue y una región en la que el contraste es alto es clara. También, un procedimiento de extracción de una región de persona y una región de fondo que excluye la región de persona de la primera imagen y la segunda imagen puede practicarse de diversas formas que están dentro del ámbito de la invención reivindicada.
Por ejemplo, puede usarse detección de borde. Posteriormente, en la etapa (225), el módulo 116 de cámara determina si la primera característica de comparación derivada y la segunda característica de comparación derivada coinciden entre sí.
En el caso en el que la primera característica de comparación y la segunda característica de comparación coinciden entre sí, el módulo 116 de cámara realiza la etapa 227 para determinar que la persona disparada no es una persona real. Por ejemplo, en este caso, las imágenes disparadas pueden ser una persona en una instantánea/instantánea en movimiento, y no una persona real. En contraste, en el caso en el que la primera característica de comparación y la segunda característica de comparación no coinciden entre sí, el módulo 116 de cámara realiza la etapa 229 para determinar que la persona disparada es una persona real.
La Figura 4 es un diagrama de flujo que ilustra más detalle con respecto a la etapa 203 de la Figura 2 que identifica si una persona disparada desde imágenes es o no una persona real o una persona en una instantánea/instantánea en movimiento de acuerdo con una realización ilustrativa de la presente invención.
Haciendo referencia ahora a la Figura 4, el módulo 116 de cámara determina si se detecta una línea de borde de una instantánea/instantánea en movimiento de al menos una de la primera imagen y la segunda imagen en la etapa 231. Un procedimiento de detección de una línea de borde de una instantánea/instantánea en movimiento a partir de estas imágenes es diverso. Por ejemplo, puede usarse detección de borde.
Posteriormente en la etapa (223), en el caso en el que se detecta la línea de borde de la instantánea/instantánea en movimiento, el módulo 116 de cámara realiza la etapa 235 para determinar que la persona disparada no es una persona real sino una persona en una instantánea/instantánea en movimiento. En contraste, cuando no se detecta la línea de borde de la instantánea/instantánea en movimiento, el módulo 116 de cámara realiza la etapa 237 para determinar que la persona disparada es una persona real.
La Figura 5 es un diagrama de flujo que ilustra más detalle con respecto a la etapa 203 de la Figura 2 que identifica si una persona disparada desde imágenes es una persona real o una persona en una instantánea/instantánea en movimiento de acuerdo con otra realización ilustrativa de la presente invención. La Figura 5 ilustra una realización ilustrativa que combina la realización ilustrativa de la Figura 3 y la realización ilustrativa de la Figura 4, y sigue el procedimiento a continuación.
Haciendo referencia ahora a la Figura 5, en la etapa (241), el módulo 116 de cámara extrae una región de persona y una región de fondo de la primera imagen y deriva una primera característica de comparación entre la región de persona extraída y la región de fondo extraída.
En la etapa (243), el módulo 116 de cámara extrae una región de persona y una región de fondo de la segunda imagen y deriva una segunda característica de comparación entre la región de persona extraída y la región de fondo extraída. La primera característica de comparación y la segunda característica de comparación pueden ser al menos una de contraste, una distancia focal y nitidez.
En la etapa (245), el módulo 116 de cámara determina si la primera característica de comparación derivada y la segunda característica de comparación derivada coinciden o no entre sí.
En la etapa (245), en el caso en el que la primera característica de comparación y la segunda característica de comparación no coinciden entre sí, el módulo 116 de cámara continúa a la etapa 251 para determinar que la persona disparada es una persona real.
En contraste, en el caso en la etapa (245) en el que la primera característica de comparación y la segunda característica de comparación sí coinciden entre sí, el módulo 116 de cámara a continuación realiza la etapa 247 para determinar si se detecta o no una línea de borde de una instantánea/instantánea en movimiento de al menos una de la primera imagen y la segunda imagen.
En el caso en la etapa (249) en el que se detecta la línea de borde de la instantánea/instantánea en movimiento, el módulo 116 de cámara realiza la etapa 253 para determinar que la persona disparada es una persona en una instantánea/instantánea en movimiento.
En contraste, en el caso en el que no se detecta la línea de borde de la instantánea/instantánea en movimiento en la etapa 249, el módulo 116 de cámara realiza de nuevo la etapa 201 de la Figura 2 otra vez. Por ejemplo, el módulo 116 de cámara cambia un lugar y solicita que un usuario realice de nuevo las etapas de la Figura 2 otra vez, y pospone determinar si la persona disparada es una persona real o una persona en una instantánea/instantánea en movimiento.
Las Figuras 6A a 6D son vistas que ilustran un procedimiento de operación de un dispositivo electrónico de acuerdo con una realización ilustrativa de la presente invención.
Haciendo referencia ahora a la Figura 6A, el dispositivo 100 electrónico enfoca una persona 61 real y obtiene una primera imagen disparada a una primera magnificación y una segunda imagen disparada a una segunda magnificación. Haciendo referencia a las Figuras 6B a 6D, el dispositivo 100 electrónico enfoca a la persona 61 a una magnificación básica predeterminada para obtener una primera imagen disparada en la primera magnificación, y enfoca a la persona 61 en una magnificación mayor que la configuración básica (ampliación de cámara) para realizar la foto o enfoca a la persona 61 a una magnificación menor que la configuración básica (alejamiento de cámara) para realizar la foto para obtener una segunda imagen. Examinación de la primera imagen disparada y la segunda imagen disparada muestra que una región 63 de persona (Figura 6B) en la que la persona 61 se ha disparado es clara, pero una región 63 de fondo en la que un fondo 62 (Figura 6A) colocada detrás la persona 61 se ha disparado es tenue porque incluso cuando una magnificación cambia, la persona 61 se enfoca en respuesta a la magnificación cambiada y se realiza la foto.
En otras palabras, en el caso en el que una persona 61 real y el fondo 62 se disparan y la persona 61 colocada en el primer plano se enfoca y dispara, se genera una diferencia de contraste entre regiones 63, 65, 67 de persona y regiones 64, 66, 68 de fondo discriminadas en una imagen disparada. En el caso en el que una diferencia de contraste entre la región 63 de persona y la región 64 de fondo discriminada en una primera imagen y una diferencia de contraste entre las regiones 65, 67 de persona y las regiones 66, 68 de fondo discriminadas en una segunda imagen no coinciden entre sí, el dispositivo 100 electrónico de acuerdo con una realización de la presente invención puede determinar que la persona 61 disparada es una persona real.
En contraste, en el caso en el que una diferencia de contraste entre la región 63 de persona y la región 64 de fondo discriminada en la primera imagen y una diferencia de contraste entre las regiones 65, 67 de persona y las regiones 66, 68 de fondo discriminadas en la segunda imagen coinciden entre sí, el dispositivo 100 electrónico puede determinar que la persona 61 disparada es una persona en una instantánea/instantánea en movimiento.
Las Figuras 7A a 7D son vistas que ilustran un procedimiento de operación de un dispositivo electrónico de acuerdo con una realización ilustrativa de la presente invención.
Haciendo referencia ahora a la Figura 7A, el dispositivo 100 electrónico toma una instantánea 70 en la que una persona 71 y un fondo 72 se han fotografiado. Se supone que la persona 71 en la instantánea 70 es más clara que el fondo 72. El dispositivo 100 electrónico enfoca a la persona 71 en la instantánea 70 para obtener una primera imagen disparada a una primera magnificación y una segunda imagen disparada a una segunda magnificación. Haciendo referencia a las Figuras 7B y 7C, el dispositivo 100 electrónico enfoca a la persona 71 en la instantánea 70 y realiza la foto a una primera magnificación (ampliación de cámara) mayor que una magnificación básica predeterminada para obtener una primera imagen, y enfoca a la persona 71 en la instantánea 70 y realiza la foto a una magnificación (alejamiento de cámara) menor que la configuración básica para obtener una segunda imagen. Examinación de la primera imagen disparada y la segunda imagen disparada muestra que regiones 74, 76 de persona en la que la persona 71 en la instantánea 70 se ha disparado son claras pero regiones 75, 77 de fondo en las que el fondo 72 en la instantánea 70 se ha disparado son tenues. Sin embargo, el contraste de las regiones 74, 76 de persona y las regiones 75, 77 de fondo es constante porque incluso cuando la persona 71 en la instantánea 70 se enfoca, el fondo 72 en la instantánea 70 también se enfoca.
Adicionalmente, haciendo referencia a la Figura 7D, ya que la instantánea 70 tiene una línea de borde (contorno), en caso de foto la instantánea 70 en una magnificación incluso menor (alejamiento), el dispositivo 100 electrónico obtiene una imagen en la que se dispara el fondo detrás de la instantánea 70 así como la instantánea 70. En este caso, el dispositivo 100 electrónico detecta una región 78 en la que una línea de borde 73 de la instantánea 70 se ha disparado y determina que la persona disparada 71 es una persona en la instantánea.
Procedimientos de acuerdo con las realizaciones ilustrativas descritas en las reivindicaciones y/o memoria descriptiva de la presente invención pueden implementarse en forma de software que configura hardware tal como un microprocesador, procesador, subprocesador, controlador, etc., hardware, o una combinación de estos.
En caso de implementación en forma de hardware configurado por software, puede proporcionarse un medio de almacenamiento legible por ordenador que almacena uno o más programas (módulos de software). El uno o más programas almacenados en el medio de almacenamiento legible por ordenador se configuran para la ejecución por uno o más procesadores dentro del dispositivo electrónico. El uno o más programas incluyen instrucciones para permitir que el dispositivo electrónico ejecute procedimientos de acuerdo con las realizaciones descritas en reivindicaciones y/o memoria descriptiva de la presente invención.
Los procedimientos anteriormente descritos de acuerdo con la presente invención pueden implementarse en hardware, firmware o como software o código informático que puede almacenarse en un medio de grabación tal como un CD ROM, una RAM, un disco flexible, un disco duro o un disco magneto-óptico o código informático descargado a través de una red almacenado originalmente en un medio de grabación remoto o un medio legible por máquina no transitorio y para almacenarse en un medio de grabación local, de modo que los procedimientos descritos en el presente documento pueden cargarse en hardware tal como un ordenador de fin general, o un procesador especial o en hardware programable o especializado, tal como un ASIC o FPGA. Como se entendería en la técnica, el ordenador, el procesador, el controlador de microprocesador o el hardware programable incluyen componentes de memoria, por ejemplo, RAM, ROM, Flash, etc., que pueden almacenar o recibir software o código informático que, cuando el ordenador, procesador o hardware accede al mismo y lo ejecuta, implementan los procedimientos de procesamiento descritos en el presente documento. Además, se reconocerá que, cuando un ordenador de fin general accede a un código para implementar el procesamiento mostrado en el presente documento, la ejecución del código transforma el ordenador de fin general en un ordenador de fin especial para ejecutar el procesamiento mostrado en el presente documento. Además, un experto entiende y aprecia que en la interpretación razonablemente más amplia, un "procesador" o "microprocesador" así como "unidad" constituyen objeto estatutario que comprende hardware de conformidad con 35 U.S.C. §101.
Estos programas (módulos de software, software) pueden almacenarse en una memoria de acceso aleatorio, una memoria no volátil que incluye una memoria flash, Memoria de Solo Lectura (ROM), una Memoria de Solo Lectura Eléctricamente Borrable y Programable (EEPROM), un dispositivo de almacenamiento de disco magnético, un Disco Compacto (CD)-ROM, Discos Versátiles Digitales (DVD) u otros tipos de dispositivos de almacenamiento óptico, y un casete magnético. Como alternativa, estos programas pueden almacenarse en una memoria configurada en una combinación de alguna o todas de estas. También, pueden proporcionarse una pluralidad de respectivas memorias.
También, estos programas pueden almacenarse en un dispositivo de almacenamiento conectable que puede acceder al dispositivo electrónico a través de una red de comunicación tal como internet, Intranet, Red de Área Local (LAN), LAN Ancha (WLAN) y una Red de Área de Almacenamiento (SAN), o una red de comunicación configurada en combinación de estas. Este dispositivo de almacenamiento puede acceder al dispositivo electrónico a través de un puerto externo.
También, un dispositivo de almacenamiento separado en una red de comunicación puede acceder a un dispositivo electrónico portátil.
Está también dentro del ámbito de la invención reivindicada que un subsistema de cámara que graba imágenes del objeto puede ser una entidad separada de la unidad de procedimiento y podría comunicarse, por ejemplo, con la unidad de procesamiento a través de comunicación inalámbrica, o IP, etc. Mientras los ejemplos han usado un dispositivo electrónico que habitualmente es portátil, la invención es amplia y la unidad de procesamiento podría ser parte de un servidor de seguridad y un dispositivo electrónico portátil con un módulo de cámara está intentando adquirir o acceder a algo que requiere identificación de la persona que pretende la adquisición o acceso.
Ya que la presente invención puede identificar claramente si un objeto que se está disparando por una cámara es un objeto real o un objeto en una instantánea/instantánea en movimiento, es posible el establecimiento de seguridad segura usando esta.

Claims (13)

REIVINDICACIONES
1. Un procedimiento de reconocimiento de una imagen en un dispositivo electrónico, comprendiendo el procedimiento: obtener por una unidad de procesamiento una primera imagen y una segunda imagen de un objeto específico que se enfoca y dispara en diferentes magnificaciones por un subsistema de cámara;
caracterizado porque el procedimiento comprende además:
extraer una región de objeto y una región de fondo de cada imagen obtenida;
obtener una primera característica de comparación entre la región de objeto y la región de fondo de la primera imagen, y una segunda característica de comparación entre la región de objeto y la región de fondo de la segunda imagen;
comparar por la unidad de procesamiento en conjunción con un módulo de cámara la primera característica de la primera imagen con la segunda característica de la segunda imagen; y
determinar por la unidad de procesamiento si el objeto específico está físicamente dentro de la presencia del subsistema de cámara y no es una copia o fotografía del objeto específico dependiendo del resultado de comparación.
2. El procedimiento de la reivindicación 1, en el que determinar si el objeto específico está físicamente dentro de la presencia del subsistema de cámara y no es una copia o fotografía del objeto específico dependiendo del resultado de comparación comprende:
cuando la primera característica de comparación entre la región de objeto y la región de fondo de la primera imagen y la segunda característica de comparación entre la región de objeto y la región de fondo de la segunda imagen no coinciden entre sí, determinar que el objeto específico está físicamente dentro de la presencia del subsistema de cámara y no es una copia o fotografía del objeto específico.
3. El procedimiento de la reivindicación 1, en el que determinar si el objeto específico está físicamente dentro de la presencia del subsistema de cámara y no es una copia o fotografía del objeto específico dependiendo del resultado de comparación comprende:
cuando la primera característica de comparación entre la región de objeto y la región de fondo de la primera imagen y la segunda característica de comparación entre la región de objeto y la región de fondo de la segunda imagen coinciden entre sí, determinar que el objeto específico no está físicamente dentro de la presencia del subsistema de cámara y es una copia o fotografía del objeto específico.
4. El procedimiento de la reivindicación 1, en el que comparar las características entre la región de objeto y la región de fondo en cada imagen obtenida comprende establecer la primera característica de comparación y la segunda característica de comparación como al menos una de contraste, distancia focal y nitidez.
5. El procedimiento de la reivindicación 1, comprendiendo adicionalmente, cuando se detecta una línea de borde única o contorno de una instantánea/instantánea en movimiento de al menos una de las imágenes obtenidas, determinar que el objeto específico no está físicamente dentro de la presencia del subsistema de cámara y es una copia o fotografía del objeto específico.
6. El procedimiento de la reivindicación 3, que comprende adicionalmente:
cuando se determina que el objeto específico no está físicamente dentro de la presencia del subsistema de cámara y es una copia o fotografía del objeto específico, emitir un mensaje en el visualizador del dispositivo electrónico que se deniega acceso de datos predeterminados porque el objeto específico no puede verificarse.
7. El procedimiento de la reivindicación 1, en el que el objeto específico comprende al menos una porción de la cara de una persona.
8. Un dispositivo electrónico de reconocimiento de una imagen, comprendiendo el dispositivo:
al menos un procesador configurado para reconocimiento de imagen de un objeto específico;
un sistema de cámara acoplado al procesador;
una memoria; y
al menos un módulo almacenado en la memoria que comprende código ejecutable por máquina que se configura para la ejecución de una aplicación de reconocimiento de imagen por el al menos un procesador,
en el que el al menos un procesador configurado por el al menos un módulo obtiene una primera imagen y una segunda imagen del objeto específico que se enfocan y respectivamente disparan en diferentes magnificaciones desde el sistema de cámara,
caracterizado porque el al menos un procesador se configura adicionalmente para:
extraer una región de objeto y una región de fondo de cada imagen obtenida,
obtener una primera característica de comparación entre la región de objeto y la región de fondo de la primera imagen y una segunda característica de comparación entre la región de objeto y la región de fondo de la segunda imagen, comparar la primera característica de comparación con la segunda característica de comparación, y determinar si el objeto específico está físicamente dentro de la presencia del subsistema de cámara y no es una copia o fotografía del objeto específico dependiendo del resultado de comparación.
9. El dispositivo de la reivindicación 8, en el que cuando la primera característica de comparación entre la región de objeto y la región de fondo de la primera imagen y la segunda característica de comparación entre la región de objeto y la región de fondo de la segunda imagen no coinciden entre sí, el módulo determina que el objeto específico está físicamente dentro de la presencia del subsistema de cámara y no es una copia o fotografía del objeto específico.
10. El dispositivo de la reivindicación 8, en el que cuando la primera característica de comparación entre la región de objeto y la región de fondo de la primera imagen y la segunda característica de comparación entre la región de objeto y la región de fondo de la segunda imagen coinciden entre sí, el módulo determina que el objeto específico no está físicamente dentro de la presencia del subsistema de cámara y es una copia o fotografía del objeto específico.
11. El dispositivo de la reivindicación 8, en el que cuando se comparan las características visuales entre la región de objeto y la región de fondo en las imágenes obtenidas, el al menos un procesador establece la primera característica de comparación y la segunda característica de comparación como al menos una de contraste, distancia focal y nitidez.
12. El dispositivo de la reivindicación 8, en el que cuando se detecta una línea de borde única o contorno de una instantánea/instantánea en movimiento de al menos una de las imágenes obtenidas, el módulo determina que el objeto específico no está físicamente dentro de la presencia del subsistema de cámara y no es una copia o fotografía del objeto específico.
13. El dispositivo de la reivindicación 8, en el que cuando se determina que el objeto específico está físicamente dentro de la presencia del subsistema de cámara y no es una copia o fotografía del objeto específico, el módulo permite aplicar una función relacionada con objeto a al menos una de las imágenes obtenidas, y
cuando se determina que el objeto específico no está físicamente dentro de la presencia del subsistema de cámara y es una copia o fotografía del objeto específico, el módulo no permite la aplicación de la función relacionada con objeto a al menos una de las imágenes obtenidas.
ES13164722T 2012-04-26 2013-04-22 Aparato y procedimiento de reconocimiento de imagen Active ES2768252T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120043971A KR101884337B1 (ko) 2012-04-26 2012-04-26 영상 인식 방법 및 장치

Publications (1)

Publication Number Publication Date
ES2768252T3 true ES2768252T3 (es) 2020-06-22

Family

ID=48190144

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13164722T Active ES2768252T3 (es) 2012-04-26 2013-04-22 Aparato y procedimiento de reconocimiento de imagen

Country Status (5)

Country Link
US (2) US9049379B2 (es)
EP (1) EP2658242B1 (es)
KR (1) KR101884337B1 (es)
CN (1) CN103379282B (es)
ES (1) ES2768252T3 (es)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012090890A1 (ja) * 2010-12-27 2012-07-05 日本電気株式会社 情報処理システム,情報処理方法及び情報処理プログラム
US10339512B2 (en) * 2014-12-18 2019-07-02 Ncr Corporation In-scanner document image processing
US10860887B2 (en) * 2015-11-16 2020-12-08 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognition model
CN105739860B (zh) * 2016-01-25 2019-02-22 Oppo广东移动通信有限公司 一种图片生成方法及移动终端
FR3053499B1 (fr) * 2016-06-29 2018-06-29 Safran Identity & Security Procede et dispositif de detection de fraude par examen a deux focales distinctes lors d'une reconnaissance automatique d'un visage
KR102483642B1 (ko) 2016-08-23 2023-01-02 삼성전자주식회사 라이브니스 검사 방법 및 장치
US10970896B2 (en) * 2016-11-02 2021-04-06 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
CN113177437A (zh) * 2017-06-13 2021-07-27 阿里巴巴集团控股有限公司 一种人脸识别方法和装置
CN107609463B (zh) * 2017-07-20 2021-11-23 百度在线网络技术(北京)有限公司 活体检测方法、装置、设备及存储介质
CN107527041A (zh) * 2017-09-08 2017-12-29 北京奇虎科技有限公司 图像采集设备数据实时处理方法及装置、计算设备
US10679082B2 (en) * 2017-09-28 2020-06-09 Ncr Corporation Self-Service Terminal (SST) facial authentication processing
CN107944339B (zh) 2017-10-20 2020-01-21 阿里巴巴集团控股有限公司 一种证件验证、身份验证方法和装置
US11115604B2 (en) * 2018-01-02 2021-09-07 Insitu, Inc. Camera apparatus for generating machine vision data and related methods
CN108304708A (zh) * 2018-01-31 2018-07-20 广东欧珀移动通信有限公司 移动终端、人脸解锁方法及相关产品
KR20230090077A (ko) 2021-12-14 2023-06-21 안희철 무선태그 장치

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7076088B2 (en) * 1999-09-03 2006-07-11 Honeywell International Inc. Near-infrared disguise detection
GB0031016D0 (en) * 2000-12-20 2001-01-31 Alphafox Systems Ltd Security systems
US7627151B2 (en) * 2003-04-04 2009-12-01 Lumidigm, Inc. Systems and methods for improved biometric feature definition
US7298873B2 (en) * 2004-11-16 2007-11-20 Imageware Systems, Inc. Multimodal biometric platform
JP4734980B2 (ja) * 2005-03-15 2011-07-27 オムロン株式会社 顔認証装置およびその制御方法、顔認証装置を備えた電子機器、顔認証装置制御プログラム、ならびに該プログラムを記録した記録媒体
US8260008B2 (en) * 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
JP4899551B2 (ja) * 2006-03-15 2012-03-21 オムロン株式会社 認証装置、認証方法、認証プログラムおよびコンピュータ読み取り可能な記録媒体
KR100855590B1 (ko) * 2006-10-12 2008-09-01 (주)와이드존정보시스템 다중 렌즈 다중 시점 멀티 자동차 인식 시스템 및 그 방법
KR100842258B1 (ko) 2006-10-26 2008-06-30 한국전자통신연구원 얼굴 영상의 위조 여부를 판별하는 방법 및 그 장치
JP4697810B2 (ja) 2007-03-05 2011-06-08 パナソニック株式会社 自動追尾装置及び自動追尾方法
US7508960B1 (en) * 2008-05-06 2009-03-24 International Business Machines Corporation Projection of light patterns for liveness verification of biometrics
KR101145249B1 (ko) 2008-11-24 2012-05-25 한국전자통신연구원 얼굴 영상 검증 장치 및 방법
KR20100073191A (ko) 2008-12-22 2010-07-01 한국전자통신연구원 거리 정보를 이용한 위조 얼굴 검출 방법 및 장치
KR101123834B1 (ko) 2009-05-22 2012-03-15 한국인식산업(주) 적외선 가변조명을 이용한 사진위조 판별방법 및 카메라 장치
CN102428405A (zh) * 2009-06-16 2012-04-25 英特尔公司 手持装置中的摄像机应用
CN102014271A (zh) * 2009-09-07 2011-04-13 泉州市铁通电子设备有限公司 一种嵌入式人脸检测识别及监视录像系统
CN102082946A (zh) * 2009-11-27 2011-06-01 中兴保全股份有限公司 智能影像侦测方法
US20110153362A1 (en) * 2009-12-17 2011-06-23 Valin David A Method and mechanism for identifying protecting, requesting, assisting and managing information
KR101700595B1 (ko) 2010-01-05 2017-01-31 삼성전자주식회사 얼굴 인식 장치 및 그 방법
US8515124B2 (en) * 2010-02-04 2013-08-20 Electronics And Telecommunications Research Institute Method and apparatus for determining fake image
CN101854522B (zh) * 2010-05-06 2012-02-22 福建鑫诺通讯技术有限公司 家庭无线智能监控方法
US8675926B2 (en) * 2010-06-08 2014-03-18 Microsoft Corporation Distinguishing live faces from flat surfaces
CN101908140A (zh) * 2010-07-29 2010-12-08 中山大学 一种在人脸识别中应用的活体检测方法
CN202197300U (zh) * 2010-08-05 2012-04-18 北京海鑫智圣技术有限公司 移动人脸识别系统
CN201698194U (zh) * 2010-08-19 2011-01-05 福州海景科技开发有限公司 基于人像生物识别技术的人像识别控制装置
JP5631125B2 (ja) * 2010-09-01 2014-11-26 キヤノン株式会社 画像処理装置、その制御方法及びプログラム
CN201965677U (zh) * 2011-02-14 2011-09-07 汉王科技股份有限公司 人脸识别门禁机
CN102169609A (zh) * 2011-05-04 2011-08-31 秦小枢 具有防止冒取功能的取款机或存取款机
CN102201061B (zh) * 2011-06-24 2012-10-31 常州锐驰电子科技有限公司 基于多阶层过滤人脸识别的智能安全监控系统及方法
EP2546782B1 (en) * 2011-07-11 2014-06-25 Accenture Global Services Limited Liveness detection
KR101286454B1 (ko) * 2012-02-29 2013-07-16 주식회사 슈프리마 눈 영상의 특성을 이용한 모조얼굴 식별장치 및 방법
US8542879B1 (en) * 2012-06-26 2013-09-24 Google Inc. Facial recognition
US8437513B1 (en) * 2012-08-10 2013-05-07 EyeVerify LLC Spoof detection for biometric authentication
US8856541B1 (en) * 2013-01-10 2014-10-07 Google Inc. Liveness detection

Also Published As

Publication number Publication date
EP2658242B1 (en) 2019-11-27
CN103379282A (zh) 2013-10-30
KR101884337B1 (ko) 2018-08-01
CN103379282B (zh) 2018-09-21
US9684819B2 (en) 2017-06-20
EP2658242A2 (en) 2013-10-30
EP2658242A3 (en) 2017-05-17
US9049379B2 (en) 2015-06-02
US20130286256A1 (en) 2013-10-31
KR20130120810A (ko) 2013-11-05
US20150261997A1 (en) 2015-09-17

Similar Documents

Publication Publication Date Title
ES2768252T3 (es) Aparato y procedimiento de reconocimiento de imagen
US10691929B2 (en) Method and apparatus for verifying certificates and identities
US11093731B2 (en) Analysis of reflections of projected light in varying colors, brightness, patterns, and sequences for liveness detection in biometric systems
CN108804884B (zh) 身份认证的方法、装置及计算机存储介质
CN108197586B (zh) 脸部识别方法和装置
WO2021031609A1 (zh) 活体检测方法及装置、电子设备和存储介质
JP6391708B2 (ja) 虹彩画像を取得する方法および装置、ならびに虹彩識別機器
JP7086234B2 (ja) Id検証方法および装置、電子機器並びにコンピュータ可読記憶媒体
CN110287671B (zh) 验证方法及装置、电子设备和存储介质
US10579783B1 (en) Identity authentication verification
CN104778416A (zh) 一种信息隐藏方法及终端
TWI752105B (zh) 特徵圖像的獲取方法及獲取裝置、使用者認證方法
JP4544026B2 (ja) 撮像装置、携帯端末
JP2019515519A (ja) 被撮影物体の認識方法、装置、携帯端末及びカメラ
CN206595991U (zh) 一种双摄像头移动终端
CN108733690B (zh) 图像数据存储方法、装置及电子设备
US10095911B2 (en) Methods, devices, and computer-readable mediums for verifying a fingerprint
JP2022535639A (ja) 性能パラメータ決定方法および装置、電子機器、記憶媒体、並びにプログラム製品
KR102539533B1 (ko) 타인의 신분증 불법 촬영을 방지하기 위한 인증 방법 및 장치
WO2016095680A1 (zh) 隐私数据的入侵检测方法和装置
CN113591526A (zh) 人脸活体检测方法、装置、设备及计算机可读存储介质
US11810401B1 (en) Methods and systems for enhancing user liveness detection
CN104571495B (zh) 输入处理系统、信息存储装置、信息处理装置以及输入方法
KR20200054643A (ko) 지문 인식 시스템의 보안성을 개선하기 위한 시스템 및 그를 이용한 지문 인식 방법
JP2022045799A (ja) 本人確認支援装置およびプログラム