ES2385041T3 - Reconocimiento de objetos 3D - Google Patents

Reconocimiento de objetos 3D Download PDF

Info

Publication number
ES2385041T3
ES2385041T3 ES05771849T ES05771849T ES2385041T3 ES 2385041 T3 ES2385041 T3 ES 2385041T3 ES 05771849 T ES05771849 T ES 05771849T ES 05771849 T ES05771849 T ES 05771849T ES 2385041 T3 ES2385041 T3 ES 2385041T3
Authority
ES
Spain
Prior art keywords
objects
class
dense
model
individual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES05771849T
Other languages
English (en)
Inventor
Jan Erik Solem
Fredrik Kahl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Polar Rose AB
Apple Inc
Original Assignee
Polar Rose AB
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Polar Rose AB, Apple Inc filed Critical Polar Rose AB
Priority claimed from PCT/SE2005/001203 external-priority patent/WO2006019350A1/en
Application granted granted Critical
Publication of ES2385041T3 publication Critical patent/ES2385041T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

Un procedimiento para reconocimiento de objetos de un objeto tridimensional (307), 3D, que comprende lasetapas de:- obtener al menos una representación bidimensional (606), 2D, de dicho objeto;- detectar características de imagen en dicha representación 2D (606) obtenida;- inferir una forma 3D dispersa correspondiente a las características de imagen utilizando unarepresentración vectorial latente de dicha forma 3D dispersa y utilizando un modelo de formaestadístico multi-perspectiva.caracterizado por comprender además las etapas de- extender la forma 3D dispersa a una forma 3D densa encajando la superficie a dicha forma 3Ddispersa utilizando un modelo de forma estadístico aprendido que consiste en una superficie mediacompleta del objeto para regularizar dicha forma de superficie de forma específica para una clasede objetos;- comparar la forma 3D densa con formas 3D de referencia (605) obtenidas previamente; y por lotanto- identificar un objeto individual de la clase de objetos.

Description

Reconocimiento de objetos 3D
5 Campo de la invención
La presente invención se refiere a reconocimiento automático de objetos y en particular a reconocimiento automático de objetos 3D utilizando información estadística de forma.
Antecedentes de la invención
Existen procedimientos extremadamente fiables para identificación personal utilizando datos biométricos tales como, por ejemplo, huellas digitales, patrones retinales o características únicas similares del sujeto que dependen de la colaboración del sujeto. El reconocimiento facial puede ser una manera efectiva de identificar a una persona sin la
15 colaboración o conocimiento de la persona. Existen dos problemas generales principales para un sistema de reconocimiento facial: identificar a una persona, es decir, determinar la identidad a partir de imágenes, y verificar la identidad de una persona, es decir, certificar que una persona es quién dice ser. Aplicaciones específicas son, por ejemplo, inmigración, documentos de identidad, pasaportes, acceso a un computador, seguridad en intranet, vigilancia mediante video y sistemas de acceso. La presente invención pretende incrementar las prestaciones y eficiencia de tales sistemas utilizando información geométrica disponible a través del uso de modelos estadísticos de forma.
En el área de modelos estadísticos de forma, la invención se refiere a los Modelos Activos de Forma (ASM) introducidos por Cootes y Taylor, ([1]: Cootes T.F. y Taylor C.J., “Active Shape model Search using Grey-level Models: A Quantitative Evaluation”, Conferencia Británica de Visión Artificial, páginas 639-648, 1993). Una distinción es que los ASM han sido 25 utilizados para inferir formas 2D a partir de observaciones 2D o formas 3D a partir de informaciones 3D mientras que la invención utiliza observaciones 2D, es decir, imágenes, para inferir formas 3D. Además, las observaciones son desde múltiples puntos de vista (uno o más dispositivos de imagen) algo que el ASM estándar no trata. Cootes y Taylor tienen un número de patentes en este área, de las cuales las más relevantes son (WO02103618A1 – Modelo Estadístico) en donde se trata la parametrización de formas 2D ó 3D, (WO0135326A1 – Identificación de Clase de Objeto, Verificación o Síntesis de Imagen de Objeto) en donde una clase de objeto se identifica en imágenes y (WO02097720A1 – Identificación de Objeto) en la que los objetos se identifican utilizando versiones modificadas de ASM y técnicas relacionadas. También relacionado está Cootes et al. ([2]: Cootes T.F., Wheeler G.V., Walker K.N y Taylor C.J., “Viewbased Active Appearance Models”, Image and Vision Computing, 20(9-10), páginas 657-664; 2002) en donde se utilizan los modelos multi-perspectiva pero el modelo no contiene datos 3D explícitos o consistentes. Existen también
35 procedimientos para deformar un modelo 3D del objeto para encajar las proyecciones 2D del objeto en las imágenes tal como en Blanz y Vetter ([3] Blanz V. y Vetter T., “Face Recognition based on Fitting a 3D Morphable Model”, IEEE Transactions on Pattern Analysis and Machine Intelligence, 25(9), páginas 1063-1073, 2003.). Estos procedimientos son computacionalmente muy costosos y a menudo requieren intervención manual. Las patentes relacionadas son US6556196/EP1039417 (Procedimientos y aparatos para el procesado de imágenes) que describe un procedimiento de transformar un modelo 3D de forma que sea una representación 3D del objeto en la imagen mediante la minimización del error de proyección en la imagen.
Un problema común para el reconocimiento basado en imagen es detectar la forma 2D del objeto en la imagen, es decir, encontrar la región relevante de la imagen. Los procedimientos recientes para detectar objetos en imágenes incluyen
45 habitualmente escanear la imagen a distintas escalas en busca de patrones de imagen específicos del objeto y luego utilizar un clasificador para decidir si la región es relevante o no. Los últimos desarrollos sugieren el uso de Máquinas de Vectores de Soporte (SVM) para esta tarea. Un elemento clave es la extracción de características de imagen, es decir, partes de la imagen tales como esquinas, bordes u otros puntos interesantes. Esto se hace habitualmente utilizando esquemas basados en correlación que usan plantillas o procedimientos basados en los bordes que utilizan gradientes. Para una visión general de procedimientos para reconocimiento facial y extracción de características de imagen, véase Zhao y Chellapa ([4]: Zhao W., Chellapa R., Rosenfeld A y Phillips P.J, “Face Recognition: A Literature Survey”, informe técnico CAR-TR-948, 2000.) y las referencias en este documento. En [4], se presenta también un resumen de los procedimientos actuales basados en imagen para reconocimiento facial.
55 Al usar procedimientos basados en imagen para identificación y verificación existen dos problemas principales, variación de la iluminación y variación de la pose. La variación de la iluminación afectará a todos los procedimientos basados en correlación en los que se comparan partes de la imagen ya que los valores de los píxeles pueden variar con iluminación cambiante. Las reflexiones especulares pueden llevar a grandes cambios en la intensidad de pixel. La variación de pose ocurre debido a que la proyección en la imagen puede cambiar dramáticamente al rotar el objeto. Estos dos problemas han sido documentados en muchos sistemas de reconocimiento facial y son inevitables cuando las imágenes se adquieren en entornos no controlados. La mayoría de los procedimientos conocidos fallan en resolver estos problemas de forma robusta.
El problema de iluminación es gestionado por la invención ya que no se lleva a cabo correlación de imagen o
65 comparación de partes de imagen. En vez, se computan características de imagen como esquinas que son robustos a cambios de intensidad, lo que hace la reconstrucción de forma, en gran parte, insensible a la iluminación y a las reflexiones especulares. La invención gestiona el problema de la pose usando cualquier número de imágenes con pose diferentes para entrenar el modelo estadístico. Cualquier subconjunto de las imágenes, tan pequeño como una única imagen, puede utilizarse para inferir la forma 3D del objeto.
5 El artículo titulado “Inferring 3D structure with a Statistical Image-based Shape Model” de Grauman K et al. (Proceedings of the Eight IEEE International Conference on Computer Vision, Niza, Francia, Octubre 13-16, 2003, volumen 2, páginas 641-648, XP010662422, ISBN:0-7695-1950-4) describe un enfoque basado en imagen para inferir parámetros de la estructura 3D utilizando un modelo probabilístico “forma + estructura”. La forma 3D de una clase de objetos se representa mediante conjuntos de contornos a partir de vistas de silueta observados simultáneamente a partir de múltiples cámaras calibradas. Las reconstrucciones bayesianas de nuevas formas son entonces estimadas utilizando una densidad anterior construida con un modelo de mezclas y un análisis probabilístico de componentes principales. El modelo de forma se expande para incorporar características estructurales de interés; ejemplos novedosos con falta de parámetros de estructura se reconstruyen entonces para obtener estimaciones de estos parámetros. Hacer coincidir el modelo y la inferencia de parámetros, se hace completamente en el dominio de la imagen y no requiere una construcción
15 3D explícita. El modelo de forma permite una estimación precisa de la estructura a pesar de errores de segmentación o falta de vistas en las siluetas de entrada, y funciona incluso con solo una única vista de entrada. Utilizando un conjunto de datos de imágenes de peatones generadas con un modelo sintético, las localizaciones 3D de l9 articulaciones en el cuerpo basadas en los contornos de silueta de imágenes reales puede inferirse de forma precisa.
RESUMEN DE LA INVENCIÓN
La invención consiste en un modelo estadístico de las variaciones de forma en una clase de objetos que relaciona la proyección en dos dimensiones (2D) en imágenes a la forma en tres dimensiones (3D) del objeto y el uso de la información de forma 3D para identificación o verificación del objeto. Además, la presente invención se refiere a un 25 dispositivo o sistema de procesado de imagen para implementar tal procedimiento. El procedimiento es completamente automático y puede usarse para, por ejemplo, identificación biométrica a partir de imágenes de caras
o identificación de objetos en por ejemplo imágenes de Rayos X en seguridad aeroportuaria. La forma 3D recuperada es la forma más probable consistente con las proyecciones 2D, es decir, las imágenes. El modelo estadístico necesita un banco de datos, denominado datos de entrenamiento, en el que las posiciones 3D de las características de imagen son conocidas, para aprender los parámetros del modelo. Tal muestreo de datos puede hacerse utilizando, por ejemplo, escáneres binoculares, estéreo de múltiple perspectiva o de rango. Una vez que se han aprendido los parámetros del modelo, la forma 3D puede computarse utilizando una o varias imágenes. Se usa entonces la forma 3D, por medio de la presente invención junto con los datos de imagen 2D, para identificar o verificar el objeto como una instancia particular de la clase de objetos, por ejemplo, la cara que pertenece a un
35 individuo particular. Una identificación positiva (o negativa) inicia las acciones adecuadas por medio de la presente innovación.
En una realización de la invención un procedimiento de reconocimiento de objetos de un objeto tridimensional, 3D, objeto (607), comprende las etapas de: obtener al menos una representación bidimensional (606), 2D, de dicho objeto; detectar características de imagen en dicha representación 2D obtenida (606); inferir una forma 3D dispersa correspondiente a las características de imagen utilizando una representación vectorial latente de dicha forma 3D dispersa y utilizar un modelo de forma estadístico multi-perspectiva; caracterizado por comprender además las etapas de extender la forma 3D dispersa a una forma 3D densa encajando una superficie a dicha forma 3D dispersa utilizando un modelo estadístico aprendido de forma consistente en una superficie media completa del objeto para
45 regularizar dicha forma de superficie de una manera específica para una clase de objetos; comparar la forma 3D densa con formas 3D de referencia (605) obtenidas previamente; y por lo tanto identificar un objeto individual de la clase de objetos.
Todavía en el procedimiento, la forma 3D dispersa puede inferirse de las características 2D.
En otro aspecto del procedimiento según la presente invención, la clase de objetos puede contener objetos no rígidos y el modelo de forma estadística puede ser aprendido utilizando datos 2D y 3D específicos para posibles deformaciones de los objetos en la clase de objetos no rígidos.
55 El procedimiento puede además comprender la etapa de identificar un objeto individual de una clase de objetos o ayudar a la identificación de un objeto individual utilizando la forma 3D densa.
El procedimiento puede además comprender la etapa de verificar la identidad de un objeto individual de una clase de objetos o ayudar a la verificación de un objeto individual utilizando la forma 3D densa.
En el procedimiento el objeto puede ser uno de; una cara humana, un cuerpo humano, órgano(s) interno(s) de un ser humano, vasos sanguíneos, animales, órganos internos de un animal, un tumor, producto(s) manufacturado(s) de un proceso industrial, un vehículo, una aeronave, un barco, objeto(s) militar(es).
65 En el procedimiento, las formas de referencia 3D pueden almacenarse en al menos uno de una memoria no volátil, servidor de base de datos y tarjeta de identificación personal.
En otra realización de la presente invención un dispositivo (400) para reconocimiento de objetos de un objeto (607) tridimensional, 3D, que comprende: medios para obtener (404), al menos una representación bidimensional, 2D, de dicho objeto (607) ; medios para detectar (401) características de imagen en dicha representación 2D obtenida;
5 medios para inferir una forma 3D dispersa correspondiente a las características de imagen utilizando una representación vectorial latente de dicha forma 3D dispersa utilizando un modelo estadístico aprendido de forma consistente en una superficie media completa del objeto para regularizar dicha forma de superficie de una forma específica para una clase de objetos; comparar la forma 3D densa con las formas de referencia previamente obtenidas, identificando por lo tanto un objeto individual de la clase de objetos.
En el dispositivo la forma 3D dispersa puede inferirse de las características de imagen 2D.
En el dispositivo la clase de objetos puede contener objetos no rígidos y el modelo de forma estadística puede ser aprendido utilizando datos 2D y 3D específicos para posibles deformaciones de los objetos en la clase de objetos no
15 rígidos.
El dispositivo puede además comprender medios para identificar un objeto individual de una clase de objetos o ayudar en la identificación de un objeto individual utilizando la forma 3D densa.
El dispositivo puede además comprender medios para verificar la identidad de un objeto individual de una clase de objetos o ayudar en la verificación de identidad de un objeto individual utilizando la forma 3D densa.
En el dispositivo el objeto puede ser uno o varios de: una cara humana, un cuerpo humano, órgano(s) interno(s) de un ser humano, vasos sanguíneos, animales, órganos internos de un animal, un tumor, producto(s)
25 manufacturado(s) de un proceso industrial, un vehículo, una aeronave, un barco, objeto(s) militar(es).
En el dispositivo las formas 3D densas de los vasos sanguíneos o órganos recuperados a partir de proyecciones 2D, por ejemplo, utilizando imágenes de Rayos X puede usarse para navegar catéteres dirigibles o ayudar a los médicos a mostrar la forma 3D densa.
Las formas 3D densas de características faciales pueden usarse en el dispositivo para identificar o verificar la identidad de un individuo en un sistema de control de acceso o de seguridad, resultando en la aceptación o rechazo del individuo.
35 El dispositivo puede además comprender una interfaz para comunicarse con una tarjeta de identificación personal en la que están almacenadas las formas 3D de referencia.
-
En otra realización de la presente invención un programa de ordenador almacenado en un medio de almacenamiento legible por ordenador (402) que comprende una pluralidad de instrucciones que cuando son ejecutadas por una unidad de computación (901) hace que la unidad lleve a cabo el procedimiento de cualquiera de la reivindicaciones 1 a 6.
-
En otra realización de la presente invención un sistema de reconocimiento de objetos de un objeto tridimensional, 3D, que comprende: un dispositivo (400) según la reivindicación 7; y medios para responder
(604) a un resultado de dichos medios de comparación.
45 El sistema puede además incluir medios para identificar y/o verificar un objeto individual de una clase de objetos o ayudar en la identificación y/o verificación del objeto individual utilizando la forma 3D recuperada.
En el sistema las formas 3D de referencia pueden almacenarse en al menos uno de una memoria no volátil, servidor de base de datos y una tarjeta de identificación personal.
Breve descripción de los dibujos
De aquí en adelante la invención se describe de forma no limitante y con más detalle con referencia a las 55 realizaciones de ejemplo ilustradas en los dibujos contenidos, en los que:
La Figura 1 ilustra un procedimiento de dos etapas para recuperar datos 3D de una imagen de entrada.
La Figura 2 ilustra un proceso de encaje de superficie en una superficie 3D recuperada.
La Figura 3 es un diagrama de bloques de un dispositivo según la presente invención.
La Figura 4 ilustra un diagrama de bloques esquemático de las etapas de un procedimiento según la presente invención.
65 La Figura 5 es una ilustración esquemática de un sistema según la presente invención.
Descripción detallada de la invención
La invención consiste en un sistema de procesado de imagen para recuperación automática de formas 3D a partir de
5 imágenes de objetos que pertenecen a una cierta clase. Esta reconstrucción 3D se hace estableciendo un modelo de forma estadístico, denotado modelo de características, que relaciona las características 2D, por ejemplo, puntos de interés o curvas, con sus correspondientes posiciones 3D. Tal modelo es aprendido, es decir, se estiman los parámetros del modelo, a partir de datos de entrenamiento en los que la correspondencia 2D-3D es conocida. Esta fase de aprendizaje puede hacerse utilizando cualquier sistema apropiado para obtener tal correspondencia 2D-3D,
10 incluyendo, pero no limitado a sistemas de adquisición de imágenes binoculares o de múltiple perspectiva, escáneres de rango o disposiciones similares. En este proceso se mide el objeto de interés y se obtiene un modelo de referencia del objeto que puede utilizarse en un análisis de imagen subsiguiente tal y como se describe a continuación.
15 Dada una imagen de entrada, el proceso de recuperar la forma 3D es un procedimiento de dos etapas. Primero las características como puntos, curvas y contornos son encontrados en las imágenes, por ejemplo, utilizando técnicas como, por ejemplo, ASM [1] o procedimientos o clasificadores basados en gradiente tales como SVM. Entonces se infiere la forma 3D utilizando el modelo aprendido de características. Esto se ilustra en la Figura 1. La Figura 1a ilustra una imagen de una cara a analizar, la Figura 1b ilustra la detección de características de objeto para su uso
20 en el análisis y proceso de información de forma y la Figura 1c ilustra la forma 3D inferida para su uso en el proceso de reconocimiento.
También existe la opción de extender la representación de forma 3D desde curvas y puntos a un modelo de superficie completo encajando una superficie en los datos 3D. Esto se ilustra en la Figura 2, en donde la Figura 2a,
25 ilustra la forma 3D inferida, 2b ilustra una superficie encajada a los datos 3D, y la Figura 2c ilustra un modelo de superficie 3D renderizada del superficie encajada.
El modelo de características
30 Supóngase que tenemos un numero de elementos en un vector d-dimensional t, por ejemplo, una colección de puntos 3D en algún sistema normalizado de coordenadas. El punto de inicio para la derivación del modelo es que los elementos en t pueden estar relacionados con algún vector latente u de dimensión q en donde la relación es lineal:
(1)
en donde W es una matriz de tamaño d x q y µ es un vector-d que permite una media no nula. Una vez que los parámetros del modelo W y µ han sido aprendidos a partir de los ejemplos, se mantienen fijos. Sin embargo, nuestras medidas tienen lugar en las imágenes, lo cual es normalmente una función no lineal de las características
40 3D según el modelo de proyección para el dispositivo de imagen relevante.
Denótese la función de proyección con f: Rd -> Re, que proyecta todas las características de imagen 3D a características de imagen 2D, para una o más imágenes. Además, necesitamos cambiar el sistema de coordenadas de las características 3D para que se adapte a la actual función de proyección. Denótese este mapeo mediante T: Rd
45 -> Rd. Típicamente, T es una transformación de similitud del sistema de coordenadas mundial. Por lo tanto, f(T(t)) proyectará todos los datos 3D normalizados en todas la imágenes. Finalmente, necesita especificarse un modelo de ruido. Asumimos que las medidas de imagen son independientes y normalmente distribuidas, de igual forma, las variables latentes se suponen Gaussianas con varianza unitaria u ~ N(0,1). Por lo tanto, en resumen:
55 en donde £ ~ N (o2l) para algún escalar o. El modelo está relacionado con PPCA, véase Tipping y Bishop ([5]: Tipping M.E., Bishop C.M., “Probabilistic Principal Component Analysis”, Phil. Trans. Royal Soc. London B, 61(3), p. 611-622, 1999.), pero también existen diferencias debido a la no linealidad de f(.). Antes de poder usar el modelo, sus parámetros deben ser estimados a partir de datos de entrenamiento. Dado que es un modelo probabilístico, esto se hace de la mejor forma posible con máxima probabilidad (ML). Supóngase que se nos dan n ejemplos , la estimación ML para W y µ se obtiene minimizando:
sobre todos los desconocidos. La desviación estándar o se estima a priori a partir de los datos. Una vez que los parámetros del modelo W y µ han sido aprendidos a partir de ejemplos, se mantienen fijos. En la práctica, para
10 minimizar (3) optimizamos alternativamente sobre (W, µ) y utilizando descenso de gradiente. Los estimadores iniciales pueden obtenerse intersecando la estructura 3D de cada grupo de imágenes y luego aplicando algoritmos PPCA para la parte lineal. La normalización Ti(.) se escoge de tal forma que cada muestra 3D normalizada tiene media cero y varianza unitaria.
15 Existen tres tipos diferentes de características geométricas empotradas en el modelo.
Puntos: Un punto 3D que es visible en m > 1 imágenes se representará en el vector t con sus coordinadas 3D (X,Y,Z). Para puntos visibles en solo una imagen, m = 1, no existe información de profundidad, y tales puntos se representan similarmente a puntos aparentes de contorno.
20 Curvas: Una curva se representará en el modelo mediante un número de puntos a lo largo de la curva. En el entrenamiento del modelo, es importante parametrizar cada curva 3D de forma que cada punto en la curva corresponde aproximadamente al mismo punto en la curva correspondiente en los otros ejemplos.
25 Contornos aparentes: Como para las curvas, muestreamos los contornos aparentes (en las imágenes). Sin embargo, no existe información 3D disponible para los contornos aparentes ya que dependen de la perspectiva. Una forma sencilla es tratar los puntos de los contornos aparentes como puntos 3D con una estimación de profundidad constante, aproximada (pero gruesa).
30 Encontrar características de la imagen
En el caso en línea de una nueva muestra de entrada, queremos encontrar automáticamente las variables latentes u y, a su vez, computar estimaciones de las características 3D t. El componente que falta en el modelo es la relación entre las características de imagen 2D y los valores en escala de grises (o color) subyacentes en esos píxeles.
35 Existen varias maneras de resolver esto, por ejemplo, utilizando un ASM (denominado el modelo de escala de grises) o enfoques basados en detectores.
El modelo de escala de grises
40 De nuevo, adoptamos un modelo lineal (PPCA). Utilizando la misma notación que en (1), pero ahora con el subíndice gl para escala de grises, el modelo puede escribirse
(4)
45 en donde tgl es un vector que contiene los valores en escala de grises de todas las características de imagen 2D y £gl es ruido gaussiano en las mediciones. En la fase de entrenamiento, cada muestra de datos de escala de grises se normaliza sustrayendo la media y escalando la varianza unitaria. La estimación de Ggl y µgl se computa con el algoritmo EM [5].
50 Procedimientos basados en detector
Los puntos y curvas de interés de imagen pueden encontrarse analizando el gradiente de imagen utilizando, por ejemplo, el detector de esquinas Harris. Además, filtros diseñados específicamente pueden utilizarse como detectores de características de imagen. Diseñando los filtros de forma que la respuesta a ciertas estructuras de imagen locales es alta, se pueden encontrar las características de imagen utilizando una convolución 2D.
Procedimientos de clasificación
5 Utilizando clasificadores como SVM, se pueden clasificar las regiones de imagen como correspondientes a una cierta característica o no. Combinando una serie de tales clasificadores, uno para cada tipo de característica (puntos, curvas, contornos, etc.) y escaneando la imagen a todas las escalas apropiadas se pueden extraer las características. Ejemplos pueden ser, por ejemplo, un detector de ojos para imágenes faciales.
Modelos deformables
Utilizar un modelo deformable como los Modelos de Contorno Activo, también denominados serpientes, de un cierta característica es muy común en el campo de la segmentación. Normalmente las características son curvas. El
15 proceso es iterativo y trata de optimizar una función de energía. Una curva inicial se deforma gradualmente para encajar de la mejor forma en una función de energía que puede contener términos que regulan la suavidad del encaje así como otras propiedades de la curva.
Encaje de superficie a los datos 3D
Una vez que se han recuperado los datos 3D, se puede encajar un modelo de superficie a la estructura 3D. Esto puede se deseable en el caso de que el procedimiento anterior de dos etapas produzca solamente un conjunto disperso de características en el espacio 3D tal como, por ejemplo, puntos y curvas espaciales. Incluso si estas indicaciones son características para una muestra en particular (o individual), es a menudo no suficiente para inferir
25 un modelo de superficie completo, y en particular, esto es difícil en las regiones en las que las características están dispersas. Por lo tanto, se introduce un modelo de superficie 3D consistente en la superficie media completa. Esto servirá como un regularizador de dominio específico, es decir, específico para una cierta clase de objetos. Este enfoque requiere que haya una información densa de forma 3D disponible para algunos ejemplos de entrenamiento en los datos de entrenamiento de la clase de objetos obtenida a partir de, por ejemplo, escáneres láser, o en el caso de imágenes médicas de, por ejemplo, MRI o tomografía computerizada. A partir de estas formas 3D densas, se puede construir un modelo separado del modelo de características anterior. Esto significa que, dada una forma recuperada 3D, en forma de puntos y curvas, a partir del modelo de características, puede calcularse la mejor forma densa según la forma 3D recuperada. Esta información de forma densa puede usarse para mejorar el encaje de superficie.
35 Para ilustrarlo con un ejemplo, considérese el caso de que una clase de objetos sean caras. El modelo es entonces aprendido utilizando, por ejemplo, curvas y contornos en imágenes junto con la forma real 3D correspondientes a estas características obtenidas de, por ejemplo, técnicas estéreo de múltiples perspectivas. Se crea y aprende entonces un segundo modelo utilizando, por ejemplo, escáneres láser de caras, resultando en un conjunto de superficies faciales. Este segundo modelo puede utilizarse para encontrar la superficie facial media (según el segundo modelo) más probable (o al menos altamente probable) correspondiente a las características o la forma 3D recuperada. Puede encajarse entonces una superficie 3D con la condición adicional de que cuando no haya una forma 3D recuperada, la superficie debería parecerse a la superficie facial media más probable.
45 Como segundo ejemplo, considérese el caso de que la clase de objetos sea un vaso sanguíneo en particular, por ejemplo, la aorta. Entonces, se aprende al modelo utilizando, por ejemplo, curvas y contornos en imágenes junto con la verdadera forma 3D obtenida como, por ejemplo, una imagen MRI 3D. A partir de las formas 3D se aprende a un segundo modelo que comprende la superficie de la aorta. Entonces, la superficie de aorta más probable (o altamente probable) puede recuperarse a partir de las características de imagen o a partir de la forma 3D recuperada por el modelo de forma primario.
El procedimiento proporciona la forma más probable o al menos altamente probable, en muchas aplicaciones esto es suficiente y el proceso de identificación y/o verificación no es necesario para la aplicación final.
55 Hemos ahora descrito el procedimiento subyacente utilizado con fines de verificación y/o identificación. En referencia ahora la Figura 3 se proporciona una descripción de un dispositivo 400 que implementa el procedimiento preferido según la presente invención. Tal dispositivo 400 puede ser cualquier tipo apropiado de dispositivo computacional tal como, pero no limitado a, un ordenador personal (PC), estación de trabajo, computador empotrado, o un dispositivo autónomo con una unidad de computación 401, tal como un microprocesador, DSP (procesador digital de señal), FPGA (matriz programable de puertas), o ASIC (circuito integrado de aplicación específica). El dispositivo 400 tiene algunos medios de entrada 404 para obtener imágenes para análisis y/o verificación o identificación final. Los medios de entrada 404 pueden ser de cualquier interfaz de comunicación adecuada dependiendo del tipo de imagen e incluyen, pero no se limitan a, USB (bus serie universal), digitalizador, Ethernet o Firewire. Los datos de imagen se transfieren a una unidad de computación 401 en la que reside software para la ejecución del procedimiento descrito
65 anteriormente según la presente invención. El dispositivo 400 puede además comprender alguna memoria volátil o no volátil 402 que contiene información relativa a un material de referencia con objetivos de comparación y/o análisis, por ejemplo, relaciones conocidas 2D-3D de objetos de interés. El dispositivo 400 puede además comprender medios de comunicación para comunicarse con otros dispositivos de comunicación sobre, por ejemplo, un protocolo de red (como Ethernet o protocolos similares) y medios de salida 405 para entregar resultados a por ejemplo una pantalla para su visionado conveniente a un dispositivo de control (no mostrado) para controlar un
5 proceso externo del que los objetos de interés son parte. Tales procesos pueden incluir, pero no se limitan a, procesos de producción industrial en los que los objetos pueden ser seleccionados o deseleccionados dependiendo del resultado del procedimiento de identificación y/o verificación según la presente invención, procesos de seguridad otra vez con objetivos de selección o deselección en, por ejemplo, sistemas de seguridad aeroportuaria para examinación de los contenidos de las maletas, bolsas u otros aparatos de equipaje, o aplicaciones médicas en las que la forma recuperada 3D puede usarse para, por ejemplo, navegación de instrumentos o dispositivos médicos.
El procedimiento de reconocimiento de objetos según la presente invención puede ilustrarse usando la Figura 4. El procedimiento puede comprender las siguientes etapas:
15 1. Obtener al menos una imagen de un objeto para ser identificado y/o verificado (501).
2.
Detectar características de imagen, tales como curvas, puntos y contornos aparentes (502).
3.
Analizar la imagen obtenida e inferir la forma 3D correspondiente a las características de imagen, utilizando un modelo de forma estadístico (503);
4.
Comparar el análisis con imágenes de referencia previamente obtenidos y comparar la forma 3D en una forma dispersa o densa con la forma 3D previamente obtenida (504); y
5.
Responder a una salida del proceso de comparación (505).
En otra realización de la presente invención se utiliza un sistema para obtener imágenes, analizar y responder a
25 resultados del proceso de identificación y/o verificación, como puede verse en la Figura 5. Tal sistema puede incluir por lo menos un dispositivo de adquisición de imagen 601, un dispositivo de computación 400, 603 como se describió anteriormente, y algún tipo de equipo receptivo tal como, por ejemplo, el equipo de proceso industrial o el equipo de proceso de seguridad descrito anteriormente. Al menos un dispositivo de adquisición de imagen 601 se utiliza para adquirir una o más imágenes que se transfieren 602 a un dispositivo de computación 603 para análisis y verificación y/o identificación. El resultado de este proceso se transmite a un sistema de control o a un sistema de visualización 604. En el caso de un sistema de detección de caras se obtiene al menos una imagen de una persona, por ejemplo la imagen de la cara de la persona, y la imagen o imágenes se transmiten al dispositivo de computación 603, utilizando cualquier medio de comunicación adecuado 602 (cableado o inalámbrico), para el análisis y comparación de la imagen adquirida o imágenes con datos obtenidos a partir de medidas de referencia por ejemplo
35 con relaciones 2D-3D conocidas; sin embargo, se puede hacer una comparación entre una forma 3D inferida con datos de referencia 3D almacenados o entre un modelo de superficie 2D con un modelo de superficie de referencia 2D almacenado. El resultado puede hacerse disponible mediante por ejemplo una unidad de visualización 604 y puede mostrarse con propósitos ilustrativos tanto con una imagen de referencia 605 y la imagen obtenida 606 o imágenes renderizadas a partir de la forma 3D recuperada como se muestra en la Figura 5. Debe ser apreciado por el experto en la materia que el sistema de adquisición de imagen y/o sistema de visualización/control puede estar incorporado al dispositivo de computación formando una unidad integral y que el resultado puede mostrarse de una forma adecuada y no se limita al ejemplo descrito con anterioridad. En vez de transferir el resultado a una unidad de visualización 604 puede usarse en cualquier proceso de control adecuado para controlar, por ejemplo, una alarma, un sistema de entrada, puerta de control, puerta de peaje, etc.
45 Algunos de los beneficios que aporta la presente invención al campo técnico, pueden ilustrarse con la siguiente lista:
Cualquier número de imágenes, incluso tan poco como una única imagen, puede utilizarse para recuperar automáticamente la forma 3D de un objeto en la clase de objetos.
Un modelo estadístico multi-perspectiva que representa datos 2D y 3D consistentemente.
El proceso es automático y computacionalmente eficiente.
El proceso es robusto a iluminación y reflexiones especulares, lo que es un problema para procedimientos de reconstrucción 3D basados en correlación de imágenes o fotoconsistencia.
• Se pueden encajar superficies a la estructura 3D utilizando regularizadores de dominio específico 55 aprendidos a partir de modelos estadísticos de forma.
La flexibilidad de la presente invención puede ilustrarse con la siguiente lista:
El modelo estadístico de forma puede usarse para cualquier clase de objetos y la proyección de estos objetos en imágenes.
El enfoque puede utilizarse para cualquier tipo de dispositivos de imágenes (cámara, Rayos X, multiespectral, termal, etc.).
• La invención puede usarse con cualquier número de dispositivos de imagen (uno o más). 65 • La invención incluye la posibilidad de combinar muchas técnicas diferentes para establecer
correspondencia 2D-3D (sistemas de adquisición de imagen, escáneres de rango, sistema de imagen estéreo, sistema de imagen estéreo de múltiple perspectiva. Rayos X, etc.)
• La invención incluye la posibilidad de utilizar diferentes técnicas, tales como ASM, procedimientos basados en gradiente, o modelos deformables para encontrar las características de imagen.
5 • Si la clase de objetos incluye objetos no rígidos, la invención incluye la posibilidad de establecer modelos de 2D a 3D para diferentes deformaciones del objeto (por ejemplo, diferentes expresiones faciales).
• La invención incluye la posibilidad de utilizar un modelo estadístico de forma para encajar la superficie a la forma 3D recuperada.
10 Las representaciones de referencia de objetos pueden almacenarse en varias ubicaciones diferentes y con diferentes tipos de sistemas, tales como, pero no limitados a, localmente en alguna memoria no volátil en un dispositivo que utiliza el reconocimiento de objetos según la presente invención, en un servidor centralizado, por ejemplo, un servidor de base de datos, o una tarjeta de identificación personal que contiene una representación de referencia de un objeto tal como una persona y esta tarjeta de identificación puede usarse por ejemplo en un sistema
15 de acceso. Comunicación entre un sistema de reconocimiento de objetos y un sistema de almacenamiento de representación de referencia puede utilizarse con diferentes de niveles de seguridad y/o esquemas, tales comoRADIO, DIAMÉTRO, SSL, SSH o cualquier otro sistema de comunicación encriptado como lo entendería el experto en la materia.
20 Las posibles áreas de aplicación para la invención descrita anteriormente van desde identificación de objetos y verificación en procesos industriales, determinar y/o identificar objetos por motivos de seguridad, reconocimiento de imágenes por motivos militares, por ejemplo, determinación automática de vehículos militares, barcos militares, aeronaves y similares, sistemas de reconocimiento facial para muchas aplicaciones diferentes, por ejemplo, biometría, seguridad de información, aplicación de leyes, tarjetas inteligentes, control de acceso y similares.
25 Las realizaciones mencionadas y descritas anteriormente se dan solo como ejemplos y no deberían limitar la presente invención. Otras soluciones, usos, objetivos y funciones dentro del alcance de la invención según se reivindica en las reivindicaciones descritas a continuación deberían ser aparentes para cualquier experto en la materia.

Claims (17)

  1. REIVINDICACIONES
    1. Un procedimiento para reconocimiento de objetos de un objeto tridimensional (307), 3D, que comprende las etapas de:
    5 -obtener al menos una representación bidimensional (606), 2D, de dicho objeto;
    -
    detectar características de imagen en dicha representación 2D (606) obtenida;
    -
    inferir una forma 3D dispersa correspondiente a las características de imagen utilizando una representración vectorial latente de dicha forma 3D dispersa y utilizando un modelo de forma estadístico multi-perspectiva. caracterizado por comprender además las etapas de
    -
    extender la forma 3D dispersa a una forma 3D densa encajando la superficie a dicha forma 3D dispersa utilizando un modelo de forma estadístico aprendido que consiste en una superficie media completa del objeto para regularizar dicha forma de superficie de forma específica para una clase
    15 de objetos;
    -
    comparar la forma 3D densa con formas 3D de referencia (605) obtenidas previamente; y por lo tanto
    -
    identificar un objeto individual de la clase de objetos.
  2. 2.
    El procedimiento según la reivindicación 1, en el que dicha forma 3D dispersa se infiere a partir de características 2D.
  3. 3.
    El procedimiento según la reivindicaciones 1 a 2, en el que dicha clase de objetos contiene objetos no
    rígidos y dicho modelo de forma estadístico es aprendido utilizando datos 2D y 3D específicos para posibles 25 deformaciones de los objetos en dicha clase de objetos no rígidos.
  4. 4.
    El procedimiento según cualquiera de las reivindicaciones 1 a 3, que comprende además la etapa de verificar la identidad de un objeto individual de una clase de objetos o ayudar en la verificación de la identidad de un objeto individual utilizando dicha forma 3D densa.
  5. 5.
    El procedimiento según las reivindicaciones 1 a 4, en el que dicho objeto (607) puede ser uno o varios de: una cara humana, un cuerpo humano, órgano(s) interno(s) de un cuerpo humano, vasos sanguíneos, animales, órganos internos de un animal, un tumor, producto(s) manufacturado(s) de un proceso industrial,
    35 un vehículo, una aeronave, un barco, objeto(s) militar(es).
  6. 6.
    El procedimiento según la reivindicación 1, en el que dichas formas 3D de referencia (605) se almacenan en al menos uno de una memoria no volátil, servidor de base de datos y tarjeta de identificación personal.
  7. 7.
    Un dispositivo (400) para reconocimiento de objetos de un objeto tridimensional (607), 3D, que comprende:
    -
    medios para obtener al menos una representación bidimensional (606), 2D, de dicho objeto;
    -
    medios para detectar características de imagen en dicha representación 2D (606) obtenida;
    45 -medios para inferir una forma 3D dispersa correspondiente a las características de imagen utilizando una representación vectorial latente de dicha forma 3D dispersa y utilizando un modelo de forma estadístico multi-perspectiva. caracterizado por comprender además medios para
    -
    extender la forma 3D dispersa a una forma 3D densa encajando la superficie a dicha forma 3D dispersa utilizando un modelo de forma estadístico aprendido que consiste en una superficie media completa del objeto para regularizar dicha forma de superficie de forma específica para una clase de objetos;
    -
    comparar la forma 3D densa con formas 3D de referencia (605) obtenidas previamente, y por lo
    tanto 55 identificar un objeto individual de la clase de objetos.
  8. 8.
    El dispositivo (400) según la reivindicación 7, en el que dicha forma 3D dispersa se infiere a partir de características 2D.
  9. 9.
    El dispositivo (400) según la reivindicaciones 7 a 8, en el que dicha clase de objetos contiene objetos no rígidos y dicho modelo de forma estadístico es aprendido utilizando datos 2D y 3D específicos para posibles deformaciones de los objetos en dicha clase de objetos no rígidos.
  10. 10.
    El dispositivo (400) según cualquiera de las reivindicaciones 7 a 9, que comprende además la etapa de
    verificar la identidad de un objeto individual de una clase de objetos o ayudar en la verificación de la identidad de un objeto individual utilizando dicha forma 3D densa.
  11. 11.
    El dispositivo (400) según las reivindicaciones 7 a 10, en el que dicho objeto (607) puede ser uno o varios
    5 de: una cara humana, un cuerpo humano, órgano(s) interno(s) de un cuerpo humano, vasos sanguíneos, animales, órganos internos de un animal, un tumor, producto(s) manufacturado(s) de un proceso industrial, un vehículo, una aeronave, un barco, objeto(s) militar(es).
  12. 12. El dispositivo (400) según las reivindicación 11, en el que dichas formas 3D densas de vasos sanguíneos o
    10 órganos recuperadas a partir de proyecciones 2D, por ejemplo, utilizando imágenes de Rayos X, se utilizan para navegar catéteres dirigibles o ayudar a médicos mostrando dicha forma 3D densa.
  13. 13. El dispositivo (400) según las reivindicación 11, en el que dichas formas 3D densas de características
    faciales se utilizan para identificar o para verificar la identidad de un individuo en un sistema de control de 15 acceso o sistema de seguridad, resultando en la aceptación o rechazo de dicho individuo.
  14. 14. El dispositivo (400) según las reivindicación 8, que comprende además una interfaz para comunicarse con una tarjeta de identificación personal en la que se almacenan dichas formas 3D de referencia.
    20 15. Un programa de ordenador almacenado en un medio legible por ordenador (402) que comprende una pluralidad de instrucciones que cuando son ejecutadas por una unidad de computación (901) hace que la unidad de computación lleve a cabo el procedimiento de cualquiera de las reivindicaciones 1 a 6.
  15. 16. Un sistema para reconocimiento de objetos de un objeto tridimensional, 3D, que comprende: 25
    -
    un dispositivo (400) según la reivindicación 7; y
    -
    medios para responder (604) a un resultado de dichos medios de comparación.
  16. 17. El sistema según la reivindicación 16, que comprende además medios para identificar y/o verificar un objeto
    30 individual de una clase de objetos o ayudar en dicha identificación y/o verificación de dicho individuo utilizando dicha forma 3D densa.
  17. 18. El sistema según la reivindicación 16, en el que dichas formas de referencia 3D se almacenan en al menos
    uno de una memoria no volátil, servidor de base de datos y tarjeta de identificación personal. 35
ES05771849T 2004-08-19 2005-08-11 Reconocimiento de objetos 3D Active ES2385041T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
SE0402048 2004-08-19
SE0402048A SE528068C2 (sv) 2004-08-19 2004-08-19 Igenkänning av 3D föremål
US60326604P 2004-08-23 2004-08-23
US603266P 2004-08-23
PCT/SE2005/001203 WO2006019350A1 (en) 2004-08-19 2005-08-11 3d object recognition

Publications (1)

Publication Number Publication Date
ES2385041T3 true ES2385041T3 (es) 2012-07-17

Family

ID=32960418

Family Applications (1)

Application Number Title Priority Date Filing Date
ES05771849T Active ES2385041T3 (es) 2004-08-19 2005-08-11 Reconocimiento de objetos 3D

Country Status (4)

Country Link
US (2) US8064685B2 (es)
AT (1) ATE551664T1 (es)
ES (1) ES2385041T3 (es)
SE (1) SE528068C2 (es)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100754387B1 (ko) * 2004-12-06 2007-08-31 삼성전자주식회사 그래픽 컨텐츠 제작장치와 방법 및 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록매체
US8004558B2 (en) * 2005-04-07 2011-08-23 Axis Engineering Technologies, Inc. Stereoscopic wide field of view imaging system
WO2006138525A2 (en) * 2005-06-16 2006-12-28 Strider Labs System and method for recognition in 2d images using 3d class models
JP4362489B2 (ja) * 2006-03-29 2009-11-11 日本電気株式会社 3次元顔データ登録システム、3次元顔データ登録方法、及び登録処理プログラム
US8073252B2 (en) * 2006-06-09 2011-12-06 Siemens Corporation Sparse volume segmentation for 3D scans
US20080004892A1 (en) * 2006-06-30 2008-01-03 Jerry Zucker Biometric aid for customer relations
WO2008134135A2 (en) * 2007-03-21 2008-11-06 Lumidigm, Inc. Biometrics based on locally consistent features
CA2735680A1 (en) * 2007-08-30 2009-03-05 Feeling Software Online shopping system and method using 3d reconstruction
US8488129B2 (en) * 2007-10-05 2013-07-16 Artec Group, Inc. Combined object capturing system and display device and associated method
JP5041229B2 (ja) * 2007-12-07 2012-10-03 ソニー株式会社 学習装置および方法、認識装置および方法、並びにプログラム
US20090157649A1 (en) * 2007-12-17 2009-06-18 Panagiotis Papadakis Hybrid Method and System for Content-based 3D Model Search
MX2011001831A (es) * 2008-08-18 2011-03-30 Waterloo Ind Inc Sistemas y disposiciones para identificacion de objetos.
JP2010266983A (ja) * 2009-05-13 2010-11-25 Sony Corp 情報処理装置及び方法、学習装置および方法、プログラム、並びに情報処理システム
US20100309290A1 (en) * 2009-06-08 2010-12-09 Stephen Brooks Myers System for capture and display of stereoscopic content
US20110080471A1 (en) * 2009-10-06 2011-04-07 Iowa State University Research Foundation, Inc. Hybrid method for 3D shape measurement
US8488873B2 (en) * 2009-10-07 2013-07-16 Apple Inc. Method of computing global-to-local metrics for recognition
RU2569532C2 (ru) * 2010-03-31 2015-11-27 Конинклейке Филипс Электроникс Н.В. Автоматическая идентификация анатомической части
US8655053B1 (en) 2010-05-31 2014-02-18 Andrew S Hansen Body modeling and garment fitting using an electronic device
US8908928B1 (en) 2010-05-31 2014-12-09 Andrew S. Hansen Body modeling and garment fitting using an electronic device
US8861800B2 (en) * 2010-07-19 2014-10-14 Carnegie Mellon University Rapid 3D face reconstruction from a 2D image and methods using such rapid 3D face reconstruction
US8655027B1 (en) * 2011-03-25 2014-02-18 The United States of America, as represented by the Director, National Security Agency Method of image-based user authentication
EP2702533A1 (en) 2011-04-28 2014-03-05 Koninklijke Philips N.V. Face location detection
WO2013014328A1 (en) * 2011-07-25 2013-01-31 Nokia Corporation Methods and apparatuses for facilitating locking and unlocking of secure functionality through object recognition
WO2013086137A1 (en) 2011-12-06 2013-06-13 1-800 Contacts, Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US8593452B2 (en) 2011-12-20 2013-11-26 Apple Inc. Face feature vector construction
US9792528B2 (en) * 2012-01-30 2017-10-17 Nec Corporation Information processing system, information processing method, information processing apparatus and control method and control program thereof, and communication terminal and control method and control program thereof
US20130314401A1 (en) 2012-05-23 2013-11-28 1-800 Contacts, Inc. Systems and methods for generating a 3-d model of a user for a virtual try-on product
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US8983201B2 (en) 2012-07-30 2015-03-17 Microsoft Technology Licensing, Llc Three-dimensional visual phrases for object recognition
JP6044293B2 (ja) * 2012-11-19 2016-12-14 株式会社Ihi 3次元物体認識装置および3次元物体認識方法
US8929644B2 (en) 2013-01-02 2015-01-06 Iowa State University Research Foundation 3D shape measurement using dithering
US9508120B2 (en) * 2013-07-08 2016-11-29 Augmented Reality Lab LLC System and method for computer vision item recognition and target tracking
US9973722B2 (en) 2013-08-27 2018-05-15 Qualcomm Incorporated Systems, devices and methods for displaying pictures in a picture
US9679412B2 (en) 2014-06-20 2017-06-13 Intel Corporation 3D face model reconstruction apparatus and method
WO2016068869A1 (en) * 2014-10-28 2016-05-06 Hewlett-Packard Development Company, L.P. Three dimensional object recognition
US9904867B2 (en) 2016-01-29 2018-02-27 Pointivo, Inc. Systems and methods for extracting information about objects from scene information
JP6871367B2 (ja) 2016-10-07 2021-05-12 トヨタ モーター ヨーロッパ オブジェクトを認識及び位置特定するための電気デバイス、システム及び方法
US11514642B2 (en) * 2016-10-08 2022-11-29 Purdue Research Foundation Method and apparatus for generating two-dimensional image data describing a three-dimensional image
CN107958435A (zh) * 2016-10-17 2018-04-24 同方威视技术股份有限公司 安检系统及配置安检设备的方法
US10242515B2 (en) * 2016-12-14 2019-03-26 Novetechnologies, LLC Livestock biosecurity system and method of use
JP6987508B2 (ja) * 2017-02-20 2022-01-05 オムロン株式会社 形状推定装置及び方法
US20180357819A1 (en) * 2017-06-13 2018-12-13 Fotonation Limited Method for generating a set of annotated images
WO2019015761A1 (en) 2017-07-20 2019-01-24 Toyota Motor Europe ELECTRONIC DEVICE, SYSTEM AND METHOD FOR DETERMINING THE INSTALLATION OF AN OBJECT
JP7047849B2 (ja) * 2017-12-14 2022-04-05 日本電気株式会社 識別装置、識別方法、および識別プログラム
EP3726463A4 (en) * 2017-12-14 2020-12-23 NEC Corporation LEARNING DEVICE, LEARNING PROCESS, SORTING PROCESS AND RECORDING MEDIA
WO2019169594A1 (en) * 2018-03-08 2019-09-12 Intel Corporation Methods and apparatus to generate three-dimensional (3d) model for 3d scene reconstruction
WO2019240749A1 (en) * 2018-06-11 2019-12-19 Hewlett-Packard Development Company, L.P. Model generation based on sketch input
IT201900001749A1 (it) * 2019-02-06 2020-08-06 Primeconcept S R L Sistema di controllo di un processo soggetto a regole di esecuzione.
US10853631B2 (en) 2019-07-24 2020-12-01 Advanced New Technologies Co., Ltd. Face verification method and apparatus, server and readable storage medium
EP3809314A1 (en) 2019-10-15 2021-04-21 Bentley Systems, Incorporated 3d object detection from calibrated 2d images background
KR20220038996A (ko) 2020-09-21 2022-03-29 삼성전자주식회사 특징 임베딩 방법 및 장치

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3578241D1 (de) 1985-06-19 1990-07-19 Ibm Verfahren zum identifizieren dreidimensionaler objekte mittels zweidimensionaler bilder.
US5063603A (en) 1989-11-06 1991-11-05 David Sarnoff Research Center, Inc. Dynamic method for recognizing objects and image processing system therefor
JP2919284B2 (ja) 1994-02-23 1999-07-12 松下電工株式会社 物体認識方法
US7194117B2 (en) * 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US6331116B1 (en) 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
AU9663098A (en) * 1997-09-23 1999-04-12 Enroute, Inc. Generating three-dimensional models of objects defined by two-dimensional image data
US6137896A (en) 1997-10-07 2000-10-24 National Research Council Of Canada Method of recognizing faces using range images
EP1039417B1 (en) 1999-03-19 2006-12-20 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Method and device for the processing of images based on morphable models
FR2798760B1 (fr) * 1999-09-17 2002-03-29 Univ Joseph Fourier Reconstitution de surfaces en trois dimensions par utilisation de modeles statistiques
CA2390695A1 (en) 1999-11-09 2001-05-17 The Victoria University Of Manchester Object class identification, verification or object image synthesis
US6879946B2 (en) * 1999-11-30 2005-04-12 Pattern Discovery Software Systems Ltd. Intelligent modeling, transformation and manipulation system
US6775397B1 (en) * 2000-02-24 2004-08-10 Nokia Corporation Method and apparatus for user recognition using CCD cameras
DE60133840T2 (de) * 2000-03-08 2009-06-10 Cyberextruder.Com, Inc. Vorrichtung und verfahren zur erzeugung einer dreidimensionalen darstellung aus einem zweidimensionalen bild
JP4341135B2 (ja) * 2000-03-10 2009-10-07 コニカミノルタホールディングス株式会社 物体認識装置
US6956569B1 (en) 2000-03-30 2005-10-18 Nec Corporation Method for matching a two dimensional image to one of a plurality of three dimensional candidate models contained in a database
GB0112773D0 (en) 2001-05-25 2001-07-18 Univ Manchester Object identification
GB0114271D0 (en) * 2001-06-12 2001-08-01 Univ Manchester Parameterisation
US6873718B2 (en) * 2001-10-12 2005-03-29 Siemens Corporate Research, Inc. System and method for 3D statistical shape model for the left ventricle of the heart
US7221809B2 (en) * 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
US20030161505A1 (en) * 2002-02-12 2003-08-28 Lawrence Schrank System and method for biometric data capture and comparison
US20030160786A1 (en) * 2002-02-28 2003-08-28 Johnson Richard K. Automatic determination of borders of body structures
CN1669052B (zh) * 2002-07-10 2010-05-26 日本电气株式会社 使用三维物体模型的图像匹配系统以及图像匹配方法
US7421097B2 (en) * 2003-05-27 2008-09-02 Honeywell International Inc. Face identification verification using 3 dimensional modeling
KR100682889B1 (ko) * 2003-08-29 2007-02-15 삼성전자주식회사 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
WO2006078265A2 (en) * 2004-03-30 2006-07-27 Geometrix Efficient classification of three dimensional face models for human identification and other applications
EP1810216B1 (en) 2004-08-19 2012-03-28 Apple Inc. 3d object recognition

Also Published As

Publication number Publication date
US20060039600A1 (en) 2006-02-23
US8064685B2 (en) 2011-11-22
SE0402048L (sv) 2006-02-20
SE528068C2 (sv) 2006-08-22
ATE551664T1 (de) 2012-04-15
US20120114251A1 (en) 2012-05-10
SE0402048D0 (sv) 2004-08-19
US9087232B2 (en) 2015-07-21

Similar Documents

Publication Publication Date Title
ES2385041T3 (es) Reconocimiento de objetos 3D
Dou et al. End-to-end 3D face reconstruction with deep neural networks
US10430551B2 (en) Scan data retrieval with depth sensor data
Paysan et al. A 3D face model for pose and illumination invariant face recognition
Wechsler Reliable Face Recognition Methods: System Design, Impementation and Evaluation
US7221809B2 (en) Face recognition system and method
Zhang Image Understanding
Peter et al. Improving ATM security via face recognition
Galteri et al. Deep 3d morphable model refinement via progressive growing of conditional generative adversarial networks
Li et al. Robust RGB-D face recognition using Kinect sensor
Yu et al. A video-based facial motion tracking and expression recognition system
EP1810216B1 (en) 3d object recognition
US11354940B2 (en) Method and apparatus for foreground geometry and topology based face anti-spoofing
Kruger et al. Statistical and deterministic regularities: Utilization of motion and grouping in biological and artificial visual systems
Abidi et al. Fusion of visual, thermal, and range as a solution to illumination and pose restrictions in face recognition
Yow Automatic human face detection and localization
Sukno et al. Projective active shape models for pose-variant image analysis of quasi-planar objects: Application to facial analysis
Turmukhambetov et al. Modeling object appearance using context-conditioned component analysis
Yilmaz Sensor fusion in computer vision
Dai et al. Research on recognition of painted faces
Krajíček Correspondence Problem in Geometrics Morphometric Tasks
Kumar et al. Automated human identification scheme using ear biometrics technology
Nguyen et al. A method for improving the constancy of cone shape and size perception using a single RGB-D image
van Dam From image sequence to frontal image: reconstruction of the unknown face: a forensic case
Maninchedda 3D Reconstruction of Human Heads and Faces from Images Captured in Uncontrolled Environments