ES2402957T3 - Rastreo eficaz y preciso de objetos tridimensionales - Google Patents

Rastreo eficaz y preciso de objetos tridimensionales Download PDF

Info

Publication number
ES2402957T3
ES2402957T3 ES08714340T ES08714340T ES2402957T3 ES 2402957 T3 ES2402957 T3 ES 2402957T3 ES 08714340 T ES08714340 T ES 08714340T ES 08714340 T ES08714340 T ES 08714340T ES 2402957 T3 ES2402957 T3 ES 2402957T3
Authority
ES
Spain
Prior art keywords
features
initial
new
vector
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES08714340T
Other languages
English (en)
Inventor
Dennis Tell
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seeing Machines Ltd
Original Assignee
Seeing Machines Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2007901129A external-priority patent/AU2007901129A0/en
Application filed by Seeing Machines Ltd filed Critical Seeing Machines Ltd
Application granted granted Critical
Publication of ES2402957T3 publication Critical patent/ES2402957T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

Un procedimiento de rastreo de un objeto en un flujo de imágenes de entrada, comprendiendo dicho procedimientoaplicar iterativamente las etapas de: (a) representar un modelo de objeto tridimensional, según un vector de estado predicho previamente a partir de un buclede rastreo anterior, o un vector de estado proveniente de una etapa de inicialización; (b) extraer una serie de rasgos puntuales de dicho objeto representado; (c) localizar los correspondientes rasgos puntuales en dicho flujo de imágenes de entrada; (d) obtener un nuevo vector de estado predicho a partir de dicho rasgo puntual localizado en el flujo de imágenes deentrada.

Description

Rastreo eficaz y preciso de objetos tridimensionales
Campo de la invención
La presente invención se refiere a procedimientos para la medición de la postura tridimensional (3D) de un objeto tridimensional. La invención ha sido desarrollada principalmente para su uso en el contexto del rastreo del rostro humano y será descrita a continuación en la presente memoria con referencia a esta aplicación. Sin embargo, se apreciará que la invención no está limitada a este campo específico de uso.
Antecedentes de la invención
Cualquier exposición de la tecnología anterior a lo largo de la especificación no debería ser considerada en modo alguno como una admisión de que tal tecnología anterior sea ampliamente conocida, o de que forme parte del conocimiento general común en el campo. El rastreo de rostros y rasgos faciales, tales como los ojos de una persona, ha atraído considerable interés durante la década anterior, según los ordenadores han llegado a ser lo suficientemente potentes como para habilitar soluciones prácticas para este problema. Hay dos enfoques conocidos que han sido propuestos para resolver este problema. El primer enfoque es un enfoque geométrico, utilizando rasgos puntuales tridimensionales en el rostro y un razonamiento geométrico para obtener la postura tridimensional. El segundo es una optimización no lineal de los parámetros de un modelo de apariencia. El primer enfoque, que usa rasgos puntuales, tiene la ventaja de ser determinístico. Los enfoques no iterativos brindan un tiempo breve y predecible para calcular la solución, y han sido populares para sistemas de tiempo real. Edwards et al (patente estadounidense Nº 7.043.056) revelan una propuesta típica de esta metodología. El segundo enfoque es un problema de optimización iterativa, no lineal, que, en general, es cara en términos de cálculo. Los trueques, en términos de precisión predecible de convergencia, son requeridos para lograr tiempos de cálculo predecibles. Según los parámetros de la modalidad de apariencia, una ventaja de este enfoque es que puede lograrse una mejor fidelidad de rastreo. Se entiende que la apariencia del objeto observado puede ser modelada y predicha más precisamente que con el enfoque de rasgos puntuales. Cootes et al 2001 (T. Cootes, G. Edwards y C. Taylor, “Modelos de apariencia activa”, Transacciones del IEEE sobre Análisis de Patrones e Inteligencia de Máquinas, 23(6):681-685, 2001), Cootes et al 2002 (T. Cootes, G. Wheeler, K.Walker y C. Taylor, “Modelos de apariencia activa basados en vistas”, Cálculo de Imagen y Visión, 20:657-664, 2002) y Matthews et al (I. Matthews y S. Baker, “Modelos de apariencia activa revisitados”, Revista Internacional de Visión por Ordenador, Vol. 60, Nº 2, Noviembre, 2004, págs. 135 a 164) revelan una típica implementación de esta metodología. De la Torre et al (F. De la Torre y M. Black, “Análisis de componentes robusto y parametrizado: teoría y aplicaciones de modelos bidimensionales de apariencia facial”, Visión por Ordenador y Comprensión de Imágenes 91 (2003) 53 a 71) revela el uso de un modelo de apariencia activa bidimensional específico de la persona, que no es capaz de rastrear una persona en tres dimensiones. Dornaika et al (F. Dornaika y J. Ahlberg “Adaptación de modelo facial usando correlación robusta y modelos de apariencia activa”, Anales del Sexto Taller del IEEE sobre Aplicaciones de la Visión por Ordenador, 2002 (WACV 2002), 3 a 7) y Hu et al (C. Hu, R. Feris y M. Turk “Redes de Ondículas Activas para Alineación de Rostros”, Anales de la Conferencia Británica de Visión por Máquina, Norwich, 2003) revelan la división de una cara representada en sub-rasgos, pero no logran modelar ni explotar la naturaleza solapada de los rasgos faciales. Un ejemplo típico para estas oclusiones ocurre cuando el rostro es visto en una visión de semi-perfil, donde la cresta de la nariz forma un borde sobre la mejilla opuesta. Los sistemas anteriores están limitados a la vista no ocluida de los rasgos, y fallan en cuanto los rasgos comienzan a solaparse, debido a la proyección de los rasgos faciales en la imagen. Debería apreciarse que los retos técnicos asociados a este problema son considerables, en particular, dado que un objeto como el rostro humano tiene grandes variaciones entre individuos, y el rostro es un objeto sumamente expresivo. Existe la necesidad en la técnica del rastreo automático de rostros humanos en secuencias de vídeo.
Resumen de la invención
Es un objeto de la presente invención proporcionar una forma mejorada del rastreo de objetos tridimensionales. De acuerdo a un primer aspecto de la presente invención, se proporciona un procedimiento de rastreo de un objeto en un flujo de imágenes de entrada, comprendiendo el procedimiento aplicar iterativamente las etapas de: (a) representar un modelo de objeto tridimensional según un vector de estado anteriormente predicho, a partir de un bucle de rastreo previo,
o del vector de estado de una etapa de inicialización; (b) extraer una serie de rasgos puntuales del objeto representado; (c) localizar los correspondientes rasgos puntuales en el flujo de imágenes de entrada; (d) obtener un nuevo vector de estado predicho a partir de las ubicaciones de rasgos puntuales en el flujo de imágenes de entrada. Este procedimiento también puede incluir etapas de inicialización de (i) creación de un modelo tridimensional del objeto a
rastrear; (ii) detección inicial de la posición de los objetos dentro de un flujo de imágenes de entrada. La etapa (d) incluye preferiblemente la etapa adicional de: seleccionar un conjunto de rasgos congruentes, seguida por un filtrado de Kalman de los rasgos, para proporcionar el nuevo vector de estado.
El objeto puede comprender un rostro y el vector de estado puede comprender la postura tridimensional del rostro. En una realización, la selección de un conjunto de rasgos comprende la selección por consenso de muestras aleatorias (RANSAC) de los rasgos. La etapa de localización, preferiblemente, puede incluir utilizar un proceso de correlación cruzada normalizada para localizar los rasgos puntuales.
Debería apreciarse que las realizaciones de la presente invención han sido desarrolladas principalmente en el contexto del rastreo del rostro humano. Sin embargo, la presente invención es aplicable a otros dominios, donde la postura tridimensional de un objeto arbitrario ha de ser medida visualmente. De acuerdo a un segundo aspecto de la presente invención, se proporciona un procedimiento según cualquier procedimiento anteriormente descrito del rastreo de un objeto en un flujo de imágenes de entrada, comprendiendo el procedimiento las etapas de:
(i)
crear un modelo tridimensional del objeto a rastrear;
(ii)
localizar puntos de rasgos iniciales en un flujo inicial de imágenes de entrada; y
(iii) calcular un vector de estado inicial indicativo de la ubicación del objeto dentro del flujo de imágenes de entrada, en donde el vector de estado inicial se calcula minimizando el error de cuadrados entre los puntos de rasgos localizados iniciales y los correspondientes puntos de rasgos iniciales del modelo tridimensional proyectado en el plano de imágenes.
En el procedimiento, optativamente, en la etapa (a), el modelo del objeto concuerda, bien con el vector de estado predicho calculado en la etapa (d) de una iteración previa, o bien con el vector de estado inicial calculado en la etapa (ii), en donde la representación incluye calcular una máscara para el flujo de imágenes de entrada, para distinguir entre píxeles de fondo y de frente; y / o incluye, en la etapa (b), calcular un número predefinido de rasgos puntuales del objeto representado, en donde el número predefinido de ubicaciones con la mayor angulosidad son seleccionadas como rasgos a partir de la imagen representada de la iteración previa para la siguiente etapa de localización. La etapa de localización, preferiblemente, usa una correlación de plantilla enmascarada normalizada para calcular los nuevos rasgos puntuales localizados.
El nuevo vector de estado, preferiblemente, es calculado usando la selección por Consenso de Muestras Aleatorias, y seguido por un filtro de Kalman, para estimar el nuevo vector de estado. El filtro de Kalman, preferiblemente, usa un modelo de movimiento de aceleración constante del objeto para predecir el nuevo vector de estado del objeto a partir de vectores de estado previamente calculados y de los nuevos rasgos puntuales localizados.
De acuerdo a un tercer aspecto de la revelación, se proporciona un programa de ordenador o producto de programa de ordenador que comprende un conjunto de instrucciones para llevar a cabo un procedimiento según cualquier procedimiento previamente descrito del rastreo de un objeto en un flujo de imágenes de entrada. De acuerdo a un cuarto aspecto de la revelación, se proporciona un medio portador legible por ordenador que lleva un conjunto de instrucciones que, cuando son ejecutadas por uno o más procesadores, hacen que uno o más procesadores lleven a cabo un procedimiento de rastreo de un objeto en un flujo de imágenes de entrada, según lo anteriormente descrito.
El medio portador, preferiblemente, puede ser un medio que lleva una señal propagada, detectable por al menos un procesador entre dichos uno o más procesadores, y que representa al conjunto de instrucciones. De acuerdo a un quinto aspecto de la revelación, se proporciona un sistema para rastrear un objeto en un flujo de imágenes de entrada, comprendiendo el sistema un procesador adaptado para recibir un flujo de imágenes de entrada, y el procesador está adicionalmente adaptado para realizar un procedimiento de rastreo de un objeto en un flujo de imágenes de entrada, según lo anteriormente descrito.
De acuerdo a un sexto aspecto de la presente invención, se proporciona un sistema para rastrear un objeto en un flujo de imágenes de entrada, comprendiendo el sistema un procesador adaptado para recibir un flujo de imágenes de entrada, y el procesador está adicionalmente adaptado para realizar las etapas de:
(i)
crear un modelo tridimensional del objeto a rastrear; (ii) localizar puntos de rasgos iniciales en un flujo inicial de imágenes de entrada; (iii) calcular un vector de estado inicial indicativo de la ubicación del objeto dentro del flujo de imágenes de entrada, en donde el vector de estado inicial se calcula minimizando el error de cuadrados entre los puntos de rasgos localizados iniciales y los correspondientes puntos de rasgos iniciales del modelo tridimensional proyectado en el plano de imágenes;
(a)
representar un modelo de objeto tridimensional, en donde el modelo de objeto concuerda, bien con el vector de estado predicho calculado en la etapa (d) de una iteración previa, o bien el vector de estado inicial calculado en la etapa (ii), en
donde la representación incluye calcular una máscara para el flujo de imágenes de entrada, para distinguir entre píxeles de fondo y de frente;
(b)
calcular un número predefinido de rasgos puntuales a partir del objeto representado, en donde el número predefinido de ubicaciones con la mayor angulosidad son seleccionadas como rasgos a partir de la imagen representada de la iteración previa para la siguiente etapa de localización;
(c)
localizar los correspondientes rasgos puntuales en el flujo de imágenes de entrada;
(d)
calcular un nuevo vector de estado a partir de los rasgos puntuales localizados en el flujo de imágenes de entrada; y
(e)
realizar iterativamente las etapas (a) a (d) para proporcionar en cada iteración el nuevo vector de estado actualizado a partir de los rasgos puntuales localizados.
El procesador, preferiblemente, está adaptado para realizar una correlación de plantilla normalizada enmascarada, para calcular nuevos rasgos puntuales localizados. El procesador, preferiblemente, está adaptado para aplicar los nuevos rasgos puntuales localizados en un filtro de Kalman, para calcular el nuevo vector de estado.
La invención tiene aplicación específica en la valoración del rendimiento humano, la evaluación de la ergonomía del diseño de interfaces hombre-máquina, en aplicaciones de seguridad para monitorizar la distracción y la fatiga, y en aplicaciones de entretenimiento, donde las mediciones son tomadas a partir de una persona real, para ser luego representadas por un ordenador en un avatar.
Breve descripción de los dibujos
Se describirá ahora una realización preferida de la invención, solamente a modo de ejemplo, con referencia a los dibujos adjuntos, en los cuales:
la FIG. 1 es un diagrama de flujo de un procedimiento según una realización de la invención; la FIG. 2 es un diagrama de flujo de un procedimiento similar al de la Fig. 1, que muestra etapas de inicializaciones; la FIG. 3 es una vista esquemática de un sistema según una realización de la invención; y la FIG. 4 es una vista esquemática de un sistema según una realización de la invención, mostrada al rastrear un objeto tridimensional.
Descripción de la realización preferida, y otras
El procedimiento propuesto incorpora las ventajas tanto de la alta precisión en la apariencia predicha (y, por lo tanto, de alta fidelidad) como del cómputo rápido y predecible del cálculo de rasgos puntuales. La realización preferida se refiere a procedimientos para una medición visual sumamente precisa, y a la vez eficaz, de la postura tridimensional de un objeto tridimensional. Debería apreciarse que la postura tridimensional es una medida indicativa de una ubicación y orientación tridimensional, habitualmente representadas como seis parámetros. El procedimiento utiliza componentes de procedimientos de rastreo basados en rasgos, con procedimientos basados en la apariencia, denominados “modelos de apariencia activa”. El resultado es un procedimiento sumamente eficaz y preciso para rastrear y medir visualmente la postura de un objeto.
Panorama general de la realización preferida
Con referencia a la FIG. 1, se revela una representación 100 en diagrama de flujo de un procedimiento según una realización de la presente invención, y este procedimiento comprende las etapas de:
(a)
representar un modelo de rostro tridimensional según un vector de estado predicho; 120
(b)
extraer un cierto número de rasgos puntuales de la imagen del rostro representado; 140
(c)
localizar rasgos puntuales; 160 y
(d)
obtener un nuevo vector de estado a partir de las ubicaciones 180 de rasgos puntuales.
Con referencia a la FIG. 2, una etapa inicial de un procedimiento 200, según la realización preferida (y otros procedimientos relacionados), incluye crear un modelo 210 tridimensional adecuado de un rostro que ha de ser rastreado – o, equivalentemente, un objeto que ha de ser rastreado. Dentro de este procedimiento, la caracterización del modelo depende del tipo de procedimiento de rastreo. Solamente a modo de ejemplo, el modelo usado en el procedimiento según la realización preferida consiste en un modelo tridimensional texturizado de un rostro. Este modelo permite una representación por ordenador del rostro en cualquier posición y orientación. La localización de un rostro dentro de una imagen 215 proporciona una ubicación facial estimada inicial. Una vez que la ubicación facial está identificada dentro de una imagen, la textura es correlacionada con un modelo tridimensional genérico de un rostro, proyectando la textura sobre los vértices. Solamente a modo de ejemplo, Loy et al (Tratado de Cooperación en Patentes, Solicitud Nº PCT / AU 2003 / 000345, Número de Publicación WO / 2003 / 081532) revela un procedimiento usado para identificar la ubicación facial dentro de una imagen.
Debería ser apreciado por una persona experta en la técnica que la textura es correlacionada con un modelo tridimensional genérico de un rostro, proyectando la textura sobre los vértices. Solamente a modo de ejemplo, un procedimiento de correlación de textura se describe en Dornaika et al.
5 Después de que las etapas anteriores de inicialización se han realizado, se ingresa a un bucle principal de rastreo. Este bucle de rastreo utiliza el modelo tridimensional texturizado y estima el vector de estado del rostro para cada imagen en un flujo de imágenes. Las etapas implicadas en este bucle de rastreo se describen a continuación:
10 (1) Representar un modelo de rostro tridimensional según un vector de estado predicho, 120. Este vector de estado predicho, preferiblemente, se obtiene de un bucle de rastreo previo o de un vector de estado proveniente de las etapas de inicialización.
(2)
Extraer un cierto número de rasgos puntuales de la imagen facial representada, 140.
(3)
Localizar rasgos puntuales, 160. La localización de rasgos puntuales se obtiene con un procedimiento adecuado de
15 localización de rasgos puntuales. En la realización preferida, el procedimiento de localización de rasgos puntuales es la correlación cruzada normalizada.
(4) Obtener un nuevo vector de estado a partir de las ubicaciones 180 de rasgos puntuales. En la realización preferida, la obtención de este nuevo vector de estado a partir de las ubicaciones de rasgos puntuales se realiza mediante la selección por “Consenso de Muestras Aleatorias “(RANSAC) de un conjunto de rasgos congruentes, y es seguida por un filtro de
20 Kalman, para estimar el nuevo vector de estado que, en el caso actual, es la postura tridimensional. Este bucle de rastreo, que comprende las etapas (1) a (4), puede ser iterado indefinidamente, o bien hasta que falle el rastreo del rostro y se requiera una nueva inicialización.
Solamente a modo de ejemplo, se describen a continuación etapas individuales en más detalle. 25 Etapa (0) – Inicialización
La inicialización requiere la localización del rostro como un todo y rasgos individuales clave. En la realización preferida, un procedimiento revelado por Loy et al es utilizado para la producción de esta localización. Este procedimiento permite la localización del rostro, la ubicación de los cuatro vértices oculares, las fosas nasales, si son visibles, y las dos comisuras
30 de la boca. Estos rasgos son representados como puntos R = {ri E R3} de referencia del modelo. Dado que este modelo tridimensional usa un modelo tridimensional rígido, solamente se necesita estimar seis parámetros de postura (por ejemplo, que incluyan tres de traslación y tres de rotación) para ajustar un modelo genérico tridimensional de geometría facial a la imagen. Este modelo genérico ‘M’ comprende los vértices vi de esquina y las superficies sj planas triangulares, y aproxima una geometría facial media. Este modelo genérico puede ser expresado en la siguiente ecuación.
M = { vi E R3, sj }
Debería ser apreciado por una persona experta en la técnica que la representación de una superficie como una pluralidad de triángulos adyacentes es una técnica usada en la representación y modelización gráfica tridimensional. Sin embargo,
40 también debería ser apreciado que otros modelos son adecuados para su uso en la presente invención. Solamente a modo de ejemplo, este modelo captura un rostro desde la frente hasta la barbilla (habitualmente, en la dirección vertical), y el área hasta las orejas (habitualmente en la dirección horizontal). Este modelo excluye el pelo de la persona.
45 La postura tridimensional P = {rp E R3, tp E R3}, que comprende los componentes de rotación rp E R3 y los componentes de traslación tp E R3, es estimada alineando el modelo tridimensional con los rasgos de imagen localizados. Solamente a modo de ejemplo, esta alineación puede hacerse de modo que el error de cuadrados entre los puntos de referencia del modelo tridimensional proyectado en el plano R(p) de imagen y las ubicaciones de imágenes de los puntos Ri de imagen sea minimizado. Esta minimización de alineación puede ser representada por la siguiente ecuación.
Dornaika et al describe un procedimiento que usa una hipótesis de perspectiva débil, que es utilizada en la realización preferida. Debería ser apreciado por una persona experta en la técnica que hay un cierto número de técnicas de optimización que pueden ser usadas para realizar la alineación de modelos.
55 La textura para cada triángulo del modelo puede ser extraída de una imagen y almacenada con un modelo geométrico tridimensional, combinando la geometría tridimensional y la textura para determinar un modelo tridimensional requerido para el rastreo. La postura
de cabeza predicha después de la inicialización es equivalente a la postura Pinic del modelo tridimensional ajustado.
Etapa (1) – Representación
En la etapa de representación, el modelo facial tridimensional texturizado es habitualmente representado según la postura
5 de la cabeza, según lo predicho por la etapa de estimación de estado (o la etapa de inicialización si esta es la primera iteración). Esto puede ser calculado usando procedimientos comunes de gráficos por ordenador, conocidos para una persona experta en la técnica. Debería ser apreciado que puede usarse hardware (por ejemplo, una tarjeta de gráficos tridimensionales) y / o software (por ejemplo, OpenGL) para acelerar esta etapa. La persona experta en la técnica está al tanto de estas técnicas. La salida de esta etapa incluye una imagen facial representada y una máscara para distinguir entre los píxeles que son del fondo y los píxeles que son del frente.
Etapa (2) – Extracción de rasgos
15 Se selecciona un conjunto de rasgos F = {fk} para su uso en las siguientes etapas. En la realización preferida, el conjunto de rasgos son dinámicos y pueden variar en cada ciclo de rastreo para optimizar la robustez. Debería apreciarse que, solamente a modo de ejemplo, los procedimientos de extracción de rasgos pueden usar bien una imagen facial representada como imagen entera (por ejemplo, según lo revelado en Cootes et al 2001 y Cootes et al 2002), los vértices extraídos del modelo (por ejemplo, según lo revelado en Dornaika et al), o bien conjuntos de rasgos extraídos de una vista frontal sin oclusiones. Un inconveniente asociado al uso del rostro representado entero es que el vector de estado solamente puede ser calculado de manera iterativa y cara en términos de cálculo. Según la métrica de distancia usada para establecer la similitud de la imagen representada con la imagen en vivo de la cámara, este enfoque habitualmente tiene una significativa sensibilidad a condiciones de iluminación no homogéneas. Los vértices o rasgos pre-extraídos pueden carecer de la
25 capacidad de modelar y explotar los bordes creados a partir de la auto-oclusión parcial del rostro, debido a la oclusión, por la cresta de la nariz, de la mejilla opuesta cuando la cabeza se gira levemente. Para superar estas limitaciones, el procedimiento revelado en la presente memoria usa rasgos calculados a partir de la imagen representada en una iteración previa de rastreo. Un número predefinido de ubicaciones con la mayor angulosidad se seleccionan como rasgos provenientes de la imagen representada de la iteración anterior, para la siguiente etapa de localización. La angulosidad ‘e’ de la ubicación (x, y) en la imagen ‘I’ se define como la magnitud del gradiente de la ubicación de la imagen, según lo calculado usando la siguiente ecuación.
Se realiza una búsqueda exhaustiva para hallar los fk con los mayores valores de gradiente en la imagen. La salida de 35 esta etapa incluye un conjunto de rasgos de rastreo F = {fk}.
Etapa (3) – Localización de rasgos
Los rasgos seleccionados en la etapa anterior deben ser localizados en una imagen recientemente adquirida del rostro. Debería ser apreciado por una persona experta en la técnica que esta localización podría ser calculada usando un cierto número de procedimientos usados para la localización y rastreo de rasgos. En la realización preferida, se usa una correlación de plantilla enmascarada normalizada para calcular la nueva ubicación de los rasgos.
Para la localización, se extrae una plantilla de 16x16 píxeles, centrada en la ubicación fk del rasgo, de la imagen 45 representada, y se enmascara con la máscara de representación del rostro, para excluir todo píxel de fondo que pudiera ser parte de la región definida por la plantilla de 16x16 píxeles.
Una persona experta en la técnica está al tanto de la formulación, comúnmente usada, de correlación cruzada
superior izquierda está sobre el píxel (u,v). Además, las sumas y la media de la imagen están sujetas al enmascaramiento,
es decir, sin considerar los píxeles que están excluidos por enmascaramiento.
Alrededor de la posición predicha de cada rasgo, se sitúa una ventana de búsqueda. Dentro de esta ventana de búsqueda, se realiza una búsqueda exhaustiva para hallar la ubicación del rasgo con la precitada técnica de correlación. La ubicación de ese punto (o píxel) con el mayor puntaje de correlación es seleccionada como la nueva ubicación fk de rasgo.
La salida de la etapa de localización de rasgos incluye las nuevas ubicaciones F de rasgos para el conjunto de rasgos F seleccionados.
Etapa (4) – Estimación de Estados
En la realización preferida, solamente a modo de ejemplo, el vector de estado consiste solamente en los seis parámetros tridimensionales de postura. Este vector de estado puede ser calculado aplicando las nuevas ubicaciones de rasgos en un filtro de Kalman, del tipo revelado por Edwards et al. Este filtro de Kalman utiliza un modelo de movimiento de aceleración constante del rostro para predecir la nueva posición del rostro a partir de estimaciones anteriores y las mediciones
recientemente adquiridas. El filtro de Kalman también puede permitir la predicción del vector
de estado de postura de la cabeza para la próxima trama de imagen.
La salida de la etapa de estimación de estados incluye el vector
de estado predicho, que es remitido a la etapa de representación en la próxima iteración del algoritmo. Debería ser apreciado que las etapas (1) a (4) pueden ser aplicadas iterativamente para proporcionar un procedimiento relativamente eficaz y preciso para el rastreo de objetos tridimensionales.
Solamente a modo de ejemplo, una realización de un procedimiento de rastreo de un objeto en un flujo de imágenes de entrada comprende las etapas de:
(i)
crear un modelo tridimensional del objeto a rastrear;
(ii)
localizar puntos iniciales de rasgos en un flujo inicial de imágenes de entrada;
(iii) calcular un vector de estado inicial indicativo de la ubicación del objeto dentro del flujo de imágenes de entrada, en donde el vector de estado inicial es calculado minimizando el error de cuadrados entre los puntos iniciales de rasgos localizados y los correspondientes puntos de rasgos iniciales del modelo tridimensional proyectado en el plano de imágenes;
(a)
representar un modelo de objeto tridimensional, en donde el modelo de objeto concuerda, bien con el vector de estado predicho calculado en la etapa (d) de una iteración previa, o bien con el vector de estado inicial calculado en la etapa (ii), en donde la representación incluye calcular una máscara para el flujo de imágenes de entrada, para distinguir entre píxeles de fondo y de frente;
(b)
calcular un número predefinido de rasgos puntuales a partir del objeto representado, en donde el número predefinido de ubicaciones con la mayor angulosidad son seleccionadas como rasgos a partir de la imagen representada de la iteración previa, para la siguiente etapa de localización;
(c)
localizar los correspondientes rasgos puntuales en el flujo de imágenes de entrada;
(d)
calcular un nuevo vector de estado a partir de los rasgos puntuales localizados en el flujo de imágenes de entrada; y
(e)
realizar iterativamente las etapas (a) a (d) para proporcionar en cada iteración el nuevo vector de estado actualizado a partir de los rasgos puntuales localizados. Debería apreciarse adicionalmente que este procedimiento puede ser realizado en tiempo real o sobre datos de vídeo en vivo.
Debería apreciarse que los procedimientos anteriores pueden ser realizados, al menos en parte, por un programa de ordenador. Un programa de ordenador, o producto de programa de ordenador, que comprende un conjunto de instrucciones para llevar a cabo un procedimiento según lo descrito anteriormente. Un medio portador legible por ordenador puede realizar los procedimientos anteriores. Este medio portador legible por ordenador lleva un conjunto de instrucciones que, cuando son ejecutadas por uno o más procesadores, hacen que uno o más procesadores lleven a cabo un procedimiento según un procedimiento anteriormente descrito. Este medio portador es un medio que lleva una señal propagada, detectable por el menos un procesador entre dichos uno o más procesadores, y que representa al conjunto de instrucciones.
La FIG. 3 revela una vista esquemática de un sistema según una realización. Un sistema 310 de ordenador incluye un procesador 312 adaptado para realizar las etapas de:
(a)
representar un modelo facial tridimensional según un vector de estado predicho;
(b)
extraer un cierto número de rasgos puntuales de la imagen facial representada;
(c)
localizar rasgos puntuales; y
(d)
obtener un nuevo vector de estado a partir de las ubicaciones de rasgos puntuales.
En una realización, el procesador 312 está adaptado para recibir datos de modelos desde un dispositivo 314 de almacenamiento de datos. Estos datos de modelos son indicativos de un modelo tridimensional adecuado de un rostro (u objeto) que ha de ser rastreado. Debería apreciarse que, en una realización alternativa, los datos de modelos pueden ser recibidos desde un dispositivo externo de almacenamiento de datos.
En una realización, el procesador 312 está adicionalmente adaptado para recibir datos de vídeo en vivo desde un dispositivo 320 de captura de vídeo. Debería apreciarse que, en una realización alternativa, los datos de vídeo pueden ser recibidos desde un dispositivo de almacenamiento de datos (por ejemplo, el dispositivo 314 de almacenamiento de datos). El procesador está adaptado para localizar un rostro (u objeto) dentro de una imagen para proporcionar una ubicación facial estimada inicial. Una vez que la ubicación facial está identificada dentro de una imagen, la textura se correlaciona con un modelo tridimensional genérico de un rostro, proyectando la textura sobre los vértices. La FIG. 4 revela una vista esquemática de una realización que muestra el rastreo de un objeto tridimensional 410 en tiempo real. En esta realización, un sistema 310 de ordenador está acoplado con un dispositivo de captura de vídeo, en forma de una cámara 320 de vídeo. La cámara de vídeo está adaptada para transmitir datos de vídeo, que son recibidos por el sistema de ordenador. El sistema de ordenador realiza un procedimiento de medición de la postura tridimensional (3D) de un objeto tridimensional, según lo anteriormente revelado. Los datos indicativos de la postura tridimensional medida pueden ser emitidos en un dispositivo 420 de salida. Debería apreciarse que, en una realización alternativa, los datos indicativos de la postura tridimensional medida pueden ser almacenados en un dispositivo de almacenamiento de datos, para su extracción posterior.
Variaciones
Un cierto número de variaciones de la realización anterior pueden incluir el uso de más de una cámara y el uso de procedimientos alternativos empleados en las etapas individuales de cálculo.
A menos que el contexto requiera claramente lo contrario, a lo largo de la descripción y las reivindicaciones, las palabras “comprender”, “comprende” y similares han de ser interpretadas en un sentido inclusivo, a diferencia de un sentido exclusivo o exhaustivo; es decir, en el sentido de “incluso, pero no limitado a”.
Según se usa en la presente memoria, a menos que se especifique lo contrario, el uso de los adjetivos ordinales “primero”, “segundo”, “tercero”, etc., para describir un objeto común, indica meramente que se están mencionando distintas instancias de objetos iguales, y no están concebidos para implicar que los objetos así descritos deben estar en una secuencia dada, ya sea temporalmente, espacialmente, en clasificación, o de cualquier otra manera.
A menos que se indique específicamente lo contrario, según lo manifiesto a partir de las siguientes exposiciones, ha de apreciarse que, a lo largo de la especificación, las exposiciones que utilizan términos tales como “procesamiento”, “cómputo”, “cálculo”, “determinación”, “aplicación”, “obtención” o similares, se refieren a la acción y / o a los procesos de un ordenador o sistema informático, o equipo informático electrónico similar, que manipula y / o transforma datos representados como cantidades físicas, tal como electrónicas, en otros datos, similarmente representados como cantidades físicas.
De manera similar, el término “procesador” puede referirse a cualquier dispositivo, o parte de un dispositivo, que procesa datos electrónicos, p. ej., de registros y / o memoria, para transformar esos datos electrónicos en otros datos electrónicos que, p. ej., pueden ser almacenados en registros y / o memoria. Un “ordenador”, o un “sistema informático”, o una “máquina calculadora”, o una “plataforma de cálculo”, puede incluir uno o más procesadores.
Se entenderá que las etapas de procedimientos expuestos son realizados en una realización por un procesador (o procesadores) adecuado(s) de un sistema (es decir, un ordenador) de procesamiento que ejecuta instrucciones (código legible por ordenador) almacenadas en un almacenamiento. También se entenderá que la invención no está limitada a ninguna implementación o técnica de programación específica, y que la invención puede ser implementada usando técnicas adecuadas cualesquiera para implementar la funcionalidad descrita en la presente memoria. La invención no está limitada a ningún lenguaje de programación ni sistema operativo específico.
Debería apreciarse que algunas de las realizaciones son descritas en la presente memoria como un procedimiento o combinación de elementos de un procedimiento que pueden ser implementados por uno o más procesadores de un sistema informático, o por otro medio de llevar a cabo la función. De tal modo, un procesador con las instrucciones necesarias para llevar a cabo un tal procedimiento, o elemento de un procedimiento, forma un medio para llevar a cabo el procedimiento, o elemento de un procedimiento. Además, un elemento descrito, en la presente memoria, de una realización de un aparato, es un ejemplo de un medio para llevar a cabo la función realizada por el elemento, con el fin de llevar a cabo la invención.
En realizaciones alternativas, el sistema informático que comprende uno o más procesadores funciona como un dispositivo autónomo, o puede ser configurado, p. ej., en red con otro(s) procesador(es), en un despliegue en red. Dicho(s) procesador(es) puede(n) funcionar en capacidad de servidor o máquina cliente en un entorno de red de servidor y cliente,
o como una máquina del mismo rango en un entorno de red de igual a igual, o distribuida. De tal modo, una realización de cada uno de los procedimientos descritos en la presente memoria está en forma de un medio portador legible por ordenador, que lleva un conjunto de instrucciones, p. ej., un programa de ordenador que ha de ejecutarse en uno o más procesadores.
La referencia, a lo largo de esta especificación, a “una realización” significa que un rasgo, estructura o característica específica, descrita con respecto a la realización, está incluida en al menos una realización. Así, no todas las apariciones de la frase “en una realización” en diversos lugares a lo largo de esta especificación están refiriéndose necesariamente a la misma realización, pero pueden referirse a la misma realización. Además, los rasgos, estructuras o características específicas pueden combinarse de cualquier manera adecuada, como será evidente para alguien medianamente experto en la técnica a partir de esta revelación, en una o más realizaciones.
De manera similar, debería apreciarse que, en la descripción anterior de realizaciones ejemplares de la invención, diversas características de la invención se agrupan a veces entre sí en una única realización, figura o descripción de la misma, con el fin de afinar la revelación y ayudar a la comprensión de uno o más de los diversos aspectos inventivos. Este procedimiento de revelación, sin embargo, no ha de interpretarse como reflejo de una intención de que la invención reivindicada requiere más características que las expresamente indicadas en cada reivindicación. Antes bien, como reflejan las siguientes reivindicaciones, los aspectos inventivos se apoyan en menos de todas las características de una única realización precedente revelada. Así, las reivindicaciones a continuación de la Descripción Detallada son por lo tanto expresamente incorporadas en esta Descripción Detallada, destacándose cada reivindicación como una realización individual de esta invención.
Además, si bien algunas realizaciones descritas en la presente memoria incluyen algunas de, pero no todas, las otras características incluidas en otras realizaciones, las combinaciones de características de distintas realizaciones están concebidas para estar dentro del alcance de la invención, y formar distintas realizaciones, como entenderán los expertos en la técnica. Por ejemplo, en las siguientes reivindicaciones, cualquiera entre las realizaciones reivindicadas puede ser usada en cualquier combinación.
En la descripción proporcionada en la presente memoria, se estipulan numerosos detalles específicos. Sin embargo, se entiende que las realizaciones de la invención pueden ser puestas en práctica sin estos detalles específicos. En otros casos, procedimientos, estructuras o técnicas bien conocidas no han sido mostrados en detalle, a fin de no oscurecer la comprensión de esta descripción.
Aunque la invención ha sido descrita con referencia a ejemplos específicos, los expertos en la técnica apreciarán que la invención puede ser realizada de muchas otras maneras.

Claims (16)

  1. REIVINDICACIONES
    1. Un procedimiento de rastreo de un objeto en un flujo de imágenes de entrada, comprendiendo dicho procedimiento aplicar iterativamente las etapas de:
    (a)
    representar un modelo de objeto tridimensional, según un vector de estado predicho previamente a partir de un bucle de rastreo anterior, o un vector de estado proveniente de una etapa de inicialización;
    (b)
    extraer una serie de rasgos puntuales de dicho objeto representado;
    (c)
    localizar los correspondientes rasgos puntuales en dicho flujo de imágenes de entrada;
    (d)
    obtener un nuevo vector de estado predicho a partir de dicho rasgo puntual localizado en el flujo de imágenes de entrada.
  2. 2. Un procedimiento según la reivindicación 1, que comprende adicionalmente una etapa de inicialización de
    (i)
    creación de un modelo tridimensional de dicho objeto a rastrear;
    (ii)
    detección inicial de la posición de dichos objetos dentro de dicho flujo de imágenes de entrada.
  3. 3.
    Un procedimiento según la reivindicación 1, en el cual dicha etapa (d) incluye adicionalmente la etapa de seleccionar un conjunto de rasgos congruentes, seguida por un filtrado de Kalman de dichos rasgos para obtener dicho nuevo vector de estado.
  4. 4.
    Un procedimiento según la reivindicación 1, en el cual dicho objeto comprende un rostro.
  5. 5.
    Un procedimiento según la reivindicación 4, en el cual dicho vector de estado comprende la postura tridimensional de dicho rostro.
  6. 6.
    Un procedimiento según la reivindicación 3, en el cual la selección de un conjunto de rasgos comprende la selección por consenso de muestras aleatorias (RANSAC) de dichos rasgos.
  7. 7.
    Un procedimiento según la reivindicación 1, en el cual dicha etapa de localización incluye utilizar un proceso normalizado de correlación cruzada para localizar dichos rasgos puntuales.
  8. 8.
    Un procedimiento según la reivindicación 1, que incluye las etapas de inicialización de:
    (i)
    crear un modelo tridimensional de dicho objeto a rastrear;
    (ii)
    localizar puntos iniciales de rasgos en dicho flujo inicial de imágenes de entrada; y
    (iii) calcular un vector de estado inicial indicativo de dicha ubicación de objeto dentro de dicho flujo de imágenes de entrada, en donde dicho vector de estado inicial es calculado minimizando el error de cuadrados entre dichos puntos iniciales de rasgos localizados y los correspondientes puntos iniciales de rasgos de dicho modelo tridimensional proyectado en el plano R(p) de imágenes.
  9. 9.
    Un procedimiento según la reivindicación 8, en el cual, en la etapa (a), dicho modelo de objeto concuerda, bien con dicho vector de estado predicho calculado en la etapa (d) de una iteración anterior, o bien con dicho vector de estado inicial calculado en la etapa (ii), y en el cual dicha representación incluye calcular una máscara para dicho flujo de imágenes de entrada, para distinguir entre píxeles de fondo y de frente.
  10. 10.
    Un procedimiento según la reivindicación 9, en el cual la etapa (b) incluye calcular un número predefinido de rasgos puntuales a partir de dicho objeto representado, en el cual dicho número predefinido de ubicaciones con la mayor angulosidad son seleccionadas como rasgos de dicha imagen representada de la iteración anterior, para la siguiente etapa de localización.
  11. 11.
    Un procedimiento según la reivindicación 8, en el cual dicha etapa de localización usa una correlación de plantilla normalizada enmascarada para calcular dichos nuevos rasgos puntuales localizados.
  12. 12.
    Un procedimiento según la reivindicación 8 o la reivindicación 9, en el cual dicho nuevo vector de estado es calculado usando la selección por Consenso de Muestras Aleatorias, y seguida por un filtro de Kalman para estimar dicho nuevo vector de estado.
  13. 13.
    Un procedimiento según la reivindicación 12, en el cual dicho filtro de Kalman utiliza un modelo de movimiento de aceleración constante de dicho objeto para predecir dicho nuevo vector de estado de dicho objeto a partir de vectores de estado anteriormente calculados, y dichos nuevos rasgos puntuales localizados.
  14. 14.
    Un sistema para rastrear un objeto en un flujo de imágenes de entrada, comprendiendo el sistema un procesador adaptado para recibir un flujo de imágenes de entrada, y dicho procesador está adicionalmente adaptado para realizar las
    etapas de:
    (i)
    crear un modelo tridimensional del objeto a rastrear;
    (ii)
    localizar puntos iniciales de rasgos en dicho flujo inicial de imágenes de entrada;
    (iii) calcular un vector de estado inicial indicativo de la ubicación de dicho objeto dentro de dicho flujo de imágenes de entrada, en donde dicho vector de estado inicial es calculado minimizando el error de cuadrados entre dichos puntos iniciales de rasgos localizados y los correspondientes puntos de rasgos iniciales de dicho modelo tridimensional proyectado en el plano de imágenes R(p);
    (a)
    representar un modelo de objeto tridimensional, en donde dicho modelo de objeto concuerda, bien con dicho vector de estado predicho calculado en la etapa (d) de una iteración previa, o bien con dicho vector de estado inicial calculado en la etapa (ii), en donde dicha representación incluye calcular una máscara para dicho flujo de imágenes de entrada, para distinguir entre píxeles de fondo y de frente;
    (b)
    calcular un número predefinido de rasgos puntuales a partir de dicho objeto representado, en donde dicho número predefinido de ubicaciones con la mayor angulosidad son seleccionadas como rasgos a partir de dicha imagen representada de la iteración previa para la siguiente etapa de localización;
    (c)
    localizar los correspondientes rasgos puntuales en dicho flujo de imágenes de entrada;
    (d)
    calcular un nuevo vector de estado a partir de dichos rasgos puntuales localizados en dicho flujo de imágenes de entrada; y
    (e)
    realizar iterativamente las etapas (a) a (d) para proporcionar en cada iteración dicho nuevo vector de estado actualizado a partir de dichos rasgos puntuales localizados.
  15. 15.
    Un sistema según la reivindicación 14, en el cual dicho procesador está adaptado para realizar una correlación de plantilla normalizada enmascarada para calcular dichos nuevos rasgos puntuales localizados.
  16. 16.
    Un sistema según la reivindicación 14, en el cual dicho procesador está adaptado para aplicar dichos nuevos rasgos puntuales localizados en un filtro de Kalman, para calcular dicho nuevo vector de estado.
ES08714340T 2007-03-05 2008-03-04 Rastreo eficaz y preciso de objetos tridimensionales Active ES2402957T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AU2007901129A AU2007901129A0 (en) 2007-03-05 Efficient and accurate 3D object tracking
AU2007901129P 2007-03-05
PCT/AU2008/000290 WO2008106725A1 (en) 2007-03-05 2008-03-04 Efficient and accurate 3d object tracking

Publications (1)

Publication Number Publication Date
ES2402957T3 true ES2402957T3 (es) 2013-05-10

Family

ID=39737689

Family Applications (1)

Application Number Title Priority Date Filing Date
ES08714340T Active ES2402957T3 (es) 2007-03-05 2008-03-04 Rastreo eficaz y preciso de objetos tridimensionales

Country Status (4)

Country Link
US (1) US8848975B2 (es)
EP (1) EP2132680B1 (es)
ES (1) ES2402957T3 (es)
WO (1) WO2008106725A1 (es)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9639740B2 (en) 2007-12-31 2017-05-02 Applied Recognition Inc. Face detection and recognition
CN104866553A (zh) 2007-12-31 2015-08-26 应用识别公司 利用脸部签名来标识和共享数字图像的方法、系统和计算机程序
US9721148B2 (en) 2007-12-31 2017-08-01 Applied Recognition Inc. Face detection and recognition
WO2010071928A1 (en) 2008-12-22 2010-07-01 Seeing Machines Limited Automatic calibration of a gaze direction algorithm from user behaviour
DE102009007412B4 (de) * 2009-02-04 2012-12-06 Audi Ag Verfahren zur Verfolgung wenigstens eines Objekts
US8649555B1 (en) * 2009-02-18 2014-02-11 Lucasfilm Entertainment Company Ltd. Visual tracking framework
TW201145992A (en) * 2010-06-09 2011-12-16 Hon Hai Prec Ind Co Ltd PTZ camera and method for positioning objects of the PTZ camera
CN102279502B (zh) * 2010-06-10 2015-04-01 中山市云创知识产权服务有限公司 Ptz影像撷取装置及其目标定位方法
KR101706092B1 (ko) * 2010-09-29 2017-02-14 삼성전자주식회사 3차원 물체 추적 방법 및 장치
KR20120044484A (ko) * 2010-10-28 2012-05-08 삼성전자주식회사 이미지 처리 시스템에서 물체 추적 장치 및 방법
US9552376B2 (en) 2011-06-09 2017-01-24 MemoryWeb, LLC Method and apparatus for managing digital files
US8548207B2 (en) 2011-08-15 2013-10-01 Daon Holdings Limited Method of host-directed illumination and system for conducting host-directed illumination
US9202105B1 (en) 2012-01-13 2015-12-01 Amazon Technologies, Inc. Image analysis for user authentication
CN106030583B (zh) * 2014-03-27 2020-01-14 英特尔公司 用于ransac算法的并行执行的技术
US10698995B2 (en) 2014-08-28 2020-06-30 Facetec, Inc. Method to verify identity using a previously collected biometric image/data
US10915618B2 (en) 2014-08-28 2021-02-09 Facetec, Inc. Method to add remotely collected biometric images / templates to a database record of personal information
CA3186147A1 (en) 2014-08-28 2016-02-28 Kevin Alan Tussy Facial recognition authentication system including path parameters
US10614204B2 (en) 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
US11256792B2 (en) 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
US10803160B2 (en) 2014-08-28 2020-10-13 Facetec, Inc. Method to verify and identify blockchain with user question data
US9659380B1 (en) * 2016-01-07 2017-05-23 International Business Machines Corporation Object position tracking using motion estimation
US10043058B2 (en) 2016-03-09 2018-08-07 International Business Machines Corporation Face detection, representation, and recognition
USD987653S1 (en) 2016-04-26 2023-05-30 Facetec, Inc. Display screen or portion thereof with graphical user interface
CN106296805B (zh) * 2016-06-06 2019-02-26 厦门铭微科技有限公司 一种基于实时反馈的增强现实人体定位导航方法及装置
US10318831B2 (en) * 2016-07-21 2019-06-11 Gestigon Gmbh Method and system for monitoring the status of the driver of a vehicle
US10349032B2 (en) * 2016-09-30 2019-07-09 Veoneer Us, Inc. Vehicle occupant head positioning system
US10936178B2 (en) 2019-01-07 2021-03-02 MemoryWeb, LLC Systems and methods for analyzing and organizing digital photos and videos

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6256418B1 (en) * 1998-04-13 2001-07-03 Compaq Computer Corporation Method and system for compressing a sequence of images including a moving figure
US6917692B1 (en) * 1999-05-25 2005-07-12 Thomson Licensing S.A. Kalman tracking of color objects
US6980690B1 (en) * 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
US6956569B1 (en) * 2000-03-30 2005-10-18 Nec Corporation Method for matching a two dimensional image to one of a plurality of three dimensional candidate models contained in a database
AUPQ896000A0 (en) * 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
US9400921B2 (en) * 2001-05-09 2016-07-26 Intel Corporation Method and system using a data-driven model for monocular face tracking
US7103211B1 (en) * 2001-09-04 2006-09-05 Geometrix, Inc. Method and apparatus for generating 3D face models from one camera
AUPS140502A0 (en) 2002-03-27 2002-05-09 Seeing Machines Pty Ltd Method for automatic detection of facial features
US7164800B2 (en) * 2003-02-19 2007-01-16 Eastman Kodak Company Method and system for constraint-consistent motion estimation
CA2529044C (en) * 2003-06-13 2011-08-09 Universite Laval Three-dimensional modeling from arbitrary three-dimensional curves

Also Published As

Publication number Publication date
EP2132680A1 (en) 2009-12-16
US8848975B2 (en) 2014-09-30
WO2008106725A1 (en) 2008-09-12
EP2132680A4 (en) 2011-12-21
EP2132680B1 (en) 2013-01-02
US20090324018A1 (en) 2009-12-31

Similar Documents

Publication Publication Date Title
ES2402957T3 (es) Rastreo eficaz y preciso de objetos tridimensionales
Tjaden et al. A region-based gauss-newton approach to real-time monocular multiple object tracking
US9235928B2 (en) 3D body modeling, from a single or multiple 3D cameras, in the presence of motion
Ganapathi et al. Real-time human pose tracking from range data
Oikonomidis et al. Tracking the articulated motion of two strongly interacting hands
Baak et al. A data-driven approach for real-time full body pose reconstruction from a depth camera
JP4148281B2 (ja) モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
US20150243035A1 (en) Method and device for determining a transformation between an image coordinate system and an object coordinate system associated with an object of interest
US20140177944A1 (en) Method and System for Modeling Subjects from a Depth Map
WO2007102537A1 (ja) 姿勢推定装置および方法
EP3425591B1 (en) System and method for tracking body joints
KR20090092473A (ko) 3차원 변형 가능 형상 모델에 기반한 3차원 얼굴 모델링방법
US20160372156A1 (en) Image fetching for timeline scrubbing of digital media
Alenya et al. A comparison of three methods for measure of time to contact
Dib et al. Pose estimation for a partially observable human body from RGB-D cameras
Migniot et al. 3d human tracking in a top view using depth information recorded by the xtion pro-live camera
Pham et al. Robust real-time performance-driven 3D face tracking
JP2023527627A (ja) 逆運動学に基づいた関節の回転の推測
He Generation of Human Body Models
WO2002031772A2 (en) Method for tracking motion of a face
Tordoff et al. Head pose estimation for wearable robot control.
Xu et al. Human pose estimation using two RGB-D sensors
Lefevre et al. Structure and appearance features for robust 3d facial actions tracking
Zhang et al. Particle swarm optimization for markerless full body motion capture
Moliner et al. Better prior knowledge improves human-pose-based extrinsic camera calibration