ES2553258T3 - Método para la estimación de una pose de un modelo de objeto articulado - Google Patents

Método para la estimación de una pose de un modelo de objeto articulado Download PDF

Info

Publication number
ES2553258T3
ES2553258T3 ES11405250.9T ES11405250T ES2553258T3 ES 2553258 T3 ES2553258 T3 ES 2553258T3 ES 11405250 T ES11405250 T ES 11405250T ES 2553258 T3 ES2553258 T3 ES 2553258T3
Authority
ES
Spain
Prior art keywords
pose
object model
articulated object
articulated
source image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11405250.9T
Other languages
English (en)
Inventor
Marcel Germann
Stephan Würmlin Stadler
Richard Keiser
Remo Ziegler
Christoph Niederberger
Alexander Hornung
Markus Gross
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LIBEROVISION AG
Original Assignee
LIBEROVISION AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LIBEROVISION AG filed Critical LIBEROVISION AG
Application granted granted Critical
Publication of ES2553258T3 publication Critical patent/ES2553258T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Un método implementado por ordenador para la estimación de una pose de un modelo de objeto articulado (4), en el que el modelo de objeto articulado (4) es un modelo en 3D basado en ordenador (1) de un objeto del mundo real (14) observado por una o más cámaras de origen (9), y el modelo de objeto articulado (4) representa una pluralidad de articulaciones (2) y de enlaces (3) que enlazan las articulaciones (2), y en el que la pose del modelo de objeto articulado (4) está definido por la localización espacial de las articulaciones (2), el método comprende los pasos de - obtener por lo menos una imagen de origen (10) desde una corriente de vídeo que comprende una vista del objeto del mundo real (14) grabada por una cámara de origen (9); - procesar la por lo menos una imagen de origen (10) para extraer un segmento de imagen de origen correspondiente (13) que comprende la vista del objeto del mundo real (14) separado del fondo de la imagen; - mantener, en una base de datos en forma legible por ordenador, un conjunto de siluetas de referencia, cada silueta de referencia está asociada con un modelo de objeto articulado (4) y con una pose de referencia particular de este modelo de objeto articulado (4); - comparar el por lo menos un segmento de imagen de origen (13) con las siluetas de referencia y seleccionar un número predeterminado de siluetas de referencia, teniendo en cuenta, para cada silueta de referencia, o un error de coincidencia que indica cuán estrechamente la silueta de referencia coincide con el segmento de imagen de origen (13) y o un error de consistencia que indica cuánto la pose de referencia es consistente con la pose del mismo objeto del mundo real (14) de acuerdo con lo estimado a partir de por lo menos una de imágenes de origen precedentes y siguientes (10) de la corriente de vídeo; - recuperar de las poses de referencia de los modelos de objeto articulado (4) asociadas con la seleccionada de las siluetas de referencia; y - calcular una estimación de la pose del modelo de objeto articulado (4) a partir de las poses de referencia de las siluetas de referencia seleccionadas.

Description

imagen1
imagen2
imagen3
imagen4
imagen5
imagen6
imagen7
5
10
15
20
25
30
35
complejas y técnicas de reconstrucción de vista múltiple. Los resultados demuestran la flexibilidad y la solidez del enfoque con vídeos de punto de vista libre de alta calidad generados a partir de imágenes de difusión de entornos no controlados desafiantes.
Observación general con respecto a la terminología: la expresión "A está asociada con B" significa que hay una asignación, o, en otras palabras, una relación entre A y B. La relación puede ser una relación de uno a uno, de uno a muchos o de muchos a muchos.
Un producto de programa de ordenador para la estimación de una pose de un modelo de objeto articulado de acuerdo con la invención se puede cargar en una memoria interna de un ordenador digital o un sistema de ordenador que comprende una memoria de ordenador y una unidad de procesamiento acoplada a la memoria de ordenador, y comprende un código de programa de ordenador significa, es decir, instrucciones legibles por ordenador, para hacer, cuando dicho medio de código de programa de ordenador es cargado en el ordenador, el ordenador ejecuta el método de acuerdo con la invención. En una realización preferida de la invención, el producto de programa de ordenador comprende un medio de almacenamiento legible por ordenador, que tiene el medio de código de programa de ordenador grabado en el mismo.
Otras realizaciones preferidas son evidentes a partir de las reivindicaciones dependientes de la patente.
Breve descripción de los dibujos
El objetivo de la invención se explicará con más detalle en el siguiente texto con referencia a realizaciones representativas preferidas que se ilustran en los dibujos adjuntos, en los cuales:
Figura 1 representa en forma esquemática una visión general sobre una escena del mundo real; Figura 2 es un modelo de objeto articulado con superficies de proyección asociadas; Figura 3a es una silueta típica de una imagen segmentada; Figura 3b son tres mejores poses de coincidencia a partir de una base de datos; Figura 3c una pose del esqueleto en 2D estimada a partir de la mejor coincidencia; Figura 4 estimación de articulaciones en 3D a partir de dos imágenes de la cámara; Figura 5a una imagen con posiciones de la articulación (manualmente) corregidas; Figura 5b una adaptación inicial de una plantilla de forma 3D pre-segmentada para una imagen; Figura 5c un ajuste corregido que coincide exactamente con las posiciones de la articulación en 5a; Figura 6a una segmentación inicial de una imagen de un cuerpo, con píxeles seguros derivados de un modelo
de plantilla, y con píxeles limítrofes inseguros; Figura 6b una segmentación después del etiquetado de acuerdo con un modelo de color capacitado; Figura 6c una segmentación final después de la eliminación morfológica de los valores atípicos; Figura 7a carteleras mal alineadas en un ventilador de cartelera; Figura 7b un ventilador de cartelera antes de la optimización de la articulación; Figura 7c el mismo ventilador de cartelera después de la optimización de la articulación; Figura 8a errores de muestreo que provocan grietas entre las carteleras; Figura 8b un artefacto de representación correspondiente; Figura 8c corrección del artefacto de representación; Figura 9a ejemplo de peso de mezcla para dos cámaras de origen; Figura 9b imagen representada sin suavizado; Figura 9c imagen representada con un suavizado de adaptación; Figura 9d discontinuidades donde se ha aplicado el suavizado; y Figura 10 un diagrama de flujo de un método de acuerdo con la invención. Los símbolos de referencia utilizados en los dibujos, y sus significados, se enumeran en forma sintetizada en la lista de símbolos de referencia. En principio, las partes idénticas se proporcionan con los mismos símbolos de referencia en los dibujos.
Descripción detallada de realizaciones preferidas
La Figura 1 muestra en forma esquemática una visión general sobre una escena del mundo real 8, la escena 8 comprende un objeto del mundo real 14 tal como un ser humano, que está siendo observado por dos o más cámaras de origen 9, 9’, cada una de los cuales genera una corriente de vídeo de imágenes de origen 10, 10’. El sistema y el método de acuerdo con la invención genera una imagen virtual 12 que muestra la escena 8 desde un punto de vista de una cámara virtual 11 que es distinto de los puntos de vista de las cámaras de origen 9, 9’. En forma opcional, a partir de una secuencia de imágenes virtuales 12 se genera una corriente de vídeo virtual. Un aparato de acuerdo con la invención comprende una unidad de procesamiento 15 que lleva a cabo los cálculos de procesamiento de imágenes que aplican el método de la invención, dadas las imágenes de origen 10, 10’ y generan una o más imágenes virtuales
12. La unidad de procesamiento 15 está configurada para interactuar con una unidad de almacenamiento 16 para el almacenamiento de imágenes de origen 10, imágenes virtuales 12 y los resultados intermedios. La unidad de procesamiento 15 se controla por medio de una estación de trabajo 19 que en forma típica comprende un dispositivo de visualización, un dispositivo de entrada de datos tales como un teclado y un dispositivo de señalización tal como un ratón. La unidad de procesamiento 15 puede estar configurada para suministrar una corriente de vídeo virtual a un
9
imagen8
imagen9
imagen10
5
10
15
20
25
30
35
automática las partes del cuerpo ocluidas, es robusto incluso para una calidad y resolución de imagen baja, y requiere sólo una pequeña cantidad de interacción de usuario sencilla durante el refinamiento de las posiciones de la articulación.
3. Construcción del Modelo de Cartelera Articulado en 3D
Se utilizan las posiciones de articulaciones en 3D computadas de la Sección 2.1 como una pose inicial de la representación de cartelera articulada final. Si una articulación del modelo de cartelera en 3D articulado no está posicionada de manera óptima, la textura resultante de la representación de todas las carteleras de un ventilador de cartelera no se alineará (véase la Figura 7a). En esta sección, se describe cómo las posiciones de la articulación en 3D se pueden optimizar en base a una medida cuantitativa de la alineación de las texturas de la cartelera.
En lo siguiente, primero se define una función de puntaje para una posición de una articulación en una sola vista y para un par de cámara. Esta función de puntaje se extiende luego a varias vistas y cámaras. Por el uso de esta función de puntaje y las limitaciones antropométricas, se optimiza la pose en 3D del modelo de cartelera articulado. Por último, se describirá una corrección de costura que elimina las discontinuidades de textura entre las carteleras adyacentes.
3.1. Puntaje de Posición
Para calificar la calidad de una posición de la articulación de una vista de salida V, se evalúan todas las carteleras adyacentes a esta articulación. Para cada ventilador de carteleras, la alineación de sus carteleras para un par de vistas de entrada (I1,I2) se puntúa por medio de una comparación de píxeles racional de las texturas proyectadas. Para cada píxel de salida p de V, el puntaje por píxel sI1, I2 (p) se define como
imagen11
donde VIi(p) es la contribución del color de una cartelera asociada con la vista Ij de píxeles p. ε(·) es una medida de distancia de color en RGB. Los píxeles activos se definen como aquellos píxeles en la vista de salida V que reciben una contribución de color válida desde las vistas de entrada i1 e i2. La segmentación generada en la Sección 2.3 se utiliza para resolver la oclusión en forma fiable. El puntaje para una articulación en una vista V es la suma normalizada de todos los píxeles
imagen12
El factor de normalización n(p) es 1, si por lo menos uno de los dos píxeles está activo y 0, de lo contrario. Por lo tanto, la función de puntaje mide la coincidencia de los valores de textura, mientras que n(p) penaliza las partes no alineadas como en la Figura 7a. Estas operaciones por píxeles se implementan de manera eficiente en la GPU por el uso de sombreadores de fragmentos. En resumen, el procedimiento de acuerdo con (1) y (2) determina a qué grado coinciden las contribuciones de imagen de diferentes cámaras, de acuerdo con lo observado desde el punto de vista virtual y en la imagen de salida virtual, y sólo para aquellos píxeles para los que la imagen de salida recibe una contribución de ambas cámaras de origen.
Durante más de dos vistas de entrada, se define el puntaje como un promedio ponderado de todos los pares de la cámara, donde el peso para cada par de la cámara depende del ángulo βi1,i2 entre las direcciones de visión respectivas, con ángulos estrechos que reciben un mayor peso:
imagen13
donde I es el conjunto de todos los pares de vistas de entrada y ω(β) es, por ejemplo, un peso de Gauss:
13 5
10
15
20
25
30
35
40
45
imagen14
Un valor adecuado para σ se determinó en forma empírica como 0,32. Por último, el puntaje de la posición de articulación es la suma normalizada de las puntuaciones en todas las vistas evaluadas:
imagen15
dónde V es el conjunto de todos las vistas evaluadas.
3.2. Optimización de la Pose en 3D
Dado que la puntuación de la posición de la articulación depende de las vistas evaluadas, se necesita un conjunto adecuado V. Con el fin de cubrir un intervalo razonable de posiciones de visualización, se evalúa la función de puntaje en las posiciones de cámara de todas las vistas de entrada y las vistas virtuales en el centro entre cada par de la cámara. Para la optimización de posición de una articulación, se evalúa Sv en las posiciones espacialmente cercanas de los candidatos en una cuadrícula en 3D adaptativa y discreta. La cuadrícula se refina de manera codiciosa en torno a esas posiciones candidatas que consiguen un puntaje más alta Sv, hasta que se alcanza una resolución de la cuadrícula dada (ajustada en forma empírica a 1,2 cm).
Para evitar configuraciones degeneradas con ventiladores de cartelera de longitud cero, en forma adicional se considera la consistencia antropométrica [NAS09] durante la evaluación de cada pose. Una posición de la articulación recibe un puntaje de cero si no se mantiene una de las siguientes limitaciones:
 La articulación está en o por encima del suelo.  Las longitudes de los huesos del esqueleto topológicamente simétricos (por ej., el brazo izquierdo/derecho) no difieren más del 10%.  Las longitudes de los huesos adyacentes están dentro de los estándares antropométricos.  Las distancias a las articulaciones inconexas están dentro de los estándares antropométricos.
Para las dos últimas restricciones, se utiliza el quinto percentil de sujetos femeninos, que se redondea hacia abajo como longitudes mínimas, y el percentil número 95 de los sujetos masculinos se redondea como longitudes máximas.
Este proceso de optimización de búsqueda de cuadrícula se repite en forma iterativa a lo largo del esqueleto. Es decir, en cada iteración, la posición se optimiza por separado, de acuerdo con lo descrito, para cada articulación del conjunto de todas las articulaciones. En estos experimentos, se ha hallado que por lo general converge después de 4 iteraciones. Dado que la optimización está basada en funciones diana que están definidas en la imagen virtual, no se determinan parámetros innecesarios en última instancia, y la eficiencia global es alta. Véase la Figura 7 para un modelo de cartelera articulado antes (7b) y después (7c) de la optimización.
3.3. Corrección de la Costura de la Textura
Debido a la toma de muestras de las máscaras de segmentación de las carteleras durante la representación con la texturización proyectiva (véase la Figura 8a), pueden aparecer pequeñas discontinuidades (grietas visibles) entre las carteleras adyacentes en la vista de salida de acuerdo con lo mostrado en la Figura 8b: En la imagen virtual 12, un píxel de salida a partir de una primera cartelera 6 puede caer, cuando se proyecta en la imagen de origen segmentada 10, dentro de un segundo segmento 13b que se asigna a una segunda cartelera 6’ adyacente, en lugar de en un primer segmento 13a asignado a la primera cartelera 6. En consecuencia, el píxel de salida no recibe ninguna contribución de color en absoluto. Para superar este problema, estos píxeles de costura tienen que ser representados para ambas carteleras adyacentes. Por lo tanto, se marcan los píxeles como píxeles de costura en las vistas de entrada si cubren las carteleras sobre dos huesos del esqueleto adyacentes o enlaces 3 (por ej., un píxel encerrado por líneas discontinuas en la Figura 8a).
Para detectar los píxeles de costura, la máscara de segmentación es atravesada para cada vista de entrada. Un píxel p está marcado como píxel de costura, si cumple ambas de las siguientes condiciones:
 Por lo menos un píxel p’ en su barrio de 4 tiene una etiqueta diferente, pero viene de la misma materia  |profundidad(p) -profundidad(p')| < φ
donde la profundidad(·) es el valor de profundidad en este píxel. El umbral φ distingue entre las partes de oclusión y las partes conectadas. Se ajustó en forma empírica a φ= 3 cm. Un ejemplo para la máscara de segmentación
14 5
10
15
20
25
30
35
40
corregida en su costura y la mejora de representación resultante se muestra en la Figura 8c.
4. Representación
En lo que sigue se describe un procedimiento de representación para las carteleras articuladas. Se ha diseñado este algoritmo de acuerdo con los criterios generales definidos por Buehler et al. [BBM*01]. Debido a este entorno desafiante con errores de calibración y un posicionamiento de la cámara muy escaso, este enfoque particular está en:
 Aspecto Consistente: Las carteleras adyacentes deben intersectar sin grietas o artefactos perturbadores y
mezclarse de manera realista con el medio ambiente.  Continuidad Visual: Las carteleras no deben cambiar repentinamente o aparecer al mover el punto de vista.  Interpolación de Vistas: Al ver la escena desde un ángulo y posición originales de la cámara, la vista
representada debe reproducir la de la cámara de entrada.
Las entradas al procedimiento de representación son el modelo de cartelera articulado, las vistas de entrada segmentadas I (Sección 2.3) y las costuras calculadas en la Sección 3.3. Para cada marco de salida representado, las carteleras articuladas están ordenadas de atrás hacia adelante para un manejo adecuado de las oclusiones. Con el fin de cumplir con los objetivos anteriores, se lleva a cabo un procedimiento de mezcla por píxel. Se separa entre los pesos por cámara que se calculan una vez por cartelera y los últimos pesos por píxel.
4.1. Pesos de la Mezcla de la Cámara
Para una mezcla suave de las carteleras 6 asociadas con un ventilador 7 de carteleras 6, se utiliza el mismo peso de Gauss que en la Ecuación (5). Para lograr una interpolación en una vista de cámara original 10, se introduce una función de atenuación que asegura que todas las vistas de una perspectiva de cámara original 9 son idénticas a las imágenes de origen de la cámara correspondientes 10 mientras que se sigue asumiendo una transición suave entre las diferentes vistas. La función de atenuación se define como f(IωMáx) = 1 para la vista de origen IωMáx con el valor más alto de α(·) (es decir, la cámara de origen 9 más cercana) y
imagen16
para todas las otras cámaras Ij. d(V, IωMáx) es la distancia euclídea desde la posición de la cámara virtual del espectador 11 hasta la posición de la cámara de origen 9 de la vista IωMáx. La constante σ se determina en forma empírica como de 1 metro, que es inferior a la distancia mínima entre dos cámaras de origen 9 y por lo tanto no da lugar a ningún tipo de discontinuidad.
4.2. Procesamiento por Píxel
Las carteleras de un ventilador de cartelera se mezclan por píxel. De acuerdo con lo mostrado en la Figura 8a, se lleva a cabo una búsqueda de cámaras en la máscara de segmentación correspondiente de cada cartelera. Esto determina si el píxel de salida de corriente p está en la parte del cuerpo que pertenece a esta cartelera. Si es así, entonces la contribución de color correspondiente VIj (p) = 0 desde la vista de origen Ij y su valor alfa αIj (p) se puede añadir a la vista de salida V. De lo contrario, se ajusta αIj (p) = 0, es decir, transparente. El último caso también se produce cuando la parte del cuerpo correspondiente se ocluye en Ij y la información de color se debe tomar de otras cámaras. El valor de color resultante V(p) del píxel de pantalla es entonces
imagen17
con el conjunto de todas las vistas de entrada I como en la Ecuación (2) y los pesos por píxel
imagen18
Esto se hace para todos los canales de color por separado. El valor alfa resultante es
15
imagen19
imagen20
imagen21
5
10
15
20
25
30
35
40
45
Light field rendering. En SIGGRAPH ’96 (1996), págs. 31 a 42.
MBR*00 MATUSIK W., BUEHLER C., RASKAR R., GORTLER S. J., MCMILLAN L.:
Image-based visual hulls. En SIGGRAPH ’00 (2000), págs. 369 a 374.
MHM*09 MAHAJAN D., HUANG F.-C., MATUSIK W., RAMAMOORTHI R., BELHUMEUR P.N.:
Moving gradients: a path-based method for plausible image interpolation. ACM Trans. Graph. 28, 3 (2009).
Mid09 Middlebury multi-view stereo evaluation. http://vision.middlebury.edu/mview/, Octubre de 2009.
NAS09 NASA:
Anthropometry and biomechanics. http://msis.jsc.nasa.gov/sections/section03.htm (2009).
PG08 PEKELNY Y., GOTSMAN C.:
Articulated object reconstruction and markerless motion capture from depth video. Comput. Graph. Forum 27, 2 (2008), 399 a 408.
RMD04 RECHE A., MARTIN I., DRETTAKIS G.:
Volumetric reconstruction and interactive rendering of trees from photographs. SIGGRAPH’04 23, 3 (Julio de 2004).
SGwHS98 SHADE J., GORTLER S., WEI HE L., SZELISKI R.:
Layered depth images. En SIGGRAPH’98 (1998), págs. 231 a 242.
Tho06 THOMAS G.:
Real-time camera pose estimation for augmenting sports scenes. Visual Media Production, 2006. CVMP 2006. 3rd European Conference on (2006), págs. 10 a 19.
VBMP08 VLASIC D., BARAN I., MATUSIK W., POPOVIC J.:
Articulated mesh animation from multi-view silhouettes. En SIGGRAPH ’08 (2008), págs. 1 a 9.
WWG07 WASCHBÜSCH M., WÜRMLIN S., GROSS M.:
3d video billboard clouds. Computer Graphics Forum 26, 3 (2007), 561 a 569.
YSK*02 YAMAZAKI S., SAGAWA R., KAWASAKI H., IKEUCHI K., SAKAUCHI M.:
Microfacet billboarding. En EGRW ’02 (2002), págs. 169 a 180.
19
imagen22

Claims (1)

  1. imagen1
    imagen2
    imagen3
ES11405250.9T 2010-04-30 2011-04-29 Método para la estimación de una pose de un modelo de objeto articulado Active ES2553258T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP10405091 2010-04-30
EP10405091A EP2383696A1 (en) 2010-04-30 2010-04-30 Method for estimating a pose of an articulated object model

Publications (1)

Publication Number Publication Date
ES2553258T3 true ES2553258T3 (es) 2015-12-07

Family

ID=42617427

Family Applications (2)

Application Number Title Priority Date Filing Date
ES15168192T Active ES2695157T3 (es) 2010-04-30 2011-04-29 Método de renderización
ES11405250.9T Active ES2553258T3 (es) 2010-04-30 2011-04-29 Método para la estimación de una pose de un modelo de objeto articulado

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES15168192T Active ES2695157T3 (es) 2010-04-30 2011-04-29 Método de renderización

Country Status (4)

Country Link
US (1) US8830236B2 (es)
EP (3) EP2383696A1 (es)
JP (1) JP5784356B2 (es)
ES (2) ES2695157T3 (es)

Families Citing this family (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
JP5924862B2 (ja) * 2010-12-15 2016-05-25 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
JP4784709B1 (ja) * 2011-03-10 2011-10-05 オムロン株式会社 対象物追跡装置、対象物追跡方法、および制御プログラム
GB201104312D0 (en) * 2011-03-14 2011-04-27 Bell Alexandra Improved virtual try on simulation service
US9344707B2 (en) * 2011-06-29 2016-05-17 Microsoft Technology Licensing, Llc Probabilistic and constraint based articulated model fitting
JP5408205B2 (ja) * 2011-08-25 2014-02-05 カシオ計算機株式会社 制御点設定方法、制御点設定装置及びプログラム
US8879835B2 (en) * 2011-08-26 2014-11-04 Adobe Systems Incorporated Fast adaptive edge-aware matting
CN104067317A (zh) * 2011-09-08 2014-09-24 宝福特控股私人有限公司 用于在真实世界视频剪辑内对合成对象进行可视化的系统和方法
US8724906B2 (en) * 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US9350951B1 (en) * 2011-11-22 2016-05-24 Scott Dallas Rowe Method for interactive training and analysis
EP2597437A1 (en) * 2011-11-28 2013-05-29 ABB Technology AG A method of assessing the technical condition of a rotating shaft
KR101919831B1 (ko) 2012-01-11 2018-11-19 삼성전자주식회사 오브젝트 인식 장치, 분류 트리 학습 장치 및 그 동작 방법
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
WO2013112749A1 (en) 2012-01-24 2013-08-01 University Of Southern California 3d body modeling, from a single or multiple 3d cameras, in the presence of motion
US10033979B2 (en) * 2012-03-23 2018-07-24 Avigilon Fortress Corporation Video surveillance systems, devices and methods with improved 3D human pose and shape modeling
US9418475B2 (en) * 2012-04-25 2016-08-16 University Of Southern California 3D body modeling from one or more depth cameras in the presence of articulated motion
US20130321564A1 (en) 2012-05-31 2013-12-05 Microsoft Corporation Perspective-correct communication window with motion parallax
US9767598B2 (en) 2012-05-31 2017-09-19 Microsoft Technology Licensing, Llc Smoothing and robust normal estimation for 3D point clouds
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
EP2674913B1 (en) * 2012-06-14 2014-07-23 Softkinetic Software Three-dimensional object modelling fitting & tracking.
TWI521469B (zh) * 2012-06-27 2016-02-11 Reallusion Inc Two - dimensional Roles Representation of Three - dimensional Action System and Method
JP2014102685A (ja) * 2012-11-20 2014-06-05 Sony Corp 情報処理装置、情報処理方法及びプログラム
US20140160122A1 (en) * 2012-12-10 2014-06-12 Microsoft Corporation Creating a virtual representation based on camera data
US9214138B2 (en) 2012-12-28 2015-12-15 Microsoft Technology Licensing, Llc Redundant pixel mitigation
US9135742B2 (en) 2012-12-28 2015-09-15 Microsoft Technology Licensing, Llc View direction determination
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9426451B2 (en) * 2013-03-15 2016-08-23 Digimarc Corporation Cooperative photography
US9269003B2 (en) * 2013-04-30 2016-02-23 Qualcomm Incorporated Diminished and mediated reality effects from reconstruction
TWI530157B (zh) * 2013-06-18 2016-04-11 財團法人資訊工業策進會 多視角影像之顯示系統、方法及其非揮發性電腦可讀取紀錄媒體
WO2015006791A1 (en) * 2013-07-18 2015-01-22 A.Tron3D Gmbh Combining depth-maps from different acquisition methods
JP6433149B2 (ja) 2013-07-30 2018-12-05 キヤノン株式会社 姿勢推定装置、姿勢推定方法およびプログラム
EP3039653A1 (en) * 2013-08-26 2016-07-06 Sculpteo Method for displaying section views of a 3d model using a fragment shader
US10283005B2 (en) * 2013-10-24 2019-05-07 Huawei Device Co., Ltd. Image display method and apparatus
US9307191B2 (en) * 2013-11-19 2016-04-05 Microsoft Technology Licensing, Llc Video transmission
US9940727B2 (en) 2014-06-19 2018-04-10 University Of Southern California Three-dimensional modeling from wide baseline range scans
CN104517292A (zh) * 2014-12-25 2015-04-15 杭州电子科技大学 基于平面单应矩阵约束的多摄像机高密度人群分割方法
JP6501348B2 (ja) * 2014-12-26 2019-04-17 Kddi株式会社 自由視点画像生成装置、方法およびプログラム
US9940524B2 (en) 2015-04-17 2018-04-10 General Electric Company Identifying and tracking vehicles in motion
US10043307B2 (en) 2015-04-17 2018-08-07 General Electric Company Monitoring parking rule violations
US9704298B2 (en) 2015-06-23 2017-07-11 Paofit Holdings Pte Ltd. Systems and methods for generating 360 degree mixed reality environments
US9858669B2 (en) * 2015-10-23 2018-01-02 The Boeing Company Optimized camera pose estimation system
CN105610868B (zh) 2016-03-03 2019-08-06 腾讯科技(深圳)有限公司 一种信息交互的方法、设备及系统
US10318813B1 (en) 2016-03-11 2019-06-11 Gracenote, Inc. Digital video fingerprinting using motion segmentation
US10325370B1 (en) * 2016-05-31 2019-06-18 University Of New Brunswick Method and system of coregistration of remote sensing images
US10311648B2 (en) * 2016-06-22 2019-06-04 Aquifi, Inc. Systems and methods for scanning three-dimensional objects
US10368057B1 (en) 2016-09-28 2019-07-30 Amazon Technologies, Inc. Synchronizing data streams
JP6838912B2 (ja) * 2016-09-29 2021-03-03 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US10235771B2 (en) * 2016-11-11 2019-03-19 Qualcomm Incorporated Methods and systems of performing object pose estimation
WO2018087933A1 (ja) 2016-11-14 2018-05-17 富士通株式会社 情報処理装置、情報処理方法、およびプログラム
US10529137B1 (en) * 2016-11-29 2020-01-07 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Machine learning systems and methods for augmenting images
JP6799468B2 (ja) * 2017-01-17 2020-12-16 Kddi株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
JP6676562B2 (ja) * 2017-02-10 2020-04-08 日本電信電話株式会社 画像合成装置、画像合成方法及びコンピュータプログラム
JP6730204B2 (ja) * 2017-02-10 2020-07-29 日本電信電話株式会社 画像合成装置、画像合成方法及びコンピュータプログラム
US11379688B2 (en) 2017-03-16 2022-07-05 Packsize Llc Systems and methods for keypoint detection with convolutional neural networks
US10250868B1 (en) * 2017-03-29 2019-04-02 Amazon Technologies, Inc. Synchronizing data streams
WO2018207282A1 (ja) 2017-05-10 2018-11-15 富士通株式会社 対象物認識方法、装置、システム、プログラム
CN110892455A (zh) * 2017-07-14 2020-03-17 索尼公司 图像处理装置、用于图像处理装置的图像处理方法和程序
US10431000B2 (en) * 2017-07-18 2019-10-01 Sony Corporation Robust mesh tracking and fusion by using part-based key frames and priori model
US10304258B2 (en) * 2017-07-24 2019-05-28 Microsoft Technology Licensing, Llc Human feedback in 3D model fitting
WO2019030794A1 (ja) * 2017-08-07 2019-02-14 富士通株式会社 情報処理装置、モデルデータ作成プログラム、モデルデータ作成方法
US10535155B2 (en) 2017-10-24 2020-01-14 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for articulated pose estimation
CN108304762B (zh) * 2017-11-30 2021-11-05 腾讯科技(深圳)有限公司 一种人体姿态匹配方法及其设备、存储介质、终端
US10796452B2 (en) 2017-12-03 2020-10-06 Facebook, Inc. Optimizations for structure mapping and up-sampling
US10692243B2 (en) 2017-12-03 2020-06-23 Facebook, Inc. Optimizations for dynamic object instance detection, segmentation, and structure mapping
CN111670457B (zh) * 2017-12-03 2023-12-01 元平台公司 动态对象实例检测、分割和结构映射的优化
EP3726468A4 (en) * 2017-12-14 2020-12-16 Fujitsu Limited PROGRAM DETECTION PROGRAM, PROCEDURE DETECTION METHOD, AND PROCEDURE DETECTION SYSTEM
US11127189B2 (en) * 2018-02-23 2021-09-21 Canon Kabushiki Kaisha 3D skeleton reconstruction from images using volumic probability data
US10796468B2 (en) * 2018-02-26 2020-10-06 Didimo, Inc. Automatic rig creation process
US11508107B2 (en) 2018-02-26 2022-11-22 Didimo, Inc. Additional developments to the automatic rig creation process
WO2019173108A1 (en) 2018-03-06 2019-09-12 Didimo, Inc. Electronic messaging utilizing animatable 3d models
US11741650B2 (en) 2018-03-06 2023-08-29 Didimo, Inc. Advanced electronic messaging utilizing animatable 3D models
US10950043B1 (en) 2018-04-03 2021-03-16 A9.Com, Inc. Rendering three-dimensional models on mobile devices
CN108710830B (zh) * 2018-04-20 2020-08-28 浙江工商大学 一种结合密集连接注意力金字塔残差网络和等距限制的人体3d姿势估计方法
WO2019216593A1 (en) * 2018-05-11 2019-11-14 Samsung Electronics Co., Ltd. Method and apparatus for pose processing
CN110472462A (zh) * 2018-05-11 2019-11-19 北京三星通信技术研究有限公司 姿态估计方法、基于姿态估计的处理方法及电子设备
JP7447077B2 (ja) 2018-07-27 2024-03-11 アパリオ グローバル ソリューションズ (アーゲーエス) アーゲー 映像ストリームにおける動的画像コンテンツ置換のための方法およびシステム
US11107239B2 (en) * 2018-08-20 2021-08-31 Beijing Sensetime Technology Development Co., Ltd. Pose detection method and device, electronic device and storage medium
US10902638B2 (en) 2018-09-28 2021-01-26 Wipro Limited Method and system for detecting pose of a subject in real-time
RU2713695C1 (ru) * 2019-02-21 2020-02-06 Самсунг Электроникс Ко., Лтд. Текстурированные нейронные аватары
WO2020096403A1 (en) 2018-11-09 2020-05-14 Samsung Electronics Co., Ltd. Textured neural avatars
JP7395189B2 (ja) 2018-11-22 2023-12-11 国立大学法人 東京大学 モーションキャプチャ・カメラシステム及びキャリブレーション方法
TWI715903B (zh) * 2018-12-24 2021-01-11 財團法人工業技術研究院 動作追蹤系統及方法
US11403664B2 (en) * 2019-03-11 2022-08-02 International Business Machines Corporation Generating aesthetics and safety information for billboard marketing
CN109949368B (zh) * 2019-03-14 2020-11-06 郑州大学 一种基于图像检索的人体三维姿态估计方法
CN109977827B (zh) * 2019-03-17 2020-11-13 浙江大学 一种使用多视图匹配方法的多人三维姿态估计方法
CN113711279A (zh) * 2019-05-14 2021-11-26 英特尔公司 沉浸式媒体的自动点云验证
CN110473266A (zh) * 2019-07-08 2019-11-19 南京邮电大学盐城大数据研究院有限公司 一种基于姿态指导的保留源场景人物动作视频生成方法
US11645800B2 (en) 2019-08-29 2023-05-09 Didimo, Inc. Advanced systems and methods for automatically generating an animatable object from various types of user input
US11182945B2 (en) 2019-08-29 2021-11-23 Didimo, Inc. Automatically generating an animatable object from various types of user input
US11295527B2 (en) * 2019-08-30 2022-04-05 Sprongo, LLC Instant technique analysis for sports
KR20210030147A (ko) * 2019-09-09 2021-03-17 삼성전자주식회사 3d 렌더링 방법 및 장치
US11804076B2 (en) 2019-10-02 2023-10-31 University Of Iowa Research Foundation System and method for the autonomous identification of physical abuse
US11544872B2 (en) 2019-10-07 2023-01-03 Sony Group Corporation Camera calibration method using human joint points
US11288841B2 (en) * 2019-10-17 2022-03-29 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for patient positioning
US11373331B2 (en) 2019-12-18 2022-06-28 Agt International Gmbh System, method and computer program product for determining sizes and/or 3D locations of objects imaged by a single camera
CN111199576B (zh) * 2019-12-25 2023-08-18 中国人民解放军军事科学院国防科技创新研究院 一种基于移动平台的室外大范围人体姿态重建方法
US10911775B1 (en) 2020-03-11 2021-02-02 Fuji Xerox Co., Ltd. System and method for vision-based joint action and pose motion forecasting
CN111611997B (zh) * 2020-04-30 2023-04-18 青岛联合创智科技有限公司 一种基于人体动作迁移的卡通定制形象运动视频生成方法
CN111627101B (zh) * 2020-05-22 2023-05-26 北京工业大学 一种基于图卷积的三维人体重构方法
CN111832386A (zh) * 2020-05-22 2020-10-27 大连锐动科技有限公司 一种估计人体姿态的方法、装置及计算机可读介质
US11924397B2 (en) * 2020-07-23 2024-03-05 Samsung Electronics Co., Ltd. Generation and distribution of immersive media content from streams captured via distributed mobile devices
US11763508B2 (en) 2020-11-11 2023-09-19 Sony Interactive Entertainment Inc. Disambiguation of poses
US11263796B1 (en) 2020-11-11 2022-03-01 Sony Interactive Entertainment Inc. Binocular pose prediction
WO2022137450A1 (ja) * 2020-12-24 2022-06-30 株式会社Splyza 情報処理装置、情報処理方法およびプログラム
CN112907631B (zh) * 2021-02-20 2021-11-19 北京未澜科技有限公司 一种引入反馈机制的多rgb相机实时人体动作捕捉系统
CN113160381B (zh) * 2021-03-23 2023-02-03 清华大学 多视角动物三维几何与纹理自动化重建方法和装置
JP2022155037A (ja) * 2021-03-30 2022-10-13 新東工業株式会社 情報処理装置、情報処理方法、およびプログラム
US20230196817A1 (en) * 2021-12-16 2023-06-22 Adobe Inc. Generating segmentation masks for objects in digital videos using pose tracking data
US20240005579A1 (en) * 2022-06-30 2024-01-04 Microsoft Technology Licensing, Llc Representing two dimensional representations as three-dimensional avatars
WO2024006997A1 (en) * 2022-07-01 2024-01-04 Google Llc Three-dimensional video highlight from a camera source
CN115620082B (zh) * 2022-09-29 2023-09-01 合肥的卢深视科技有限公司 模型训练方法、头部姿态估计方法、电子设备及存储介质
CN115544777B (zh) * 2022-10-17 2023-05-16 中船智能科技(上海)有限公司 一种表征关节助力补偿值的方法及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9308952D0 (en) * 1993-04-30 1993-06-16 Philips Electronics Uk Ltd Tracking objects in video sequences
JP3377465B2 (ja) * 1999-04-08 2003-02-17 ファナック株式会社 画像処理装置
JP4695275B2 (ja) * 2001-03-07 2011-06-08 独立行政法人科学技術振興機構 動画像生成システム
US7447331B2 (en) * 2004-02-24 2008-11-04 International Business Machines Corporation System and method for generating a viewable video index for low bandwidth applications
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
US8023726B2 (en) * 2006-11-10 2011-09-20 University Of Maryland Method and system for markerless motion capture using multiple cameras
US7853038B2 (en) * 2007-01-04 2010-12-14 Industrial Technology Research Institute Systems and methods for object dimension estimation
JP2009015671A (ja) * 2007-07-06 2009-01-22 Sony Corp 情報処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
EP2930689A1 (en) 2015-10-14
JP5784356B2 (ja) 2015-09-24
JP2011238222A (ja) 2011-11-24
EP2383696A1 (en) 2011-11-02
EP2383699A2 (en) 2011-11-02
EP2383699A3 (en) 2012-04-04
US20110267344A1 (en) 2011-11-03
US8830236B2 (en) 2014-09-09
EP2930689B1 (en) 2017-12-06
ES2695157T3 (es) 2019-01-02
EP2383699B1 (en) 2015-08-19

Similar Documents

Publication Publication Date Title
ES2553258T3 (es) Método para la estimación de una pose de un modelo de objeto articulado
US11727587B2 (en) Method and system for scene image modification
US10659773B2 (en) Panoramic camera systems
JP5342036B2 (ja) 3d表面形状をキャプチャーするための方法
Wei et al. Fisheye video correction
US10002463B2 (en) Information processing apparatus, information processing method, and storage medium, for enabling accurate detection of a color
US7573475B2 (en) 2D to 3D image conversion
US7573489B2 (en) Infilling for 2D to 3D image conversion
ES2812578T3 (es) Estimación de una postura basada en la silueta
US8451322B2 (en) Imaging system and method
ES2743491T3 (es) Superposición digital de una imagen con otra imagen
US20040257540A1 (en) Single or multi-projector for arbitrary surfaces without calibration nor reconstruction
Germann et al. Articulated billboards for video‐based rendering
Schöps et al. Real-time view correction for mobile devices
JP2013012045A (ja) 画像処理方法、画像処理装置及びコンピュータプログラム
JP6799468B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
Lee et al. Estimation of illuminants for plausible lighting in augmented reality
WO2013021150A1 (en) Fisheye video correction
Silva et al. Automatic camera control in virtual environments augmented using multiple sparse videos
EP4150560B1 (en) Single image 3d photography with soft-layering and depth-aware inpainting
KR20120118462A (ko) 이미지 기반의 비주얼 헐에서의 오목 표면 모델링
KR20130117668A (ko) 3차원 볼륨 데이터 생성 방법
JP2015033047A (ja) 複数カメラを用いた奥行き推定装置
JP2019032742A (ja) 画像処理装置、画像処理方法及びプログラム
Ahmed et al. Projection mapping onto deformable nonrigid surfaces using adaptive selection of fiducials