ES2553258T3 - Método para la estimación de una pose de un modelo de objeto articulado - Google Patents
Método para la estimación de una pose de un modelo de objeto articulado Download PDFInfo
- Publication number
- ES2553258T3 ES2553258T3 ES11405250.9T ES11405250T ES2553258T3 ES 2553258 T3 ES2553258 T3 ES 2553258T3 ES 11405250 T ES11405250 T ES 11405250T ES 2553258 T3 ES2553258 T3 ES 2553258T3
- Authority
- ES
- Spain
- Prior art keywords
- pose
- object model
- articulated object
- articulated
- source image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Un método implementado por ordenador para la estimación de una pose de un modelo de objeto articulado (4), en el que el modelo de objeto articulado (4) es un modelo en 3D basado en ordenador (1) de un objeto del mundo real (14) observado por una o más cámaras de origen (9), y el modelo de objeto articulado (4) representa una pluralidad de articulaciones (2) y de enlaces (3) que enlazan las articulaciones (2), y en el que la pose del modelo de objeto articulado (4) está definido por la localización espacial de las articulaciones (2), el método comprende los pasos de - obtener por lo menos una imagen de origen (10) desde una corriente de vídeo que comprende una vista del objeto del mundo real (14) grabada por una cámara de origen (9); - procesar la por lo menos una imagen de origen (10) para extraer un segmento de imagen de origen correspondiente (13) que comprende la vista del objeto del mundo real (14) separado del fondo de la imagen; - mantener, en una base de datos en forma legible por ordenador, un conjunto de siluetas de referencia, cada silueta de referencia está asociada con un modelo de objeto articulado (4) y con una pose de referencia particular de este modelo de objeto articulado (4); - comparar el por lo menos un segmento de imagen de origen (13) con las siluetas de referencia y seleccionar un número predeterminado de siluetas de referencia, teniendo en cuenta, para cada silueta de referencia, o un error de coincidencia que indica cuán estrechamente la silueta de referencia coincide con el segmento de imagen de origen (13) y o un error de consistencia que indica cuánto la pose de referencia es consistente con la pose del mismo objeto del mundo real (14) de acuerdo con lo estimado a partir de por lo menos una de imágenes de origen precedentes y siguientes (10) de la corriente de vídeo; - recuperar de las poses de referencia de los modelos de objeto articulado (4) asociadas con la seleccionada de las siluetas de referencia; y - calcular una estimación de la pose del modelo de objeto articulado (4) a partir de las poses de referencia de las siluetas de referencia seleccionadas.
Description
5
10
15
20
25
30
35
complejas y técnicas de reconstrucción de vista múltiple. Los resultados demuestran la flexibilidad y la solidez del enfoque con vídeos de punto de vista libre de alta calidad generados a partir de imágenes de difusión de entornos no controlados desafiantes.
Observación general con respecto a la terminología: la expresión "A está asociada con B" significa que hay una asignación, o, en otras palabras, una relación entre A y B. La relación puede ser una relación de uno a uno, de uno a muchos o de muchos a muchos.
Un producto de programa de ordenador para la estimación de una pose de un modelo de objeto articulado de acuerdo con la invención se puede cargar en una memoria interna de un ordenador digital o un sistema de ordenador que comprende una memoria de ordenador y una unidad de procesamiento acoplada a la memoria de ordenador, y comprende un código de programa de ordenador significa, es decir, instrucciones legibles por ordenador, para hacer, cuando dicho medio de código de programa de ordenador es cargado en el ordenador, el ordenador ejecuta el método de acuerdo con la invención. En una realización preferida de la invención, el producto de programa de ordenador comprende un medio de almacenamiento legible por ordenador, que tiene el medio de código de programa de ordenador grabado en el mismo.
Otras realizaciones preferidas son evidentes a partir de las reivindicaciones dependientes de la patente.
Breve descripción de los dibujos
El objetivo de la invención se explicará con más detalle en el siguiente texto con referencia a realizaciones representativas preferidas que se ilustran en los dibujos adjuntos, en los cuales:
Figura 1 representa en forma esquemática una visión general sobre una escena del mundo real; Figura 2 es un modelo de objeto articulado con superficies de proyección asociadas; Figura 3a es una silueta típica de una imagen segmentada; Figura 3b son tres mejores poses de coincidencia a partir de una base de datos; Figura 3c una pose del esqueleto en 2D estimada a partir de la mejor coincidencia; Figura 4 estimación de articulaciones en 3D a partir de dos imágenes de la cámara; Figura 5a una imagen con posiciones de la articulación (manualmente) corregidas; Figura 5b una adaptación inicial de una plantilla de forma 3D pre-segmentada para una imagen; Figura 5c un ajuste corregido que coincide exactamente con las posiciones de la articulación en 5a; Figura 6a una segmentación inicial de una imagen de un cuerpo, con píxeles seguros derivados de un modelo
de plantilla, y con píxeles limítrofes inseguros; Figura 6b una segmentación después del etiquetado de acuerdo con un modelo de color capacitado; Figura 6c una segmentación final después de la eliminación morfológica de los valores atípicos; Figura 7a carteleras mal alineadas en un ventilador de cartelera; Figura 7b un ventilador de cartelera antes de la optimización de la articulación; Figura 7c el mismo ventilador de cartelera después de la optimización de la articulación; Figura 8a errores de muestreo que provocan grietas entre las carteleras; Figura 8b un artefacto de representación correspondiente; Figura 8c corrección del artefacto de representación; Figura 9a ejemplo de peso de mezcla para dos cámaras de origen; Figura 9b imagen representada sin suavizado; Figura 9c imagen representada con un suavizado de adaptación; Figura 9d discontinuidades donde se ha aplicado el suavizado; y Figura 10 un diagrama de flujo de un método de acuerdo con la invención. Los símbolos de referencia utilizados en los dibujos, y sus significados, se enumeran en forma sintetizada en la lista de símbolos de referencia. En principio, las partes idénticas se proporcionan con los mismos símbolos de referencia en los dibujos.
Descripción detallada de realizaciones preferidas
La Figura 1 muestra en forma esquemática una visión general sobre una escena del mundo real 8, la escena 8 comprende un objeto del mundo real 14 tal como un ser humano, que está siendo observado por dos o más cámaras de origen 9, 9’, cada una de los cuales genera una corriente de vídeo de imágenes de origen 10, 10’. El sistema y el método de acuerdo con la invención genera una imagen virtual 12 que muestra la escena 8 desde un punto de vista de una cámara virtual 11 que es distinto de los puntos de vista de las cámaras de origen 9, 9’. En forma opcional, a partir de una secuencia de imágenes virtuales 12 se genera una corriente de vídeo virtual. Un aparato de acuerdo con la invención comprende una unidad de procesamiento 15 que lleva a cabo los cálculos de procesamiento de imágenes que aplican el método de la invención, dadas las imágenes de origen 10, 10’ y generan una o más imágenes virtuales
12. La unidad de procesamiento 15 está configurada para interactuar con una unidad de almacenamiento 16 para el almacenamiento de imágenes de origen 10, imágenes virtuales 12 y los resultados intermedios. La unidad de procesamiento 15 se controla por medio de una estación de trabajo 19 que en forma típica comprende un dispositivo de visualización, un dispositivo de entrada de datos tales como un teclado y un dispositivo de señalización tal como un ratón. La unidad de procesamiento 15 puede estar configurada para suministrar una corriente de vídeo virtual a un
9
5
10
15
20
25
30
35
automática las partes del cuerpo ocluidas, es robusto incluso para una calidad y resolución de imagen baja, y requiere sólo una pequeña cantidad de interacción de usuario sencilla durante el refinamiento de las posiciones de la articulación.
3. Construcción del Modelo de Cartelera Articulado en 3D
Se utilizan las posiciones de articulaciones en 3D computadas de la Sección 2.1 como una pose inicial de la representación de cartelera articulada final. Si una articulación del modelo de cartelera en 3D articulado no está posicionada de manera óptima, la textura resultante de la representación de todas las carteleras de un ventilador de cartelera no se alineará (véase la Figura 7a). En esta sección, se describe cómo las posiciones de la articulación en 3D se pueden optimizar en base a una medida cuantitativa de la alineación de las texturas de la cartelera.
En lo siguiente, primero se define una función de puntaje para una posición de una articulación en una sola vista y para un par de cámara. Esta función de puntaje se extiende luego a varias vistas y cámaras. Por el uso de esta función de puntaje y las limitaciones antropométricas, se optimiza la pose en 3D del modelo de cartelera articulado. Por último, se describirá una corrección de costura que elimina las discontinuidades de textura entre las carteleras adyacentes.
3.1. Puntaje de Posición
Para calificar la calidad de una posición de la articulación de una vista de salida V, se evalúan todas las carteleras adyacentes a esta articulación. Para cada ventilador de carteleras, la alineación de sus carteleras para un par de vistas de entrada (I1,I2) se puntúa por medio de una comparación de píxeles racional de las texturas proyectadas. Para cada píxel de salida p de V, el puntaje por píxel sI1, I2 (p) se define como
donde VIi(p) es la contribución del color de una cartelera asociada con la vista Ij de píxeles p. ε(·) es una medida de distancia de color en RGB. Los píxeles activos se definen como aquellos píxeles en la vista de salida V que reciben una contribución de color válida desde las vistas de entrada i1 e i2. La segmentación generada en la Sección 2.3 se utiliza para resolver la oclusión en forma fiable. El puntaje para una articulación en una vista V es la suma normalizada de todos los píxeles
El factor de normalización n(p) es 1, si por lo menos uno de los dos píxeles está activo y 0, de lo contrario. Por lo tanto, la función de puntaje mide la coincidencia de los valores de textura, mientras que n(p) penaliza las partes no alineadas como en la Figura 7a. Estas operaciones por píxeles se implementan de manera eficiente en la GPU por el uso de sombreadores de fragmentos. En resumen, el procedimiento de acuerdo con (1) y (2) determina a qué grado coinciden las contribuciones de imagen de diferentes cámaras, de acuerdo con lo observado desde el punto de vista virtual y en la imagen de salida virtual, y sólo para aquellos píxeles para los que la imagen de salida recibe una contribución de ambas cámaras de origen.
Durante más de dos vistas de entrada, se define el puntaje como un promedio ponderado de todos los pares de la cámara, donde el peso para cada par de la cámara depende del ángulo βi1,i2 entre las direcciones de visión respectivas, con ángulos estrechos que reciben un mayor peso:
donde I es el conjunto de todos los pares de vistas de entrada y ω(β) es, por ejemplo, un peso de Gauss:
13 5
10
15
20
25
30
35
40
45
Un valor adecuado para σ se determinó en forma empírica como 0,32. Por último, el puntaje de la posición de articulación es la suma normalizada de las puntuaciones en todas las vistas evaluadas:
dónde V es el conjunto de todos las vistas evaluadas.
3.2. Optimización de la Pose en 3D
Dado que la puntuación de la posición de la articulación depende de las vistas evaluadas, se necesita un conjunto adecuado V. Con el fin de cubrir un intervalo razonable de posiciones de visualización, se evalúa la función de puntaje en las posiciones de cámara de todas las vistas de entrada y las vistas virtuales en el centro entre cada par de la cámara. Para la optimización de posición de una articulación, se evalúa Sv en las posiciones espacialmente cercanas de los candidatos en una cuadrícula en 3D adaptativa y discreta. La cuadrícula se refina de manera codiciosa en torno a esas posiciones candidatas que consiguen un puntaje más alta Sv, hasta que se alcanza una resolución de la cuadrícula dada (ajustada en forma empírica a 1,2 cm).
Para evitar configuraciones degeneradas con ventiladores de cartelera de longitud cero, en forma adicional se considera la consistencia antropométrica [NAS09] durante la evaluación de cada pose. Una posición de la articulación recibe un puntaje de cero si no se mantiene una de las siguientes limitaciones:
La articulación está en o por encima del suelo. Las longitudes de los huesos del esqueleto topológicamente simétricos (por ej., el brazo izquierdo/derecho) no difieren más del 10%. Las longitudes de los huesos adyacentes están dentro de los estándares antropométricos. Las distancias a las articulaciones inconexas están dentro de los estándares antropométricos.
Para las dos últimas restricciones, se utiliza el quinto percentil de sujetos femeninos, que se redondea hacia abajo como longitudes mínimas, y el percentil número 95 de los sujetos masculinos se redondea como longitudes máximas.
Este proceso de optimización de búsqueda de cuadrícula se repite en forma iterativa a lo largo del esqueleto. Es decir, en cada iteración, la posición se optimiza por separado, de acuerdo con lo descrito, para cada articulación del conjunto de todas las articulaciones. En estos experimentos, se ha hallado que por lo general converge después de 4 iteraciones. Dado que la optimización está basada en funciones diana que están definidas en la imagen virtual, no se determinan parámetros innecesarios en última instancia, y la eficiencia global es alta. Véase la Figura 7 para un modelo de cartelera articulado antes (7b) y después (7c) de la optimización.
3.3. Corrección de la Costura de la Textura
Debido a la toma de muestras de las máscaras de segmentación de las carteleras durante la representación con la texturización proyectiva (véase la Figura 8a), pueden aparecer pequeñas discontinuidades (grietas visibles) entre las carteleras adyacentes en la vista de salida de acuerdo con lo mostrado en la Figura 8b: En la imagen virtual 12, un píxel de salida a partir de una primera cartelera 6 puede caer, cuando se proyecta en la imagen de origen segmentada 10, dentro de un segundo segmento 13b que se asigna a una segunda cartelera 6’ adyacente, en lugar de en un primer segmento 13a asignado a la primera cartelera 6. En consecuencia, el píxel de salida no recibe ninguna contribución de color en absoluto. Para superar este problema, estos píxeles de costura tienen que ser representados para ambas carteleras adyacentes. Por lo tanto, se marcan los píxeles como píxeles de costura en las vistas de entrada si cubren las carteleras sobre dos huesos del esqueleto adyacentes o enlaces 3 (por ej., un píxel encerrado por líneas discontinuas en la Figura 8a).
Para detectar los píxeles de costura, la máscara de segmentación es atravesada para cada vista de entrada. Un píxel p está marcado como píxel de costura, si cumple ambas de las siguientes condiciones:
Por lo menos un píxel p’ en su barrio de 4 tiene una etiqueta diferente, pero viene de la misma materia |profundidad(p) -profundidad(p')| < φ
donde la profundidad(·) es el valor de profundidad en este píxel. El umbral φ distingue entre las partes de oclusión y las partes conectadas. Se ajustó en forma empírica a φ= 3 cm. Un ejemplo para la máscara de segmentación
14 5
10
15
20
25
30
35
40
corregida en su costura y la mejora de representación resultante se muestra en la Figura 8c.
4. Representación
En lo que sigue se describe un procedimiento de representación para las carteleras articuladas. Se ha diseñado este algoritmo de acuerdo con los criterios generales definidos por Buehler et al. [BBM*01]. Debido a este entorno desafiante con errores de calibración y un posicionamiento de la cámara muy escaso, este enfoque particular está en:
Aspecto Consistente: Las carteleras adyacentes deben intersectar sin grietas o artefactos perturbadores y
mezclarse de manera realista con el medio ambiente. Continuidad Visual: Las carteleras no deben cambiar repentinamente o aparecer al mover el punto de vista. Interpolación de Vistas: Al ver la escena desde un ángulo y posición originales de la cámara, la vista
representada debe reproducir la de la cámara de entrada.
Las entradas al procedimiento de representación son el modelo de cartelera articulado, las vistas de entrada segmentadas I (Sección 2.3) y las costuras calculadas en la Sección 3.3. Para cada marco de salida representado, las carteleras articuladas están ordenadas de atrás hacia adelante para un manejo adecuado de las oclusiones. Con el fin de cumplir con los objetivos anteriores, se lleva a cabo un procedimiento de mezcla por píxel. Se separa entre los pesos por cámara que se calculan una vez por cartelera y los últimos pesos por píxel.
4.1. Pesos de la Mezcla de la Cámara
Para una mezcla suave de las carteleras 6 asociadas con un ventilador 7 de carteleras 6, se utiliza el mismo peso de Gauss que en la Ecuación (5). Para lograr una interpolación en una vista de cámara original 10, se introduce una función de atenuación que asegura que todas las vistas de una perspectiva de cámara original 9 son idénticas a las imágenes de origen de la cámara correspondientes 10 mientras que se sigue asumiendo una transición suave entre las diferentes vistas. La función de atenuación se define como f(IωMáx) = 1 para la vista de origen IωMáx con el valor más alto de α(·) (es decir, la cámara de origen 9 más cercana) y
para todas las otras cámaras Ij. d(V, IωMáx) es la distancia euclídea desde la posición de la cámara virtual del espectador 11 hasta la posición de la cámara de origen 9 de la vista IωMáx. La constante σ se determina en forma empírica como de 1 metro, que es inferior a la distancia mínima entre dos cámaras de origen 9 y por lo tanto no da lugar a ningún tipo de discontinuidad.
4.2. Procesamiento por Píxel
Las carteleras de un ventilador de cartelera se mezclan por píxel. De acuerdo con lo mostrado en la Figura 8a, se lleva a cabo una búsqueda de cámaras en la máscara de segmentación correspondiente de cada cartelera. Esto determina si el píxel de salida de corriente p está en la parte del cuerpo que pertenece a esta cartelera. Si es así, entonces la contribución de color correspondiente VIj (p) = 0 desde la vista de origen Ij y su valor alfa αIj (p) se puede añadir a la vista de salida V. De lo contrario, se ajusta αIj (p) = 0, es decir, transparente. El último caso también se produce cuando la parte del cuerpo correspondiente se ocluye en Ij y la información de color se debe tomar de otras cámaras. El valor de color resultante V(p) del píxel de pantalla es entonces
con el conjunto de todas las vistas de entrada I como en la Ecuación (2) y los pesos por píxel
Esto se hace para todos los canales de color por separado. El valor alfa resultante es
15
5
10
15
20
25
30
35
40
45
Light field rendering. En SIGGRAPH ’96 (1996), págs. 31 a 42.
MBR*00 MATUSIK W., BUEHLER C., RASKAR R., GORTLER S. J., MCMILLAN L.:
Image-based visual hulls. En SIGGRAPH ’00 (2000), págs. 369 a 374.
MHM*09 MAHAJAN D., HUANG F.-C., MATUSIK W., RAMAMOORTHI R., BELHUMEUR P.N.:
Moving gradients: a path-based method for plausible image interpolation. ACM Trans. Graph. 28, 3 (2009).
Mid09 Middlebury multi-view stereo evaluation. http://vision.middlebury.edu/mview/, Octubre de 2009.
NAS09 NASA:
Anthropometry and biomechanics. http://msis.jsc.nasa.gov/sections/section03.htm (2009).
PG08 PEKELNY Y., GOTSMAN C.:
Articulated object reconstruction and markerless motion capture from depth video. Comput. Graph. Forum 27, 2 (2008), 399 a 408.
RMD04 RECHE A., MARTIN I., DRETTAKIS G.:
Volumetric reconstruction and interactive rendering of trees from photographs. SIGGRAPH’04 23, 3 (Julio de 2004).
SGwHS98 SHADE J., GORTLER S., WEI HE L., SZELISKI R.:
Layered depth images. En SIGGRAPH’98 (1998), págs. 231 a 242.
Tho06 THOMAS G.:
Real-time camera pose estimation for augmenting sports scenes. Visual Media Production, 2006. CVMP 2006. 3rd European Conference on (2006), págs. 10 a 19.
VBMP08 VLASIC D., BARAN I., MATUSIK W., POPOVIC J.:
Articulated mesh animation from multi-view silhouettes. En SIGGRAPH ’08 (2008), págs. 1 a 9.
WWG07 WASCHBÜSCH M., WÜRMLIN S., GROSS M.:
3d video billboard clouds. Computer Graphics Forum 26, 3 (2007), 561 a 569.
YSK*02 YAMAZAKI S., SAGAWA R., KAWASAKI H., IKEUCHI K., SAKAUCHI M.:
Microfacet billboarding. En EGRW ’02 (2002), págs. 169 a 180.
19
Claims (1)
-
imagen1 imagen2 imagen3
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP10405091 | 2010-04-30 | ||
EP10405091A EP2383696A1 (en) | 2010-04-30 | 2010-04-30 | Method for estimating a pose of an articulated object model |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2553258T3 true ES2553258T3 (es) | 2015-12-07 |
Family
ID=42617427
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES15168192T Active ES2695157T3 (es) | 2010-04-30 | 2011-04-29 | Método de renderización |
ES11405250.9T Active ES2553258T3 (es) | 2010-04-30 | 2011-04-29 | Método para la estimación de una pose de un modelo de objeto articulado |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES15168192T Active ES2695157T3 (es) | 2010-04-30 | 2011-04-29 | Método de renderización |
Country Status (4)
Country | Link |
---|---|
US (1) | US8830236B2 (es) |
EP (3) | EP2383696A1 (es) |
JP (1) | JP5784356B2 (es) |
ES (2) | ES2695157T3 (es) |
Families Citing this family (116)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
JP5924862B2 (ja) * | 2010-12-15 | 2016-05-25 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
JP4784709B1 (ja) * | 2011-03-10 | 2011-10-05 | オムロン株式会社 | 対象物追跡装置、対象物追跡方法、および制御プログラム |
GB201104312D0 (en) * | 2011-03-14 | 2011-04-27 | Bell Alexandra | Improved virtual try on simulation service |
US9344707B2 (en) * | 2011-06-29 | 2016-05-17 | Microsoft Technology Licensing, Llc | Probabilistic and constraint based articulated model fitting |
JP5408205B2 (ja) * | 2011-08-25 | 2014-02-05 | カシオ計算機株式会社 | 制御点設定方法、制御点設定装置及びプログラム |
US8879835B2 (en) * | 2011-08-26 | 2014-11-04 | Adobe Systems Incorporated | Fast adaptive edge-aware matting |
CN104067317A (zh) * | 2011-09-08 | 2014-09-24 | 宝福特控股私人有限公司 | 用于在真实世界视频剪辑内对合成对象进行可视化的系统和方法 |
US8724906B2 (en) * | 2011-11-18 | 2014-05-13 | Microsoft Corporation | Computing pose and/or shape of modifiable entities |
US9350951B1 (en) * | 2011-11-22 | 2016-05-24 | Scott Dallas Rowe | Method for interactive training and analysis |
EP2597437A1 (en) * | 2011-11-28 | 2013-05-29 | ABB Technology AG | A method of assessing the technical condition of a rotating shaft |
KR101919831B1 (ko) | 2012-01-11 | 2018-11-19 | 삼성전자주식회사 | 오브젝트 인식 장치, 분류 트리 학습 장치 및 그 동작 방법 |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
WO2013112749A1 (en) | 2012-01-24 | 2013-08-01 | University Of Southern California | 3d body modeling, from a single or multiple 3d cameras, in the presence of motion |
US10033979B2 (en) * | 2012-03-23 | 2018-07-24 | Avigilon Fortress Corporation | Video surveillance systems, devices and methods with improved 3D human pose and shape modeling |
US9418475B2 (en) * | 2012-04-25 | 2016-08-16 | University Of Southern California | 3D body modeling from one or more depth cameras in the presence of articulated motion |
US20130321564A1 (en) | 2012-05-31 | 2013-12-05 | Microsoft Corporation | Perspective-correct communication window with motion parallax |
US9767598B2 (en) | 2012-05-31 | 2017-09-19 | Microsoft Technology Licensing, Llc | Smoothing and robust normal estimation for 3D point clouds |
US9846960B2 (en) | 2012-05-31 | 2017-12-19 | Microsoft Technology Licensing, Llc | Automated camera array calibration |
EP2674913B1 (en) * | 2012-06-14 | 2014-07-23 | Softkinetic Software | Three-dimensional object modelling fitting & tracking. |
TWI521469B (zh) * | 2012-06-27 | 2016-02-11 | Reallusion Inc | Two - dimensional Roles Representation of Three - dimensional Action System and Method |
JP2014102685A (ja) * | 2012-11-20 | 2014-06-05 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
US20140160122A1 (en) * | 2012-12-10 | 2014-06-12 | Microsoft Corporation | Creating a virtual representation based on camera data |
US9214138B2 (en) | 2012-12-28 | 2015-12-15 | Microsoft Technology Licensing, Llc | Redundant pixel mitigation |
US9135742B2 (en) | 2012-12-28 | 2015-09-15 | Microsoft Technology Licensing, Llc | View direction determination |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
US9426451B2 (en) * | 2013-03-15 | 2016-08-23 | Digimarc Corporation | Cooperative photography |
US9269003B2 (en) * | 2013-04-30 | 2016-02-23 | Qualcomm Incorporated | Diminished and mediated reality effects from reconstruction |
TWI530157B (zh) * | 2013-06-18 | 2016-04-11 | 財團法人資訊工業策進會 | 多視角影像之顯示系統、方法及其非揮發性電腦可讀取紀錄媒體 |
WO2015006791A1 (en) * | 2013-07-18 | 2015-01-22 | A.Tron3D Gmbh | Combining depth-maps from different acquisition methods |
JP6433149B2 (ja) | 2013-07-30 | 2018-12-05 | キヤノン株式会社 | 姿勢推定装置、姿勢推定方法およびプログラム |
EP3039653A1 (en) * | 2013-08-26 | 2016-07-06 | Sculpteo | Method for displaying section views of a 3d model using a fragment shader |
US10283005B2 (en) * | 2013-10-24 | 2019-05-07 | Huawei Device Co., Ltd. | Image display method and apparatus |
US9307191B2 (en) * | 2013-11-19 | 2016-04-05 | Microsoft Technology Licensing, Llc | Video transmission |
US9940727B2 (en) | 2014-06-19 | 2018-04-10 | University Of Southern California | Three-dimensional modeling from wide baseline range scans |
CN104517292A (zh) * | 2014-12-25 | 2015-04-15 | 杭州电子科技大学 | 基于平面单应矩阵约束的多摄像机高密度人群分割方法 |
JP6501348B2 (ja) * | 2014-12-26 | 2019-04-17 | Kddi株式会社 | 自由視点画像生成装置、方法およびプログラム |
US9940524B2 (en) | 2015-04-17 | 2018-04-10 | General Electric Company | Identifying and tracking vehicles in motion |
US10043307B2 (en) | 2015-04-17 | 2018-08-07 | General Electric Company | Monitoring parking rule violations |
US9704298B2 (en) | 2015-06-23 | 2017-07-11 | Paofit Holdings Pte Ltd. | Systems and methods for generating 360 degree mixed reality environments |
US9858669B2 (en) * | 2015-10-23 | 2018-01-02 | The Boeing Company | Optimized camera pose estimation system |
CN105610868B (zh) | 2016-03-03 | 2019-08-06 | 腾讯科技(深圳)有限公司 | 一种信息交互的方法、设备及系统 |
US10318813B1 (en) | 2016-03-11 | 2019-06-11 | Gracenote, Inc. | Digital video fingerprinting using motion segmentation |
US10325370B1 (en) * | 2016-05-31 | 2019-06-18 | University Of New Brunswick | Method and system of coregistration of remote sensing images |
US10311648B2 (en) * | 2016-06-22 | 2019-06-04 | Aquifi, Inc. | Systems and methods for scanning three-dimensional objects |
US10368057B1 (en) | 2016-09-28 | 2019-07-30 | Amazon Technologies, Inc. | Synchronizing data streams |
JP6838912B2 (ja) * | 2016-09-29 | 2021-03-03 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
US10235771B2 (en) * | 2016-11-11 | 2019-03-19 | Qualcomm Incorporated | Methods and systems of performing object pose estimation |
WO2018087933A1 (ja) | 2016-11-14 | 2018-05-17 | 富士通株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US10529137B1 (en) * | 2016-11-29 | 2020-01-07 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Machine learning systems and methods for augmenting images |
JP6799468B2 (ja) * | 2017-01-17 | 2020-12-16 | Kddi株式会社 | 画像処理装置、画像処理方法及びコンピュータプログラム |
WO2018147329A1 (ja) * | 2017-02-10 | 2018-08-16 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 自由視点映像生成方法及び自由視点映像生成システム |
JP6676562B2 (ja) * | 2017-02-10 | 2020-04-08 | 日本電信電話株式会社 | 画像合成装置、画像合成方法及びコンピュータプログラム |
JP6730204B2 (ja) * | 2017-02-10 | 2020-07-29 | 日本電信電話株式会社 | 画像合成装置、画像合成方法及びコンピュータプログラム |
US11379688B2 (en) | 2017-03-16 | 2022-07-05 | Packsize Llc | Systems and methods for keypoint detection with convolutional neural networks |
US10250868B1 (en) * | 2017-03-29 | 2019-04-02 | Amazon Technologies, Inc. | Synchronizing data streams |
WO2018207282A1 (ja) | 2017-05-10 | 2018-11-15 | 富士通株式会社 | 対象物認識方法、装置、システム、プログラム |
CN110892455A (zh) * | 2017-07-14 | 2020-03-17 | 索尼公司 | 图像处理装置、用于图像处理装置的图像处理方法和程序 |
US10431000B2 (en) * | 2017-07-18 | 2019-10-01 | Sony Corporation | Robust mesh tracking and fusion by using part-based key frames and priori model |
US10304258B2 (en) * | 2017-07-24 | 2019-05-28 | Microsoft Technology Licensing, Llc | Human feedback in 3D model fitting |
WO2019030794A1 (ja) * | 2017-08-07 | 2019-02-14 | 富士通株式会社 | 情報処理装置、モデルデータ作成プログラム、モデルデータ作成方法 |
US10535155B2 (en) | 2017-10-24 | 2020-01-14 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for articulated pose estimation |
CN108304762B (zh) * | 2017-11-30 | 2021-11-05 | 腾讯科技(深圳)有限公司 | 一种人体姿态匹配方法及其设备、存储介质、终端 |
US10796452B2 (en) | 2017-12-03 | 2020-10-06 | Facebook, Inc. | Optimizations for structure mapping and up-sampling |
US10692243B2 (en) | 2017-12-03 | 2020-06-23 | Facebook, Inc. | Optimizations for dynamic object instance detection, segmentation, and structure mapping |
CN111670457B (zh) * | 2017-12-03 | 2023-12-01 | 元平台公司 | 动态对象实例检测、分割和结构映射的优化 |
EP3726468A4 (en) * | 2017-12-14 | 2020-12-16 | Fujitsu Limited | PROGRAM DETECTION PROGRAM, PROCEDURE DETECTION METHOD, AND PROCEDURE DETECTION SYSTEM |
US11127189B2 (en) * | 2018-02-23 | 2021-09-21 | Canon Kabushiki Kaisha | 3D skeleton reconstruction from images using volumic probability data |
US10796468B2 (en) * | 2018-02-26 | 2020-10-06 | Didimo, Inc. | Automatic rig creation process |
US11508107B2 (en) | 2018-02-26 | 2022-11-22 | Didimo, Inc. | Additional developments to the automatic rig creation process |
WO2019173108A1 (en) | 2018-03-06 | 2019-09-12 | Didimo, Inc. | Electronic messaging utilizing animatable 3d models |
US11741650B2 (en) | 2018-03-06 | 2023-08-29 | Didimo, Inc. | Advanced electronic messaging utilizing animatable 3D models |
US10950043B1 (en) | 2018-04-03 | 2021-03-16 | A9.Com, Inc. | Rendering three-dimensional models on mobile devices |
CN108710830B (zh) * | 2018-04-20 | 2020-08-28 | 浙江工商大学 | 一种结合密集连接注意力金字塔残差网络和等距限制的人体3d姿势估计方法 |
WO2019216593A1 (en) * | 2018-05-11 | 2019-11-14 | Samsung Electronics Co., Ltd. | Method and apparatus for pose processing |
CN110472462A (zh) * | 2018-05-11 | 2019-11-19 | 北京三星通信技术研究有限公司 | 姿态估计方法、基于姿态估计的处理方法及电子设备 |
JP7447077B2 (ja) | 2018-07-27 | 2024-03-11 | アパリオ グローバル ソリューションズ (アーゲーエス) アーゲー | 映像ストリームにおける動的画像コンテンツ置換のための方法およびシステム |
US11107239B2 (en) * | 2018-08-20 | 2021-08-31 | Beijing Sensetime Technology Development Co., Ltd. | Pose detection method and device, electronic device and storage medium |
US10902638B2 (en) | 2018-09-28 | 2021-01-26 | Wipro Limited | Method and system for detecting pose of a subject in real-time |
RU2713695C1 (ru) * | 2019-02-21 | 2020-02-06 | Самсунг Электроникс Ко., Лтд. | Текстурированные нейронные аватары |
WO2020096403A1 (en) | 2018-11-09 | 2020-05-14 | Samsung Electronics Co., Ltd. | Textured neural avatars |
JP7395189B2 (ja) | 2018-11-22 | 2023-12-11 | 国立大学法人 東京大学 | モーションキャプチャ・カメラシステム及びキャリブレーション方法 |
TWI715903B (zh) * | 2018-12-24 | 2021-01-11 | 財團法人工業技術研究院 | 動作追蹤系統及方法 |
US11403664B2 (en) * | 2019-03-11 | 2022-08-02 | International Business Machines Corporation | Generating aesthetics and safety information for billboard marketing |
CN109949368B (zh) * | 2019-03-14 | 2020-11-06 | 郑州大学 | 一种基于图像检索的人体三维姿态估计方法 |
CN109977827B (zh) * | 2019-03-17 | 2020-11-13 | 浙江大学 | 一种使用多视图匹配方法的多人三维姿态估计方法 |
CN113711279A (zh) * | 2019-05-14 | 2021-11-26 | 英特尔公司 | 沉浸式媒体的自动点云验证 |
CN110473266A (zh) * | 2019-07-08 | 2019-11-19 | 南京邮电大学盐城大数据研究院有限公司 | 一种基于姿态指导的保留源场景人物动作视频生成方法 |
US11645800B2 (en) | 2019-08-29 | 2023-05-09 | Didimo, Inc. | Advanced systems and methods for automatically generating an animatable object from various types of user input |
US11182945B2 (en) | 2019-08-29 | 2021-11-23 | Didimo, Inc. | Automatically generating an animatable object from various types of user input |
US11295527B2 (en) * | 2019-08-30 | 2022-04-05 | Sprongo, LLC | Instant technique analysis for sports |
KR20210030147A (ko) * | 2019-09-09 | 2021-03-17 | 삼성전자주식회사 | 3d 렌더링 방법 및 장치 |
US11804076B2 (en) | 2019-10-02 | 2023-10-31 | University Of Iowa Research Foundation | System and method for the autonomous identification of physical abuse |
US11544872B2 (en) | 2019-10-07 | 2023-01-03 | Sony Group Corporation | Camera calibration method using human joint points |
US11288841B2 (en) * | 2019-10-17 | 2022-03-29 | Shanghai United Imaging Intelligence Co., Ltd. | Systems and methods for patient positioning |
US11373331B2 (en) | 2019-12-18 | 2022-06-28 | Agt International Gmbh | System, method and computer program product for determining sizes and/or 3D locations of objects imaged by a single camera |
CN111199576B (zh) * | 2019-12-25 | 2023-08-18 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于移动平台的室外大范围人体姿态重建方法 |
US10911775B1 (en) | 2020-03-11 | 2021-02-02 | Fuji Xerox Co., Ltd. | System and method for vision-based joint action and pose motion forecasting |
CN111611997B (zh) * | 2020-04-30 | 2023-04-18 | 青岛联合创智科技有限公司 | 一种基于人体动作迁移的卡通定制形象运动视频生成方法 |
CN111627101B (zh) * | 2020-05-22 | 2023-05-26 | 北京工业大学 | 一种基于图卷积的三维人体重构方法 |
CN111832386A (zh) * | 2020-05-22 | 2020-10-27 | 大连锐动科技有限公司 | 一种估计人体姿态的方法、装置及计算机可读介质 |
US11924397B2 (en) * | 2020-07-23 | 2024-03-05 | Samsung Electronics Co., Ltd. | Generation and distribution of immersive media content from streams captured via distributed mobile devices |
US11763508B2 (en) | 2020-11-11 | 2023-09-19 | Sony Interactive Entertainment Inc. | Disambiguation of poses |
US11263796B1 (en) | 2020-11-11 | 2022-03-01 | Sony Interactive Entertainment Inc. | Binocular pose prediction |
WO2022137450A1 (ja) * | 2020-12-24 | 2022-06-30 | 株式会社Splyza | 情報処理装置、情報処理方法およびプログラム |
CN112907631B (zh) * | 2021-02-20 | 2021-11-19 | 北京未澜科技有限公司 | 一种引入反馈机制的多rgb相机实时人体动作捕捉系统 |
CN113160381B (zh) * | 2021-03-23 | 2023-02-03 | 清华大学 | 多视角动物三维几何与纹理自动化重建方法和装置 |
JP2022155037A (ja) * | 2021-03-30 | 2022-10-13 | 新東工業株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US20230196817A1 (en) * | 2021-12-16 | 2023-06-22 | Adobe Inc. | Generating segmentation masks for objects in digital videos using pose tracking data |
US20240005579A1 (en) * | 2022-06-30 | 2024-01-04 | Microsoft Technology Licensing, Llc | Representing two dimensional representations as three-dimensional avatars |
WO2024006997A1 (en) * | 2022-07-01 | 2024-01-04 | Google Llc | Three-dimensional video highlight from a camera source |
CN115620082B (zh) * | 2022-09-29 | 2023-09-01 | 合肥的卢深视科技有限公司 | 模型训练方法、头部姿态估计方法、电子设备及存储介质 |
CN115544777B (zh) * | 2022-10-17 | 2023-05-16 | 中船智能科技(上海)有限公司 | 一种表征关节助力补偿值的方法及系统 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9308952D0 (en) * | 1993-04-30 | 1993-06-16 | Philips Electronics Uk Ltd | Tracking objects in video sequences |
JP3377465B2 (ja) * | 1999-04-08 | 2003-02-17 | ファナック株式会社 | 画像処理装置 |
JP4695275B2 (ja) * | 2001-03-07 | 2011-06-08 | 独立行政法人科学技術振興機構 | 動画像生成システム |
US7447331B2 (en) * | 2004-02-24 | 2008-11-04 | International Business Machines Corporation | System and method for generating a viewable video index for low bandwidth applications |
EP1862969A1 (en) * | 2006-06-02 | 2007-12-05 | Eidgenössische Technische Hochschule Zürich | Method and system for generating a representation of a dynamically changing 3D scene |
US8023726B2 (en) * | 2006-11-10 | 2011-09-20 | University Of Maryland | Method and system for markerless motion capture using multiple cameras |
US7853038B2 (en) * | 2007-01-04 | 2010-12-14 | Industrial Technology Research Institute | Systems and methods for object dimension estimation |
JP2009015671A (ja) * | 2007-07-06 | 2009-01-22 | Sony Corp | 情報処理装置および方法、並びにプログラム |
-
2010
- 2010-04-30 EP EP10405091A patent/EP2383696A1/en not_active Withdrawn
-
2011
- 2011-04-28 JP JP2011101254A patent/JP5784356B2/ja not_active Expired - Fee Related
- 2011-04-28 US US13/096,488 patent/US8830236B2/en active Active
- 2011-04-29 ES ES15168192T patent/ES2695157T3/es active Active
- 2011-04-29 EP EP15168192.1A patent/EP2930689B1/en active Active
- 2011-04-29 ES ES11405250.9T patent/ES2553258T3/es active Active
- 2011-04-29 EP EP11405250.9A patent/EP2383699B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP2930689A1 (en) | 2015-10-14 |
JP5784356B2 (ja) | 2015-09-24 |
JP2011238222A (ja) | 2011-11-24 |
EP2383696A1 (en) | 2011-11-02 |
EP2383699A2 (en) | 2011-11-02 |
EP2383699A3 (en) | 2012-04-04 |
US20110267344A1 (en) | 2011-11-03 |
US8830236B2 (en) | 2014-09-09 |
EP2930689B1 (en) | 2017-12-06 |
ES2695157T3 (es) | 2019-01-02 |
EP2383699B1 (en) | 2015-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2553258T3 (es) | Método para la estimación de una pose de un modelo de objeto articulado | |
US11727587B2 (en) | Method and system for scene image modification | |
US10659773B2 (en) | Panoramic camera systems | |
JP5342036B2 (ja) | 3d表面形状をキャプチャーするための方法 | |
Wei et al. | Fisheye video correction | |
US10002463B2 (en) | Information processing apparatus, information processing method, and storage medium, for enabling accurate detection of a color | |
US7573475B2 (en) | 2D to 3D image conversion | |
US7573489B2 (en) | Infilling for 2D to 3D image conversion | |
ES2812578T3 (es) | Estimación de una postura basada en la silueta | |
US8451322B2 (en) | Imaging system and method | |
ES2743491T3 (es) | Superposición digital de una imagen con otra imagen | |
US20040257540A1 (en) | Single or multi-projector for arbitrary surfaces without calibration nor reconstruction | |
Germann et al. | Articulated billboards for video‐based rendering | |
Schöps et al. | Real-time view correction for mobile devices | |
JP2013012045A (ja) | 画像処理方法、画像処理装置及びコンピュータプログラム | |
JP6799468B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
Lee et al. | Estimation of illuminants for plausible lighting in augmented reality | |
WO2013021150A1 (en) | Fisheye video correction | |
Silva et al. | Automatic camera control in virtual environments augmented using multiple sparse videos | |
EP4150560B1 (en) | Single image 3d photography with soft-layering and depth-aware inpainting | |
KR20120118462A (ko) | 이미지 기반의 비주얼 헐에서의 오목 표면 모델링 | |
KR20130117668A (ko) | 3차원 볼륨 데이터 생성 방법 | |
JP2015033047A (ja) | 複数カメラを用いた奥行き推定装置 | |
JP2019032742A (ja) | 画像処理装置、画像処理方法及びプログラム | |
Ahmed et al. | Projection mapping onto deformable nonrigid surfaces using adaptive selection of fiducials |