JP5931215B2 - 姿勢を推定する方法及び装置 - Google Patents
姿勢を推定する方法及び装置 Download PDFInfo
- Publication number
- JP5931215B2 JP5931215B2 JP2014546326A JP2014546326A JP5931215B2 JP 5931215 B2 JP5931215 B2 JP 5931215B2 JP 2014546326 A JP2014546326 A JP 2014546326A JP 2014546326 A JP2014546326 A JP 2014546326A JP 5931215 B2 JP5931215 B2 JP 5931215B2
- Authority
- JP
- Japan
- Prior art keywords
- node
- topology
- nodes
- topology element
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 35
- 230000033001 locomotion Effects 0.000 claims description 46
- 239000013598 vector Substances 0.000 claims description 26
- 230000008859 change Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000001454 recorded image Methods 0.000 claims description 3
- 238000003709 image segmentation Methods 0.000 description 10
- 238000012549 training Methods 0.000 description 9
- 210000003484 anatomy Anatomy 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- GNFTZDOKVXKIBK-UHFFFAOYSA-N 3-(2-methoxyethoxy)benzohydrazide Chemical compound COCCOC1=CC=CC(C(=O)NN)=C1 GNFTZDOKVXKIBK-UHFFFAOYSA-N 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 210000001217 buttock Anatomy 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000036512 infertility Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000005180 public health Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 210000000323 shoulder joint Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
- G06T2207/20044—Skeletonization; Medial axis transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Description
a.3D点雲のデータ点Xをランダムに選択するステップ、
b.Xからの最短距離を示すトポロジーのノードを決定するステップ、
c.bで決定されたノードの全ての隣接ノードをトポロジーのエッジ指定に従って決定するステップ、
d.b.及びc.で決定されたノードをXの方向に移動させるステップ(これに関しては特許文献1の式(2)及び(3)を参照されたい)、
e.移動ベクトルに、b.で決定されたノードに関してc.で決定されたノードのちょうど半分のサイズを表す学習率を掛けるステップ(これに関しては特許文献1、p13、第4段落を参照されたい)、及び
f.学習率を徐々に低減しながら、所定の学習ステップ数にわたってステップaからステップeまでを繰返すステップ
を有する、パターン毎の(pattern−by−pattern)学習則を適用することによって行われる。
a.3D点雲のデータ点Xをランダムに選択するステップと、
b.各トポロジー要素を基準としたXに関する交差点Pを計算し、Pが各場合においてトポロジー要素の内部に在るかどうかを識別するステップと、
c.Xから各トポロジー要素までの距離を差分ベクトルX−Pのノルムとして計算するステップと、
d.その交差点Pがトポロジー要素の内部に在る全てのトポロジー要素の中で、Xからの最短距離を示すトポロジー要素を決定するステップと、
e.ステップdで決定されたトポロジー要素を、該トポロジー要素を確立する全てのノードをベクトルX−Pの方向に移動させることによって移動させるステップであって、ノードの移動ベクトルに、学習率と、ステップdで決定されたトポロジー要素を基準としたXに関する交差点Pから生じる重みとが掛けられている、移動させるステップと、
f.学習率を段階的に低減しながら、ステップaからステップeまでを所定数の学習ステップにわたって繰返すステップと、
g.K≧1として、所定の学習ステップ数のK回のパスの後で電子メモリの表内のノード座標を更新するステップと、
h.さらなる処理のために、少なくとも表内の更新されたノード座標を提供するステップと、
を含む。
a.3D点雲のデータ点Xをランダムに選択するステップと、
b.各トポロジー要素を基準としたXに関する交差点Pを計算し、Pが各場合においてトポロジー要素の内部に在るかどうかを判断するステップと、
c.Xから各トポロジー要素までの距離を差分ベクトルX−Pのノルムとして計算するステップと、
d.交差点Pがトポロジー要素の内部に在る全てのトポロジー要素から、Xからの最短距離を示すトポロジー要素を決定するステップと、
e.ステップdで決定されたトポロジー要素を、該トポロジー要素を確立する全てのノードをベクトルX−Pの方向に移動させることによって移動させるステップであって、ノードの移動ベクトルに、学習率と、ステップdで決定されたトポロジー要素を基準としたにXに関する交差点Pから生じる重みとが掛けられている、移動させるステップと、
f.学習率を徐々に低減しながら、ステップaからステップeまでを所定の学習ステップ数にわたって繰返すステップと、
g.K≧1として、所定の学習ステップ数のK回のパスの後で電子メモリの表内のノード座標を更新するステップと、
h.さらなる処理のために、少なくとも表内の更新されたノード座標を提供するステップと、を実行するようにさらに設計される。
(1) P=W+αΔW
式中、Wは、エッジの任意の(第1の)ノードを表し、ΔWは、エッジの第2のノードと第1のノードとの間の差分ベクトルを表し、αは実数を表す。明確にするために、このエッジはノード対(W,W+ΔW)によって記述されるものとする。
この点Pは次式で表すことができ、
(2) P=W+σ 1 ΔW1+σ 2 ΔW2
式中、Wは、三角形の任意の(第1の)ノードを表し、ΔW1、ΔW2は、三角形の第2及び/又は第3のノードと第1のノードとの間の差分ベクトルを表し、σ1、σ2は実数を表す。明確にするために、三角形はノード三つ組(W,W+ΔW1,W+ΔW2)によって記述されるものとする。
図3a)は、骨格モデルの出発三角形、及びランダムに選択された点Xを示す。Xに関連付けられた交差点Pは三角形面内に在り、式(2)に従うノード座標ベクトルの1次結合として表すことができる。説明のために、表示係数σ1、σ2が三角形の辺に示されている。これらは、図2b)における係数αと同様に三角形の辺の長さの分率と解釈される。交差点が三角形の内部に在るので、三角形からのXの距離は、ベクトルD=X−Pのノルムとして決定され、さらなる計算の際に使用される。この距離が骨格モデルの全てのトポロジー要素からのXの最短距離となることが判明した場合、三角形は移動される。
a.3D点雲のデータ点Xをランダムに選択するステップと、
b.トポロジー要素を基準としたXに関する交差点Pを計算し、その少なくとも1つのトポロジー整合表示係数を決定するステップと、
c.交差点がトポロジー要素の内部にない場合に該交差点を棄却することと、
d.Xからトポロジー要素までの距離を差分ベクトルX−Pのノルムとして計算するステップと、
e.解剖学的モデルの全てのトポロジー要素についてステップb.からステップd.までを繰返すステップと、
f.Xからの最短距離を示すトポロジー要素を決定するステップと、
g.f.で決定されたトポロジー要素を、該トポロジー要素を確立する全てのノードをベクトルX−Pの方向に移動させることによって移動させるステップであって、この移動ベクトルには、学習率と、e.で決定された、トポロジー要素を基準としたXに関する交差点Pのトポロジー整合表示係数から生じる重みとが掛けられている、移動させるステップと、
h.学習率を徐々に低減しながら、ステップa.からステップg.までを所定の学習ステップ数にわたって繰返すステップと、
によって要約される。
Claims (8)
- 3D点雲のシーケンスに連続的にフィッティングされる骨格モデルのノードの3D位置座標の移動のコンピュータ計算による、動いている物体の姿勢推定の方法であって、前記ノードの座標は、電子メモリ内に表形式で存在し、前記3D点雲は、前記動いている物体を表す、深度センサカメラの電子的に記録された画像から決定され、
前記骨格モデルは、N1、N2>0及びN3≧0であるN1個のノード、N2個のエッジ、及びN3個の三角形をトポロジー要素として示すトポロジーであり、各々のトポロジー要素は、ノード、ノード対、又はノード三つ組によって記述され、前記動いている物体の一部分に堅固に割り当てられており、算術演算装置が、以下の
a.前記3D点雲のデータ点Xをランダムに選択するステップと、
b.各トポロジー要素を基準としたXに関する交差点Pを計算し、Pが各場合において前記トポロジー要素の内部に在るかどうかを識別するステップと、
c.Xから各トポロジー要素までの距離を差分ベクトルX−Pのノルムとして計算するステップと、
d.その交差点Pがトポロジー要素の内部に在る全てのトポロジー要素の中で、Xからの最短距離を示すトポロジー要素を決定するステップと、
e.ステップdで決定された前記トポロジー要素を、該トポロジー要素を確立する全てのノードを前記ベクトルX−Pの方向に移動させることによって移動させるステップであって、ノードの移動ベクトルに、学習率と、前記ステップdで決定された前記トポロジー要素を基準としたXに関する交差点Pから生じる重みとが掛けられている、移動させるステップと、
f.前記学習率を徐々に低減しながら、ステップaからステップeまでを所定の学習ステップ数にわたって繰返すステップと、
g.K≧1として、前記所定の学習ステップ数のK回のパスの後で前記電子メモリの前記表内の前記ノード座標を更新するステップと、
h.さらなる処理のために、少なくとも前記表内の前記更新されたノード座標を提供するステップと、
を実行することを特徴とする方法。 - 前記ステップbにおいて、トポロジー要素を基準とした交差点Pは、該トポロジー要素を確立するノードの座標ベクトルの一次結合として表され、Pが該トポロジー要素の内部に在るかどうかは表示係数から決定されることを特徴とする、請求項1に記載の方法。
- 前記ステップeにおける前記重みは、Pの表示係数から計算されることを特徴とする、請求項1〜請求項2のいずれかに記載の方法。
- 前記ステップaから前記ステップeまでの前記繰返し回数が1,000と5,000との間であり、特に2,000と3,000との間であることを特徴とする、請求項1〜請求項3のいずれか記載の方法。
- 前記学習率は、出発値0.5と最終値0.01との間であることを特徴とする、請求項1〜請求項4のいずれかに記載の方法。
- 制御される装置に対する制御コマンドを、前記更新されたノード座標の前記表からの情報に基づいて生成するステップと、前記制御される装置を前記制御コマンドによって制御するステップと、をさらに含むことを特徴とする、請求項1〜請求項5のいずれかに記載の方法。
- 動いている物体の姿勢推定のための装置であって、
前記動いている物体の電子画像を検出するための深度センサカメラと、
前記深度センサカメラの前記電子画像を格納するための電子メモリと、
前記カメラによる画像記録と時間的に歩調を合わせて、前記電子画像から前記物体を表す3D点雲を決定するように設計された算術演算装置と、
を備え、
前記メモリは、骨格モデルのノードの3D座標のリストをさらに格納し、前記算術演算装置は、前記骨格モデルのトポロジー要素の表現としての個々のノード、所定のノード対、及び所定のノード三つ組に関するこれらの座標を読み出し及び変更することが可能であり、
前記算術演算装置は、前記物体を表す前記3D点雲を決定した後で、
a.前記3D点雲のデータ点Xをランダムに選択するステップと、
b.各トポロジー要素を基準としたXに関する交差点Pを計算し、Pが各場合において前記トポロジー要素の内部に在るかどうかを識別するステップと、
c.Xから各トポロジー要素までの距離を差分ベクトルX−Pのノルムとして計算するステップと、
d.前記交差点Pがトポロジー要素の内部に在る全てのトポロジー要素の中で、Xからの最短距離を示すトポロジー要素を決定するステップと、
e.ステップdで決定された前記トポロジー要素を、該トポロジー要素を確立する全てのノードを前記ベクトルX−Pの方向に移動させることによって移動させるステップであって、ノードの移動ベクトルに、学習率と、前記ステップdで決定された前記トポロジー要素を基準としたXに関する前記交差点Pから生じる重みとが掛けられている、移動させるステップと、
f.前記学習率を徐々に低減しながら、ステップaからステップeまでを所定数の学習ステップ数について繰返すステップと、
g.K≧1として、前記所定の学習ステップ数のK回のパスの後で前記電子メモリの前記表内の前記ノード座標を更新するステップと、
h.さらなる処理のために、少なくとも前記表内の前記更新されたノード座標を提供するステップと、
を実行するようにさらに設計されることを特徴とする装置。 - 算術演算装置によって実行されると前記算術演算装置に請求項1〜請求項6のいずれかに記載の方法を実行させるコマンドを格納することを特徴とする、コンピュータ可読記憶媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2011/006388 WO2013087084A1 (de) | 2011-12-16 | 2011-12-16 | Verfahren und vorrichtung zur schätzung einer pose |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015505089A JP2015505089A (ja) | 2015-02-16 |
JP2015505089A5 JP2015505089A5 (ja) | 2016-01-28 |
JP5931215B2 true JP5931215B2 (ja) | 2016-06-08 |
Family
ID=45464487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014546326A Active JP5931215B2 (ja) | 2011-12-16 | 2011-12-16 | 姿勢を推定する方法及び装置 |
Country Status (8)
Country | Link |
---|---|
US (1) | US9159134B2 (ja) |
EP (1) | EP2791903B8 (ja) |
JP (1) | JP5931215B2 (ja) |
KR (1) | KR101812379B1 (ja) |
CN (1) | CN103999126B (ja) |
CA (1) | CA2858398C (ja) |
ES (1) | ES2558558T3 (ja) |
WO (1) | WO2013087084A1 (ja) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103999126B (zh) * | 2011-12-16 | 2017-02-15 | 吉士特贡有限公司 | 用于估计姿态的方法和装置 |
KR101514731B1 (ko) * | 2014-09-05 | 2015-04-28 | 동국대학교 산학협력단 | 인간 모델의 3차원 공간 데이터를 이용한 포즈 인식 시스템 및 그 방법 |
US9978176B2 (en) * | 2015-06-26 | 2018-05-22 | Electronic Arts Inc. | Simplifying small mesh components with redundant backs |
JP2017107503A (ja) * | 2015-12-11 | 2017-06-15 | 株式会社リコー | 情報処理装置、情報処理方法、プログラムおよびシステム |
CN106918336A (zh) * | 2015-12-25 | 2017-07-04 | 积晟电子股份有限公司 | 惯性测量模块及其惯性测量方法 |
US10922894B2 (en) * | 2016-06-06 | 2021-02-16 | Biodigital, Inc. | Methodology and system for mapping a virtual human body |
KR101851303B1 (ko) | 2016-10-27 | 2018-04-23 | 주식회사 맥스트 | 3차원 공간 재구성 장치 및 방법 |
KR102647351B1 (ko) * | 2017-01-26 | 2024-03-13 | 삼성전자주식회사 | 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치 |
US20230107110A1 (en) * | 2017-04-10 | 2023-04-06 | Eys3D Microelectronics, Co. | Depth processing system and operational method thereof |
CN107169453B (zh) * | 2017-05-16 | 2020-07-17 | 湖南巨汇科技发展有限公司 | 一种基于深度传感器的坐姿检测方法 |
CN107481280B (zh) * | 2017-08-16 | 2020-05-15 | 北京优时尚科技有限责任公司 | 一种骨骼点的矫正方法及计算设备 |
CN107832736B (zh) * | 2017-11-24 | 2020-10-27 | 南京华捷艾米软件科技有限公司 | 实时人体动作的识别方法和实时人体动作的识别装置 |
US10621788B1 (en) * | 2018-09-25 | 2020-04-14 | Sony Corporation | Reconstructing three-dimensional (3D) human body model based on depth points-to-3D human body model surface distance |
US10902638B2 (en) | 2018-09-28 | 2021-01-26 | Wipro Limited | Method and system for detecting pose of a subject in real-time |
CN110246181B (zh) * | 2019-05-24 | 2021-02-26 | 华中科技大学 | 基于锚点的姿态估计模型训练方法、姿态估计方法和系统 |
US11845006B2 (en) * | 2019-07-09 | 2023-12-19 | Sony Interactive Entertainment Inc. | Skeleton model updating apparatus, skeleton model updating method, and program |
CN110458177B (zh) * | 2019-07-12 | 2023-04-07 | 中国科学院深圳先进技术研究院 | 图像深度信息的获取方法、图像处理装置以及存储介质 |
US11288841B2 (en) * | 2019-10-17 | 2022-03-29 | Shanghai United Imaging Intelligence Co., Ltd. | Systems and methods for patient positioning |
CN110664438B (zh) * | 2019-10-22 | 2021-09-10 | 深圳瀚维智能医疗科技有限公司 | 超声扫查轨迹规划方法、装置、存储介质及计算机设备 |
CN110795491B (zh) * | 2019-11-05 | 2023-06-06 | 上海波客实业有限公司 | 一种结构参数信息可视化方法 |
CN111062105B (zh) * | 2019-11-07 | 2023-07-21 | 郑州大学 | 一种基于强化学习的区域规划设计方法 |
US11645756B2 (en) | 2019-11-14 | 2023-05-09 | Samsung Electronics Co., Ltd. | Image processing apparatus and method |
CN113301493A (zh) * | 2020-02-24 | 2021-08-24 | 哈曼国际工业有限公司 | 位置节点跟踪 |
US11393101B2 (en) | 2020-02-24 | 2022-07-19 | Harman International Industries, Incorporated | Position node tracking |
CN111368733B (zh) * | 2020-03-04 | 2022-12-06 | 电子科技大学 | 一种基于标签分布学习的三维手部姿态估计方法、存储介质及终端 |
US12094130B2 (en) | 2020-07-30 | 2024-09-17 | Walmart Apollo, Llc | Systems and methods for detecting and tracking humans in captured images |
CN112688991B (zh) * | 2020-12-15 | 2022-11-04 | 北京百度网讯科技有限公司 | 用于执行点云扫描操作的方法、相关装置及存储介质 |
EP4016376A1 (en) * | 2020-12-18 | 2022-06-22 | Toyota Jidosha Kabushiki Kaisha | Computer-implemented process monitoring method |
DE102021111917A1 (de) | 2021-05-07 | 2022-11-10 | Christian Stolz | Vorrichtung und Verfahren zur Ermittlung mindestens eines Mobilitätsparameters eines Lebewesens, sowie Verwendung einer Bilderfassungs- und einer Ermittlungseinrichtung |
CN113190720B (zh) * | 2021-05-17 | 2023-01-17 | 深圳计算科学研究院 | 一种基于图压缩的图数据库构建方法、装置及相关组件 |
KR102669074B1 (ko) * | 2021-11-23 | 2024-05-24 | 한국공학대학교산학협력단 | 인간 친화형 로봇의 감정 표현을 위한 몸짓 시각화 정보 생성 방법 및 장치 |
KR102640496B1 (ko) * | 2022-04-27 | 2024-02-23 | 한국로봇융합연구원 | 사용자의 모션정보를 기반으로 상호 작용을 지원하는 키네틱 제어 장치 및 방법 |
KR20240121550A (ko) | 2023-02-02 | 2024-08-09 | 주식회사 케이티 | 3d 자세 추정 장치, 방법 및 컴퓨터 프로그램 사람의 자세를 추정 장치, 방법 및 컴퓨터 프로그램 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5715166A (en) | 1992-03-02 | 1998-02-03 | General Motors Corporation | Apparatus for the registration of three-dimensional shapes |
US9208558B2 (en) * | 1999-08-11 | 2015-12-08 | Osteoplastics Llc | Methods and systems for producing an implant |
US6440067B1 (en) * | 2000-02-28 | 2002-08-27 | Altec, Inc. | System and method for remotely monitoring functional activities |
DE10237310B4 (de) * | 2002-08-14 | 2006-11-30 | Wismüller, Axel, Dipl.-Phys. Dr.med. | Verfahren, Datenverarbeitungseinrichtung und Computerprogrammprodukt zur Datenverarbeitung |
EP2584494A3 (en) * | 2006-08-03 | 2015-02-11 | Alterface S.A. | Method and device for identifying and extracting images of multiple users, and for recognizing user gestures |
US8351646B2 (en) * | 2006-12-21 | 2013-01-08 | Honda Motor Co., Ltd. | Human pose estimation and tracking using label assignment |
US8374388B2 (en) * | 2007-12-28 | 2013-02-12 | Rustam Stolkin | Real-time tracking of non-rigid objects in image sequences for which the background may be changing |
CN101246602B (zh) * | 2008-02-04 | 2010-09-08 | 东华大学 | 基于几何骨架的人体姿态重建方法 |
US8401342B2 (en) * | 2009-01-16 | 2013-03-19 | A9.Com, Inc. | System and method to match images using topologically equivalent correspondences |
KR101650799B1 (ko) | 2009-05-11 | 2016-08-24 | 게스티곤 게엠베하 | 가변 자세를 포함하는 이미지를 컴퓨터를 사용하여 실시간으로 분석하는 방법 |
CN102136139B (zh) * | 2010-01-22 | 2016-01-27 | 三星电子株式会社 | 目标姿态分析装置及其目标姿态分析方法 |
CN101789125B (zh) * | 2010-01-26 | 2013-10-30 | 北京航空航天大学 | 一种无标记单目视频人体骨架运动跟踪方法 |
EP2385483B1 (en) * | 2010-05-07 | 2012-11-21 | MVTec Software GmbH | Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform |
US8620050B2 (en) * | 2010-09-23 | 2013-12-31 | Siemens Aktiengesellschaft | System and method for 2-D/3-D registration between 3-D volume and 2-D angiography |
EP2543960A1 (de) * | 2011-07-05 | 2013-01-09 | Hexagon Technology Center GmbH | Verfahren zum Bereitstellen von Zielpunktkandidaten zur Auswahl eines Zielpunkts |
CN103999126B (zh) * | 2011-12-16 | 2017-02-15 | 吉士特贡有限公司 | 用于估计姿态的方法和装置 |
-
2011
- 2011-12-16 CN CN201180075507.8A patent/CN103999126B/zh active Active
- 2011-12-16 EP EP11805777.7A patent/EP2791903B8/de active Active
- 2011-12-16 WO PCT/EP2011/006388 patent/WO2013087084A1/de active Application Filing
- 2011-12-16 KR KR1020147019900A patent/KR101812379B1/ko active IP Right Grant
- 2011-12-16 US US14/365,222 patent/US9159134B2/en active Active
- 2011-12-16 CA CA2858398A patent/CA2858398C/en active Active
- 2011-12-16 JP JP2014546326A patent/JP5931215B2/ja active Active
- 2011-12-16 ES ES11805777.7T patent/ES2558558T3/es active Active
Also Published As
Publication number | Publication date |
---|---|
ES2558558T3 (es) | 2016-02-05 |
CN103999126A (zh) | 2014-08-20 |
KR20140101439A (ko) | 2014-08-19 |
JP2015505089A (ja) | 2015-02-16 |
EP2791903A1 (de) | 2014-10-22 |
CN103999126B (zh) | 2017-02-15 |
EP2791903B1 (de) | 2015-11-04 |
EP2791903B8 (de) | 2016-03-02 |
WO2013087084A1 (de) | 2013-06-20 |
KR101812379B1 (ko) | 2017-12-27 |
US20140328519A1 (en) | 2014-11-06 |
CA2858398C (en) | 2018-08-14 |
CA2858398A1 (en) | 2013-06-20 |
US9159134B2 (en) | 2015-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5931215B2 (ja) | 姿勢を推定する方法及び装置 | |
Zheng et al. | Hybridfusion: Real-time performance capture using a single depth sensor and sparse imus | |
JP5695758B2 (ja) | 手のジェスチャによるヒューマンマシンインターフェースのための方法、回路、及び、システム | |
CN108475439B (zh) | 三维模型生成系统、三维模型生成方法和记录介质 | |
US9135502B2 (en) | Method for the real-time-capable, computer-assisted analysis of an image sequence containing a variable pose | |
JP5422735B2 (ja) | 可変姿勢を含む画像シーケンスのリアルタイム利用可能なコンピュータ支援分析方法 | |
JP4148281B2 (ja) | モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム | |
KR101865655B1 (ko) | 증강현실 상호 작용 서비스 제공 장치 및 방법 | |
CN104937635B (zh) | 基于模型的多假设目标追踪器 | |
JP6723061B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP2014501011A5 (ja) | ||
WO2007102537A1 (ja) | 姿勢推定装置および方法 | |
JP2018119833A (ja) | 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体 | |
JP2019096113A (ja) | キーポイントデータに関する加工装置、方法及びプログラム | |
JP2004094288A (ja) | 指示位置検出装置及び自律ロボット | |
KR20130101942A (ko) | 자세 인식 방법 및 장치 | |
KR102371127B1 (ko) | 골격의 길이 정보를 이용한 제스쳐 인식 방법 및 처리 시스템 | |
KR20130030117A (ko) | 실시간 캐릭터 애니메이션에서의 발 미끄러짐 제거를 위한 캐릭터 영상 처리 장치 및 방법 | |
US11887257B2 (en) | Method and apparatus for virtual training based on tangible interaction | |
JP6770208B2 (ja) | 情報処理装置 | |
KR20200057572A (ko) | 딥러닝 기반 손 인식 증강현실 상호 작용 장치 및 방법 | |
Shah et al. | Gesture recognition technique: a review | |
JP2019046096A (ja) | 情報処理装置及びその方法 | |
Gündüz et al. | Artificial immune system optimization based duplex kinect skeleton fusion | |
KR20130140772A (ko) | 손동작에 의한 인간과 기계의 인터페이싱을 위한 시스템 및 방법 회로 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150826 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151125 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20151125 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20160127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160426 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5931215 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |