JP5647155B2 - 内側距離形状関係を使用する身体特徴検出及び人間姿勢推定 - Google Patents
内側距離形状関係を使用する身体特徴検出及び人間姿勢推定 Download PDFInfo
- Publication number
- JP5647155B2 JP5647155B2 JP2011552074A JP2011552074A JP5647155B2 JP 5647155 B2 JP5647155 B2 JP 5647155B2 JP 2011552074 A JP2011552074 A JP 2011552074A JP 2011552074 A JP2011552074 A JP 2011552074A JP 5647155 B2 JP5647155 B2 JP 5647155B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- points
- human
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
及びG. Mori and J. Malik, “Recovering 3d human body configurations using shape contexts”, IEEE Trans. on Pattern Analysis and Machine Intelligence, 28(7):1052-1062(2006)を参照されたい。標本ベースの学習においては、姿勢を推定することは、k個の最近傍の隣接例検索問題として公式化されるのが一般的である。当該問題においては、入力データは、三次元姿勢が既知である訓練標本のデータベースに一致する。高次元空間内で非常に大きなデータ集合に対して同様の検索を実行する計算の複雑さが、これらのアプローチの適用を制限している。より高速な近似値検索アルゴリズムが局地的高反応度ハッシュに基づいて開発されてきてはいるものの、学習ベースアプローチにとっては、計算速度が依然として課題である。G. Shakhnarovich, P. Viola and T. Darrell, “Fast pose estimation with parameter sensitive hashing”, ICCV, 2:750-757(2003)を参照されたい。モデルベースアプローチと同様に、学習ベースアプローチもまた計算集約的になりがちである。さらに、学習ベースアプローチを使用して、ある姿勢が正しく認識されるためには、システムは、姿勢を、前以って処理(“学習”)しなければならない。よって、一般的には、事前プログラミングされた人間姿勢の小さな集合のみが、学習ベースアプローチを使用して認識され得る。
本発明の実施形態は、人間主体の特徴検出及び姿勢推定のための方法(及び対応するシステム及びコンピュータプログラム製品)を提供する。ある側面によれば、人間主体の深度画像内で特徴点が検出される。深度画像から、人間形状シルエットが区画される。人間形状シルエットに沿って、輪郭点がサンプリングされる。サンプル輪郭点の内側距離形状関係(IDSC)記述子が決定され、IDSC見本集合内の既知の特徴点のIDSC記述子と比較される。サンプル輪郭点のIDSC記述子と、IDSC見本集合内の特徴点のIDSC記述子との類似度に基づいて、特徴点が、サンプル輪郭点のうちから識別される。
図2は、ある実施形態に係る、身体特徴を検出し人間姿勢を推定する姿勢推定システム100の機器構成を示すブロック図である。姿勢推定システム100は、深度画像ストリーム108内で検出された複数の特徴から、人間主体の身体姿勢を再構築する。特徴(又は、特徴点、解剖学的特徴、キー点)は、人間身体上の目立つ解剖学上のランドマークの三次元位置に対応する。一般性を失うことなく、姿勢推定システム100は、図5に示されるような、14個(k=14)の身体特徴を追跡する。示されているように、14個の特徴は、頭頂、左肩、右肩、左肘、右肘、左手首、右手首、左腰、右腰、股、左膝、右膝、左足首及び右足首である。再構築された(すなわち、推定された)人間姿勢qは、人間主体の姿勢を追跡する人間モデル内に記述される。ある実施形態においては、人間モデルは、人間主体の身体に酷似した人間解剖学モデルである。
ある実施形態においては、姿勢推定システム100に送信される深度画像は、TOFカメラを使用して毎秒約15フレームの速度で取得される。後続モジュールのうちの姿勢再構築モジュール208において実行される数値積分を安定させるために、補間モジュール204は、検出された特徴を、より高い速度(例えば、100HZ)で再サンプリングする。
図3は、本実施形態に係る、人間身体姿勢を推定する姿勢推定システム100の処理手順の例を示すフローチャートである。
生成する(ステップ330)。前記したように、姿勢推定システム100は、オクルージョン又は信頼できない観測値に起因して、それぞれのフレーム内で、14個に満たない身体特徴しか検出できないかもしれない。姿勢推定システム100は、これらの検出されなかった特徴を、事前に生成されている予測された特徴pを使用して推定する。m<kである場合、検出された特徴は、再構築された姿勢を順行運動学的に計算して入手された(k−m)個の予測された特徴pによって付加される。
速度である。J.J. Craig,“Introduction to robotics, mechanics and control”, Addition-Wesley, 2ndedition(1989)を参照されたい。
図4は、本発明のある実施形態に係る、深度画像ストリーム内の身体特徴を検出する姿勢推定システム100(すなわち、特徴検出モジュール202)の処理手順400を記述するフローチャートである。示されているように、姿勢推定システム100は、背景から人間形状(以降、人間シルエットと呼ぶ)を区画し(ステップ410)、深度画像内の人間シルエット上の輪郭点をサンプリングする(ステップ420)。姿勢推定システム100は、サンプル輪郭点の内側距離形状関係(IDSC)記述子を計算し(ステップ430)、計算されたIDSC記述子を、IDSC見本集合内の既知の特徴点のIDSC記述子と比較する(ステップ440)。姿勢推定システム100は、それぞれの特徴点ごとに、当該特徴点のIDSC記述子に最も類似するIDSC記述子を有するサンプル輪郭点を、現在の画像フレーム内の対応特徴点として、ラベル付けする。
姿勢推定システム100は、人間シルエット区画処理(ステップ410)を経て、人間形状の画像領域(人間シルエット、前景とも呼ぶ)を、背景の画像領域から区画する。前景から区画されるべき背景不要物の例としては、深度計測空間の向こう側にある、床及び他の被写体がある。
形状関係は、複数の形状間の類似度を計測し、複数の形状間の点の対応関係を示すために使用される記述子である。S. Belongie, J. Malik and J. Puzicha,“Shape Matching and Object Recognition Using Shape Contexts”, IEEE Trans. Pattern Analysis and Machine Intel. (PAMI),509-522(2002)を参照されたい。ある被写体の形状関係は、被写体の輪郭に沿ったそれぞれの点を、輪郭上の他のすべての点との関係において記述する。ある形状の輪郭上にn個の点があると仮定する。点piの形状関係は、次の式(2)で定義されるような、残りの(n−1)個の点の相対座標hiの粗いヒストグラムである。
異なる関節下に同じ被写体の2つの画像がある場合、当該被写体の同じ部分に属する輪郭点のIDSC記述子は(図6の2つの画像内の親指上の記号Δが付された点が示すように)類似している。一方、当該被写体の異なる部分に対応する点は、(図6において、記号Δ及び記号+が示すように)類似していない。
姿勢推定システム100(すなわち、姿勢再構築モジュール208)は、人間主体の観測された身体姿勢qを再構築し、後続の特徴位置pを予測する(ステップ340)。ある実施形態においては、姿勢推定システム100は、特徴の重要度(又は信頼度)に応じて特徴に優先順位を付け、観測された姿勢を追跡する(デカルト追跡制御)ことによって身体姿勢qを再構築する(ステップ340)。さらに、姿勢推定システム100は、関節限界及び自己衝突回避のような人間モデルの運動学的制約を大きくすることによって、後続の特徴位置を予測する。運動学的制約は、(身体関節セグメントについては)関節限界回避及び(接続されていない身体セグメントについては)自己衝突回避として分類されてもよい。これらの操作は、詳細に後記される。
ある実施形態においては、姿勢推定システム100は、制御方針(デカルト追跡制御と呼ぶ)を適用する。当該制御方針は、推定された特徴と所望の(観測値からの)特徴との間のデカルト誤差が最小化されるように、関節変数(q)を生成する。追跡能力は、特徴追跡要件の実行と同様に、人間モデル運動学的制約に左右される。特徴追跡要件は複数存在し、相互に競合することも多い。ある実施形態においては、姿勢推定システム100は、閉ループ逆運動学(CLIK)として知られるデカルト空間運動学的制御方法に基づき、追跡制御アプローチを使用する。CLIKアルゴリズムの解を求める原理は、式(1)によって記述されるようなデカルト変数及び関節変数に関する微分運動学の反転処理である。単純化のために、i番目の特徴を参照する場合の上付文字iは、当該セクションにおいては一時的に省略される。
ある実施形態においては、姿勢推定システム100(すなわち、姿勢再構築モジュール208)は、観測値における特徴の重要度又は信頼水準に応じて特徴に優先順位を付ける。例えば、肘位置が検出し難い場合は、他の位置が主特徴として指定されるのに対して、肘位置は副特徴として指定されてもよい。
姿勢推定システム100は、人間モデル内で検出された人間姿勢を追跡する際、人間モデル運動学的制約を考慮する。運動学的制約の例として、関節限界及び自己衝突制約が挙げられる。このような運動学的制約をCLIK公式に統合する、制約された閉ループ逆運動学(CCLIK)アルゴリズムが、詳細に後記される。
ある実施形態においては、関節制限回避は、姿勢推定システム100が式(6)の重み付け行列W1を正しく選択することによって達成される。重み付け行列の一例は、重み付けされた最小ノルム(WLN)解によって定義される。WLN解を初めて提案したのは、T.F. Chan and R.V. Dubey, “A weighted least-norm solution based scheme for avoiding joint limits for redundant joint manipulations”, IEEE Transaction on Robotics and Automation,11(2),(1995)である。WLN解は、減衰最小二乗ヤコビアン逆数の関係中で公式化される。WLN解は、関節限界付近で関節を減衰させる関節限界関数の勾配に基づいて、適当な重み付け行列を生成するために使用される。この解については後記する。
式(6)の重み付け行列W1は、WJLによって作成される(例えば、W1=WJL)。対角成分wJLiは、式(13)によって定義される。
自己衝突回避は、1)接続された2つのセグメント間の衝突、2)接続されていない2つのセグメント間の衝突の2つのタイプのうちの1つとして分類され得る。セグメントが2つずつ接続されてペアになるということは、2つのセグメントは共通の関節において接続されていることを前提とし、その関節が回転することを保証する。
2つの身体間の最短距離d(d≧0)は、pa(712)及びpb(722)の座標によって表され、その座標は、関節空間の基準フレーム内にある。2つの点pa及びpbを衝突点とも呼ぶ。
J* aは、重み付けされた減衰最小二乗逆数である。行列S=diag(s1・・・sn)は、対角選択行列である。Jaのi番目の列の成分がすべてゼロである場合、s1=1
Jaの任意のゼロ列(すべての成分がゼロ)は、関連付けられた自由度が、衝突点paのモーションに貢献しないことを暗示している。式(16)の第2項は、第1項の直交補間項であり、衝突点paのモーションに影響を与えないこれらの関節速度を計算する。
[実施例]
前記の実施形態は、リアルタイムで特徴を検出し人間主体の身体姿勢を推定する姿勢推定システムを記述する。姿勢推定システムは動物のような他のモーション発生体の特徴検出及び姿勢推定にも使用され得ることが、当業者であれば理解できる。さらに、姿勢推定システムは、モーション再目標化、ロボットモーション生成及び制御、並びに、生体力学における関節トルク推定のような追加的な機能を提供し得る。例えば、姿勢推定システムの出力は、人間モーションを人間形ロボットにリアルタイムで移転するために効果的に使用され得る。
102 ソースシステム
108 深度画像ストリーム
202 特徴検出モジュール
204 補間モジュール
206 欠落特徴付加モジュール
208 姿勢再構築モジュール
210 不明瞭部分解像モジュール
220 検出された特徴
222 補間された特徴
224 所望の特徴
228 予測された特徴
230 推定された姿勢
240、250 フィードバック経路
710、720 身体
730 仮想表面
740 危険地域
Claims (17)
- 被写体の画像内における前記被写体の特徴点を検出するコンピュータに実行させる方法であって、
前記コンピュータは、
前記画像及び時間的に前記画像以前に取得された先行画像を含む複数の連続画像を受け取り、
前記先行画像の特徴点の集合を検出し、
前記画像の背景の画像領域から前記被写体の画像領域を区画し、
前記被写体の前記区画された画像領域の輪郭に沿って複数の点をサンプリングし、
前記複数の点ごとに、内側距離形状関係(IDSC)記述子を決定し、
前記複数の点ごとに、当該点のIDSC記述子と前記先行画像の特徴点の特徴点IDSC記述子との間の差異を、閾値と比較し、
前記複数の点のうち2つ以上の点について前記差異が前記閾値を超えない場合、時間的に前記画像以前に取得された前記先行画像について先行して検出された前記特徴点のうちの1つに基づいて、前記2つ以上の点のうちの1つを前記画像内における前記被写体の特徴点として選択すること
を特徴とする方法。 - 前記特徴点IDSC記述子は、
前記被写体の特徴点ごとに、IDSC記述子を含むIDSC見本集合から検索されること、
を特徴とする請求項1に記載の方法。 - 前記複数の特徴点は、
前記被写体の前記区画された画像領域の前記輪郭に沿って一様にサンプリングされること、
を特徴とする請求項1に記載の方法。 - 前記画像は、
深度画像を含み、
前記被写体は、
人間主体を含むこと、
を特徴とする請求項1に記載の方法。 - 前記被写体の前記画像領域を区画することは、
予め決定された深度計測空間を超える深度値を有する、前記深度画像内の画像領域を、背景として識別し、
垂直深度画像法線ベクトルを有する画像領域を、背景として識別すること、
を特徴とする請求項4に記載の方法。 - 前記特徴点は、
頭頂、左肩、右肩、左肘、右肘、左手首、右手首、左腰、右腰、股、左膝、右膝、左足首及び右足首のうちの1つを含むこと、
を特徴とする請求項4に記載の方法。 - 前記コンピュータは、
前記先行画像の前記先行して検出された特徴点のうちの1つに基づいて、欠けている特徴点を付加し、
前記付加された特徴点及び人間モデルの運動学的制約に基づいて、前記人間モデルにおける、前記人間主体の姿勢を推定すること、
を特徴とする請求項4に記載の方法。 - 前記人間モデルにおける、前記人間主体の姿勢を推定することは、
前記人間主体の観測された姿勢を有する、前記人間モデルの前記推定された姿勢を追跡すること、
を特徴とする請求項7に記載の方法。 - 前記コンピュータは、
前記付加された特徴点及び前記人間モデルの前記運動学的制約に基づいて、予測された特徴点を生成すること、
を特徴とする請求項7に記載の方法。 - 前記人間モデルの前記運動学的制約は、
関節限界及び自己衝突回避を含むこと、
を特徴とする請求項7に記載の方法。 - 前記コンピュータは、
前記人間モデルの身体セグメントの実際の表面を包囲する仮想表面を作成し、
前記身体セグメントと、接続されていない構造との間の距離を監視し、
前記接続されていない構造が前記仮想表面を突き抜けるのを検出し、
前記接続されていない構造が前記身体セグメントと衝突するのを防ぐ関節モーションの方向を決定し、
前記方向が決定された関節モーションに基づき、前記身体セグメントの方向を変更し、前記接続されていない構造と衝突することを防ぐこと、
を特徴とする請求項10に記載の方法。 - 前記コンピュータは、
前記人間主体の前記画像領域上で骨格分析を実行し、前記人間主体の骨格画像を生成し、
前記骨格画像を距離変換し、前記人間主体の、距離変換された骨格画像を生成し、
前記距離変換された骨格画像内で前記人間主体の前記特徴点を検出すること、
を特徴とする請求項4に記載の方法。 - 前記距離変換された骨格画像内で前記人間主体の前記特徴点を検出することは、
前記距離変換された骨格画像に基づいて、前記深度画像内に自己オクルージョンが存在するか否かを決定し、
前記深度画像内に自己オクルージョンが存在すると決定された場合は、前記深度画像の追加的分析を実行し、前記人間主体の前記特徴点を検出すること、
を特徴とする請求項12に記載の方法。 - 前記深度画像は、
1つの飛行時間カメラによって取得されること、
を特徴とする請求項4に記載の方法。 - 前記コンピュータは、
前記画像内の前記検出された特徴点にラベル付けをすること、
を特徴とする請求項1に記載の方法。 - 被写体の画像内における前記被写体の特徴点を検出するシステムであって、
前記システムは、
実行可能なプログラムコードを実行するコンピュータプロセッサと、
実行可能なコンピュータプログラムコードを格納するコンピュータ読取可能記憶媒体と、
を有し、
前記コンピュータプログラムコードは、
前記コンピュータプロセッサに対して、
前記画像及び時間的に前記画像以前に取得された先行画像を含む複数の連続画像を受け取り、
前記先行画像の特徴点の集合を検出し、
前記画像の背景の画像領域から前記被写体の画像領域を区画し、
前記被写体の前記区画された画像領域の輪郭に沿って複数の点をサンプリングし、
前記複数の点ごとに、内側距離形状関係(IDSC)記述子を決定し、
前記複数の点ごとに、当該点のIDSC記述子と前記先行画像の特徴点の特徴点IDSC記述子との間の差異を、閾値と比較し、
前記複数の点のうち2つ以上の点について前記差異が前記閾値を超えない場合、時間的に前記画像以前に取得された前記先行画像について先行して検出された前記特徴点のうちの1つに基づいて、前記2つ以上の点のうちの1つを前記画像内における前記被写体の特徴点として選択する処理を実行させること、
を特徴とするシステム。 - 前記先行画像の特徴点の集合は、
時間的に先行して取得された前記先行画像における前記被写体の再構成後の姿勢を閉ループ逆運動学によって算出することよって検出されること、
を特徴とする請求項1に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15543909P | 2009-02-25 | 2009-02-25 | |
US61/155,439 | 2009-02-25 | ||
PCT/US2010/024697 WO2010099035A1 (en) | 2009-02-25 | 2010-02-19 | Body feature detection and human pose estimation using inner distance shape contexts |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012518857A JP2012518857A (ja) | 2012-08-16 |
JP5647155B2 true JP5647155B2 (ja) | 2014-12-24 |
Family
ID=42631005
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011552073A Expired - Fee Related JP5253588B2 (ja) | 2009-02-25 | 2010-02-19 | 内部距離形状関連法を用いた手姿勢の取り込み及び認識 |
JP2011552074A Active JP5647155B2 (ja) | 2009-02-25 | 2010-02-19 | 内側距離形状関係を使用する身体特徴検出及び人間姿勢推定 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011552073A Expired - Fee Related JP5253588B2 (ja) | 2009-02-25 | 2010-02-19 | 内部距離形状関連法を用いた手姿勢の取り込み及び認識 |
Country Status (3)
Country | Link |
---|---|
US (2) | US8428311B2 (ja) |
JP (2) | JP5253588B2 (ja) |
WO (2) | WO2010099035A1 (ja) |
Families Citing this family (100)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100682987B1 (ko) * | 2005-12-08 | 2007-02-15 | 한국전자통신연구원 | 선형판별 분석기법을 이용한 3차원 동작인식 장치 및 그방법 |
US8126858B1 (en) | 2008-01-23 | 2012-02-28 | A9.Com, Inc. | System and method for delivering content to a communication device in a content delivery system |
WO2010099035A1 (en) | 2009-02-25 | 2010-09-02 | Honda Motor Co., Ltd. | Body feature detection and human pose estimation using inner distance shape contexts |
US8686992B1 (en) * | 2009-03-30 | 2014-04-01 | Google Inc. | Methods and systems for 3D shape matching and retrieval |
US20110054870A1 (en) * | 2009-09-02 | 2011-03-03 | Honda Motor Co., Ltd. | Vision Based Human Activity Recognition and Monitoring System for Guided Virtual Rehabilitation |
JP5290915B2 (ja) * | 2009-09-03 | 2013-09-18 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
US8600166B2 (en) | 2009-11-06 | 2013-12-03 | Sony Corporation | Real time hand tracking, pose classification and interface control |
US8514188B2 (en) * | 2009-12-30 | 2013-08-20 | Microsoft Corporation | Hand posture mode constraints on touch input |
JP6321905B2 (ja) * | 2010-02-25 | 2018-05-09 | 本田技研工業株式会社 | 関節システムの制御方法、記憶媒体、制御システム |
US8639020B1 (en) * | 2010-06-16 | 2014-01-28 | Intel Corporation | Method and system for modeling subjects from a depth map |
US8994792B2 (en) * | 2010-08-27 | 2015-03-31 | Broadcom Corporation | Method and system for creating a 3D video from a monoscopic 2D video and corresponding depth information |
US9213890B2 (en) * | 2010-09-17 | 2015-12-15 | Sony Corporation | Gesture recognition system for TV control |
US8990199B1 (en) | 2010-09-30 | 2015-03-24 | Amazon Technologies, Inc. | Content search with category-aware visual similarity |
US8422782B1 (en) * | 2010-09-30 | 2013-04-16 | A9.Com, Inc. | Contour detection and image classification |
US8463036B1 (en) | 2010-09-30 | 2013-06-11 | A9.Com, Inc. | Shape-based search of a collection of content |
US8532391B2 (en) * | 2010-09-30 | 2013-09-10 | Intuit Inc. | Recognizing a feature of an image independently of the orientation or scale of the image |
US9036920B2 (en) * | 2010-10-08 | 2015-05-19 | Industrial Technology Research Institute | Method of detecting feature points of an object in a system for motion detection |
US8615136B2 (en) * | 2010-10-08 | 2013-12-24 | Industrial Technology Research Institute | Computing device and method for motion detection |
US9171264B2 (en) | 2010-12-15 | 2015-10-27 | Microsoft Technology Licensing, Llc | Parallel processing machine learning decision tree training |
US8488888B2 (en) | 2010-12-28 | 2013-07-16 | Microsoft Corporation | Classification of posture states |
US8781221B2 (en) * | 2011-04-11 | 2014-07-15 | Intel Corporation | Hand gesture recognition system |
KR101804848B1 (ko) * | 2011-04-22 | 2017-12-06 | 삼성전자주식회사 | 비디오 객체 탐색 장치, 비디오 객체 변형 장치 및 그 방법 |
US10671841B2 (en) | 2011-05-02 | 2020-06-02 | Microsoft Technology Licensing, Llc | Attribute state classification |
CA2872841C (en) | 2011-05-09 | 2019-08-06 | Catherine Grace Mcvey | Image analysis for determining characteristics of animals and humans |
US9552637B2 (en) | 2011-05-09 | 2017-01-24 | Catherine G. McVey | Image analysis for determining characteristics of groups of individuals |
US9098898B2 (en) * | 2011-05-09 | 2015-08-04 | Catherine Grace McVey | Image analysis for determining characteristics of individuals |
US9355329B2 (en) * | 2011-05-09 | 2016-05-31 | Catherine G. McVey | Image analysis for determining characteristics of pairs of individuals |
US8929612B2 (en) * | 2011-06-06 | 2015-01-06 | Microsoft Corporation | System for recognizing an open or closed hand |
KR101815975B1 (ko) * | 2011-07-27 | 2018-01-09 | 삼성전자주식회사 | 객체 자세 검색 장치 및 방법 |
JP6049327B2 (ja) * | 2011-08-11 | 2016-12-21 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
TWI484450B (zh) * | 2011-08-23 | 2015-05-11 | Hon Hai Prec Ind Co Ltd | 手語翻譯系統、手語翻譯裝置及手語翻譯方法 |
CN102956132B (zh) * | 2011-08-25 | 2015-02-25 | 赛恩倍吉科技顾问(深圳)有限公司 | 手语翻译系统、手语翻译装置及手语翻译方法 |
US9002099B2 (en) * | 2011-09-11 | 2015-04-07 | Apple Inc. | Learning-based estimation of hand and finger pose |
TWI437467B (zh) | 2011-10-11 | 2014-05-11 | Ind Tech Res Inst | 顯示控制裝置及顯示控制方法 |
KR101896473B1 (ko) * | 2012-01-04 | 2018-10-24 | 삼성전자주식회사 | 로봇 핸드의 제어 방법 |
JP6044079B2 (ja) * | 2012-02-06 | 2016-12-14 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
US9443137B2 (en) | 2012-05-08 | 2016-09-13 | Samsung Electronics Co., Ltd. | Apparatus and method for detecting body parts |
CN103426156A (zh) * | 2012-05-15 | 2013-12-04 | 中国科学院声学研究所 | 一种基于svm分类器的sas图像分割方法及系统 |
TWI496090B (zh) | 2012-09-05 | 2015-08-11 | Ind Tech Res Inst | 使用深度影像的物件定位方法與裝置 |
TWI479430B (zh) * | 2012-10-08 | 2015-04-01 | Pixart Imaging Inc | 以自然影像進行的手勢辨識方法 |
CN103854278A (zh) * | 2012-12-06 | 2014-06-11 | 五邑大学 | 基于连通区域质心形状上下文的印刷电路板图像配准方法 |
US10572774B2 (en) | 2012-12-06 | 2020-02-25 | Toyota Motor Engineering & Manufacturing North America. Inc. | Methods and robots for adjusting object detection parameters, object recognition parameters, or both object detection parameters and object recognition parameters |
US8805017B2 (en) * | 2012-12-13 | 2014-08-12 | Intel Corporation | Gesture pre-processing of video stream to reduce platform power |
US8761448B1 (en) | 2012-12-13 | 2014-06-24 | Intel Corporation | Gesture pre-processing of video stream using a markered region |
CN103020971A (zh) * | 2012-12-28 | 2013-04-03 | 青岛爱维互动信息技术有限公司 | 从图像中自动分割目标对象的方法 |
US9104240B2 (en) | 2013-01-09 | 2015-08-11 | Intel Corporation | Gesture pre-processing of video stream with hold-off period to reduce platform power |
US9292103B2 (en) | 2013-03-13 | 2016-03-22 | Intel Corporation | Gesture pre-processing of video stream using skintone detection |
JP6160148B2 (ja) * | 2013-03-19 | 2017-07-12 | 富士通株式会社 | 生体情報入力装置、生体情報入力プログラム、生体情報入力方法 |
CN103246884B (zh) * | 2013-05-22 | 2016-08-10 | 清华大学 | 基于深度图像序列的实时人体动作识别方法及装置 |
CN103489000A (zh) * | 2013-09-18 | 2014-01-01 | 柳州市博源环科科技有限公司 | 一种人体动作识别训练系统的实现方法 |
CN103473562B (zh) * | 2013-09-18 | 2017-01-11 | 王碧春 | 特定人体动作的自动训练和识别系统 |
US9558563B1 (en) * | 2013-09-25 | 2017-01-31 | Amazon Technologies, Inc. | Determining time-of-fight measurement parameters |
US9811916B1 (en) * | 2013-09-25 | 2017-11-07 | Amazon Technologies, Inc. | Approaches for head tracking |
PL406971A1 (pl) * | 2014-01-28 | 2015-08-03 | Politechnika Poznańska | Sposób analizy zachowania osób w inteligentnym systemie monitorowania oraz inteligentny system monitorowania |
TWI499985B (zh) * | 2014-04-30 | 2015-09-11 | Univ Nat Taiwan Science Tech | 影像特徵點自動點選方法和對應系統 |
CN104008399B (zh) * | 2014-06-12 | 2017-03-01 | 哈尔滨工业大学 | 一种仪表检测中基于支持向量机的仪表指针抖动的识别方法 |
US10146318B2 (en) | 2014-06-13 | 2018-12-04 | Thomas Malzbender | Techniques for using gesture recognition to effectuate character selection |
US9740924B1 (en) * | 2014-09-26 | 2017-08-22 | Amazon Technologies, Inc. | Feature-based pose detection |
US10043101B2 (en) * | 2014-11-07 | 2018-08-07 | Adobe Systems Incorporated | Local feature representation for image recognition |
JP6500500B2 (ja) * | 2015-02-27 | 2019-04-17 | 富士通株式会社 | 画像判定装置、画像判定方法、及びプログラム |
GB2536493B (en) * | 2015-03-20 | 2020-11-18 | Toshiba Europe Ltd | Object pose recognition |
US9878447B2 (en) * | 2015-04-10 | 2018-01-30 | Microsoft Technology Licensing, Llc | Automated collection and labeling of object data |
US9569661B2 (en) * | 2015-05-21 | 2017-02-14 | Futurewei Technologies, Inc. | Apparatus and method for neck and shoulder landmark detection |
CN105354528A (zh) * | 2015-07-15 | 2016-02-24 | 中国科学院深圳先进技术研究院 | 基于深度图像序列的人体动作识别的方法及系统 |
US9669543B1 (en) | 2015-12-11 | 2017-06-06 | Amazon Technologies, Inc. | Validation of robotic item grasping |
US10186081B2 (en) | 2015-12-29 | 2019-01-22 | Microsoft Technology Licensing, Llc | Tracking rigged smooth-surface models of articulated objects |
US10565791B2 (en) | 2015-12-29 | 2020-02-18 | Microsoft Technology Licensing, Llc | Tracking rigged polygon-mesh models of articulated objects |
US10037624B2 (en) | 2015-12-29 | 2018-07-31 | Microsoft Technology Licensing, Llc | Calibrating object shape |
KR20170116437A (ko) * | 2016-04-11 | 2017-10-19 | 전자부품연구원 | 스키 시뮬레이터에서 사용자 자세 인식 장치 및 그 방법 |
JP6688990B2 (ja) * | 2016-04-28 | 2020-04-28 | パナソニックIpマネジメント株式会社 | 識別装置、識別方法、識別プログラムおよび記録媒体 |
JP6514156B2 (ja) * | 2016-08-17 | 2019-05-15 | ファナック株式会社 | ロボット制御装置 |
CN106407519B (zh) * | 2016-08-31 | 2019-04-16 | 浙江大学 | 一种人群移动规律的建模方法 |
US10614591B2 (en) * | 2017-05-31 | 2020-04-07 | Google Llc | Hand tracking based on articulated distance field |
JP7197171B2 (ja) * | 2017-06-21 | 2022-12-27 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
US10540778B2 (en) * | 2017-06-30 | 2020-01-21 | Intel Corporation | System for determining anatomical feature orientation |
US10899017B1 (en) * | 2017-08-03 | 2021-01-26 | Hrl Laboratories, Llc | System for co-adaptation of robot control to human biomechanics |
WO2019050916A1 (en) * | 2017-09-11 | 2019-03-14 | Track160, Ltd. | TECHNIQUES FOR RENDERING THREE-DIMENSIONAL ANIMATED GRAPHICS FROM A VIDEO |
CN109800774A (zh) * | 2017-11-17 | 2019-05-24 | 中国电信股份有限公司 | 形状匹配方法、装置及计算机可读存储介质 |
CN108830248B (zh) * | 2018-06-25 | 2022-05-17 | 中南大学 | 一种行人局部特征大数据混合提取方法 |
CN109325412B (zh) * | 2018-08-17 | 2023-11-24 | 平安科技(深圳)有限公司 | 行人识别方法、装置、计算机设备及存储介质 |
GB2583687B (en) | 2018-09-12 | 2022-07-20 | Sony Interactive Entertainment Inc | Method and system for generating a 3D reconstruction of a human |
CN110941977A (zh) * | 2018-09-25 | 2020-03-31 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
US10902638B2 (en) | 2018-09-28 | 2021-01-26 | Wipro Limited | Method and system for detecting pose of a subject in real-time |
CN110097639B (zh) * | 2019-03-18 | 2023-04-18 | 北京工业大学 | 一种三维人体姿态估计方法 |
CN110059661B (zh) * | 2019-04-26 | 2022-11-22 | 腾讯科技(深圳)有限公司 | 动作识别方法、人机交互方法、装置及存储介质 |
CN110705448B (zh) * | 2019-09-27 | 2023-01-20 | 北京市商汤科技开发有限公司 | 一种人体检测方法及装置 |
CN110705465B (zh) * | 2019-09-30 | 2021-05-18 | 哈尔滨理工大学 | 一种基于图像处理的手型分类方法 |
JP7350602B2 (ja) * | 2019-10-07 | 2023-09-26 | 株式会社東海理化電機製作所 | 画像処理装置、およびコンピュータプログラム |
JP7312079B2 (ja) * | 2019-10-07 | 2023-07-20 | 株式会社東海理化電機製作所 | 画像処理装置、およびコンピュータプログラム |
CN112668359A (zh) * | 2019-10-15 | 2021-04-16 | 富士通株式会社 | 动作识别方法、动作识别装置和电子设备 |
US11288841B2 (en) * | 2019-10-17 | 2022-03-29 | Shanghai United Imaging Intelligence Co., Ltd. | Systems and methods for patient positioning |
CN110840652A (zh) * | 2019-11-11 | 2020-02-28 | 北京海益同展信息科技有限公司 | 可穿戴设备、信息处理方法和装置 |
CN111178208B (zh) * | 2019-12-20 | 2023-08-15 | 华瑞新智科技(北京)有限公司 | 基于深度学习的行人检测方法、装置及介质 |
CN113043267A (zh) * | 2019-12-26 | 2021-06-29 | 深圳市优必选科技股份有限公司 | 机器人控制方法、装置、机器人及计算机可读存储介质 |
CN111275763B (zh) * | 2020-01-20 | 2023-10-13 | 深圳市普渡科技有限公司 | 闭环检测系统、多传感器融合slam系统及机器人 |
US11386713B2 (en) | 2020-05-06 | 2022-07-12 | Motorola Solutions, Inc. | Anomalous pose detection method and system |
DE102020116296A1 (de) | 2020-06-19 | 2021-12-23 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und vorrichtung zur ermittlung räumlicher positionen einer hand und der finger der hand in einem raumbereich |
CN111753721A (zh) * | 2020-06-24 | 2020-10-09 | 上海依图网络科技有限公司 | 一种人体姿态的识别方法及装置 |
GB2606753A (en) | 2021-05-20 | 2022-11-23 | Continental Automotive Gmbh | In-cabin monitoring method and related pose pattern categorization method |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3161921B2 (ja) | 1994-10-27 | 2001-04-25 | ファナック株式会社 | 製品品質影響要因解析方法と装置及び成形条件調整方法、製品良否判別項目選択方法 |
US6363160B1 (en) | 1999-01-22 | 2002-03-26 | Intel Corporation | Interface using pattern recognition and tracking |
US6674877B1 (en) | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
US6853964B1 (en) | 2000-06-30 | 2005-02-08 | Alyn Rockwood | System for encoding and manipulating models of objects |
US7274800B2 (en) * | 2001-07-18 | 2007-09-25 | Intel Corporation | Dynamic gesture recognition from stereo sequences |
JP4304337B2 (ja) * | 2001-09-17 | 2009-07-29 | 独立行政法人産業技術総合研究所 | インタフェース装置 |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
GB0308943D0 (en) | 2003-04-17 | 2003-05-28 | Univ Dundee | A system for determining the body pose of a person from images |
WO2004107266A1 (en) | 2003-05-29 | 2004-12-09 | Honda Motor Co., Ltd. | Visual tracking using depth data |
KR100528343B1 (ko) * | 2003-07-14 | 2005-11-15 | 삼성전자주식회사 | 3차원 객체의 영상 기반 표현 및 편집 방법 및 장치 |
FR2861858B1 (fr) * | 2003-10-29 | 2014-09-05 | Snecma Moteurs | Deplacement d'un objet articule virtuel dans un environnement virtuel en evitant les collisions entre l'objet articule et l'environnement |
US7308112B2 (en) * | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
WO2007006114A1 (en) | 2005-07-07 | 2007-01-18 | Vx Technologies Inc. | Methods for silhouette extraction |
US7715623B2 (en) * | 2005-11-14 | 2010-05-11 | Siemens Medical Solutions Usa, Inc. | Diffusion distance for histogram comparison |
US8280169B2 (en) | 2005-12-21 | 2012-10-02 | Michael Linderman | Recordation of handwriting and hand movement using electromyography |
US8924021B2 (en) | 2006-04-27 | 2014-12-30 | Honda Motor Co., Ltd. | Control of robots from human motion descriptors |
EP2015665B1 (en) * | 2006-05-04 | 2009-08-19 | Provost, Fellows and Scholars of the College of the Holy and Undivided Trinity of Queen Elizabeth near Dublin | A hand washing monitoring system |
CN101454803A (zh) | 2006-05-25 | 2009-06-10 | 日本电气株式会社 | 视频的特殊效果检测装置、特殊效果检测方法、特殊效果检测程序及视频再生装置 |
KR100776801B1 (ko) * | 2006-07-19 | 2007-11-19 | 한국전자통신연구원 | 화상 처리 시스템에서의 제스처 인식 장치 및 방법 |
EP2049983A2 (en) * | 2006-08-07 | 2009-04-22 | Yeda Research And Development Co. Ltd. | Data similarity and importance using local and global evidence scores |
US7925049B2 (en) * | 2006-08-15 | 2011-04-12 | Sri International | Stereo-based visual odometry method and system |
US7606411B2 (en) * | 2006-10-05 | 2009-10-20 | The United States Of America As Represented By The Secretary Of The Navy | Robotic gesture recognition system |
FR2911983B1 (fr) * | 2007-01-25 | 2009-05-29 | St Microelectronics Sa | Procede de suivi automatique des mouvements de la mains dans une sequence d'images. |
US8103109B2 (en) | 2007-06-19 | 2012-01-24 | Microsoft Corporation | Recognizing hand poses and/or object classes |
US8170287B2 (en) | 2007-10-26 | 2012-05-01 | Honda Motor Co., Ltd. | Real-time self collision and obstacle avoidance |
WO2009086088A1 (en) * | 2007-12-21 | 2009-07-09 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
US9165199B2 (en) * | 2007-12-21 | 2015-10-20 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
WO2010099035A1 (en) | 2009-02-25 | 2010-09-02 | Honda Motor Co., Ltd. | Body feature detection and human pose estimation using inner distance shape contexts |
-
2010
- 2010-02-19 WO PCT/US2010/024697 patent/WO2010099035A1/en active Application Filing
- 2010-02-19 JP JP2011552073A patent/JP5253588B2/ja not_active Expired - Fee Related
- 2010-02-19 US US12/709,287 patent/US8428311B2/en not_active Expired - Fee Related
- 2010-02-19 JP JP2011552074A patent/JP5647155B2/ja active Active
- 2010-02-19 WO PCT/US2010/024689 patent/WO2010099034A1/en active Application Filing
- 2010-02-19 US US12/709,221 patent/US9904845B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20100215271A1 (en) | 2010-08-26 |
WO2010099035A1 (en) | 2010-09-02 |
WO2010099034A1 (en) | 2010-09-02 |
JP2012518856A (ja) | 2012-08-16 |
US20100215257A1 (en) | 2010-08-26 |
JP2012518857A (ja) | 2012-08-16 |
JP5253588B2 (ja) | 2013-07-31 |
US8428311B2 (en) | 2013-04-23 |
US9904845B2 (en) | 2018-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5647155B2 (ja) | 内側距離形状関係を使用する身体特徴検出及び人間姿勢推定 | |
US9098766B2 (en) | Controlled human pose estimation from depth image streams | |
JP5211069B2 (ja) | ラベル付けを用いた人体姿勢の推定および追跡 | |
Zhu et al. | Controlled human pose estimation from depth image streams | |
Siddiqui et al. | Human pose estimation from a single view point, real-time range sensor | |
US9165199B2 (en) | Controlled human pose estimation from depth image streams | |
Lee et al. | Human pose tracking in monocular sequence using multilevel structured models | |
Schwarz et al. | Estimating human 3d pose from time-of-flight images based on geodesic distances and optical flow | |
JP4985516B2 (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
US9098740B2 (en) | Apparatus, method, and medium detecting object pose | |
Saeedi et al. | Vision-based 3-D trajectory tracking for unknown environments | |
Zhu et al. | Kinematic self retargeting: A framework for human pose estimation | |
JP2011186576A (ja) | 動作認識装置 | |
EP2899706B9 (en) | Method and system for analyzing human behavior in an intelligent surveillance system | |
Lee et al. | Human body tracking with auxiliary measurements | |
Ge et al. | Vipose: Real-time visual-inertial 6d object pose tracking | |
Zhu et al. | Fusing panoptic segmentation and geometry information for robust visual slam in dynamic environments | |
Che et al. | Detection-guided 3D hand tracking for mobile AR applications | |
Pavllo et al. | Real-time marker-based finger tracking with neural networks | |
KR20200057572A (ko) | 딥러닝 기반 손 인식 증강현실 상호 작용 장치 및 방법 | |
Wang et al. | A Visual SLAM Algorithm Based on Image Semantic Segmentation in Dynamic Environment | |
Taguchi et al. | Unsupervised Simultaneous Learning for Camera Re-Localization and Depth Estimation from Video | |
Jaume-i-Capó et al. | Adding image constraints to inverse kinematics for human motion capture | |
Wang et al. | 3D-2D spatiotemporal registration for sports motion analysis | |
Herdtweck et al. | Monocular heading estimation in non-stationary urban environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141007 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5647155 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |