JP2014522035A - オブジェクト姿勢検索装置及び方法 - Google Patents
オブジェクト姿勢検索装置及び方法 Download PDFInfo
- Publication number
- JP2014522035A JP2014522035A JP2014522730A JP2014522730A JP2014522035A JP 2014522035 A JP2014522035 A JP 2014522035A JP 2014522730 A JP2014522730 A JP 2014522730A JP 2014522730 A JP2014522730 A JP 2014522730A JP 2014522035 A JP2014522035 A JP 2014522035A
- Authority
- JP
- Japan
- Prior art keywords
- posture
- video
- key joint
- search
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 239000000284 extract Substances 0.000 claims abstract description 10
- 230000036544 posture Effects 0.000 claims description 379
- 238000012805 post-processing Methods 0.000 claims description 22
- 238000010606 normalization Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 description 23
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 238000013179 statistical model Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 210000003127 knee Anatomy 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 235000019577 caloric intake Nutrition 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/432—Query formulation
- G06F16/434—Query formulation using image data, e.g. images, photos, pictures taken by a user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/438—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/56—Information retrieval; Database structures therefor; File system structures therefor of still image data having vectorial format
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5862—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0317—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
- G06F3/0321—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Library & Information Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【解決手段】 オブジェクト姿勢検索方法は、オブジェクトのキージョイントデータを抽出し、抽出されたキージョイントデータを用いて候補姿勢を生成し、生成された候補姿勢を用いてデータベースを用いて最大類似姿勢を検索する。
【選択図】 図1
Description
D:入力映像で候補ポーズのジョイント位置の深さ値の集合、
L:姿勢尤度値
数式(1)を参考すると、C及びD間の差が小さいほど姿勢尤度値Lは1に近く、差が大きいほど0に近い値に演算される。
L:特定姿勢群内の代表姿勢を格納しているDxd次元のベクトル(例えば、特定姿勢群内の代表姿勢が10種類であり、各代表姿勢の実際ジョイント値が60個である場合を仮定すると、Dは60、dは10となる)
s:Factor Analyzerのhidden factorとして、学習によって決定されるd次元のベクトルを示し、平均がゼロのガウス分布N(0、I)と仮定される)
n:ガウス確率変数としてノイズを意味し、ガウス分布N(μ、ψ)と仮定される)
数式(2)にガウス分布モデルを適用すると、数式(3)のように表現される。
q:姿勢の実際のジョイント値を有するD次元のベクトル
L:姿勢群内の代表姿勢を格納しているDxd次元のベクトル
μ:モデリングしたnの平均ベクトル
ψ:モデリングしたnの分散行列
Factor Analyzerとして非線形的な分布を有するオブジェクト姿勢を表現することが難しい場合、他の実施形態として、数式(4)のように数個の線形モデルの加重値和として構成されたモデルのMFA(Mixture of Factor Analyzers)を用いることができる。
wk:特定姿勢群kの加重値
p(q):姿勢の確率値(姿勢自然性値)
q:姿勢の実際のジョイント値を有するD次元のベクトル
Lk:特定姿勢群kの代表姿勢を格納しているDxd次元のベクトル
μk:特定姿勢群kのモデリングしたnの平均ベクトル
ψ:モデリングしたnの分散行列
前述したように、データベース930に格納された統計モデルは、学習された統計モデルであってもよい。MFA統計モデルの場合、全ての姿勢情報を入力にして、期待値極大化方法によってLk、s、wk、μk、ψなどを学習し、このように学習された結果がデータベース930に更新されてもよい。
I(x):リコール関数(オブジェクトが動いたか否かを判断する関数として、D以上動くと1をリターンする)、
E:最終推定された運動量(全てのジョイントnに対応する全ての入力されたフレームmを累積させて値を演算)、
Px:以前フレームのスケルトン
Cx:現在フレームのスケルトン
図13は、一実施形態に係るオブジェクト姿勢検索装置において、モデル基盤トラッキング部の動作を示す図である。図13を参照すると、ステップ1310は、オブジェクト1301の深さ映像と格納された以前フレーム1302の深さ映像と間の差を演算する動作を示す。ここで、ステップ1310は、モデル基盤トラッキング部160で行われ、また、後述するステップ1320〜ステップ1340もモデル基盤トラッキング部160で行われる。
Pi:候補姿勢1420
ステップ1402は、演算された加重値に基づいて候補姿勢1420を加重値和する動作を示す。ここで、ステップ1402は姿勢検索部130で行われる。実施形態によって姿勢検索部130は、数式(8)を用いて加重値和し生成された姿勢1430を演算してもよい。
P*:加重値を和して生成された姿勢1430
姿勢検索部130は、加重値和して生成された姿勢1430を最大類似姿勢として検索することができる。
102:深さ映像
110:キージョイント検索部
120:データベース
130:姿勢検索部
140:前処理部
150:後処理部
160:モデル基盤トラッキング部
Claims (27)
- 映像を分析することによって、前記映像内オブジェクトのキージョイントに対するキージョイントデータを検索するキージョイント検索部と、
1つまたはそれ以上のオブジェクトのポテンシャル姿勢を示すオブジェクト姿勢を格納するデータベースと、
前記検索されたキージョイントデータに基づいて、前記オブジェクト姿勢のうち前記オブジェクトの実際姿勢と類似度が最も高い最大類似姿勢を検索する姿勢検索部と、
を備えることを特徴とするオブジェクト姿勢検索装置。 - 前記映像は、前記オブジェクトの深さ映像であることを特徴とする請求項1に記載のオブジェクト姿勢検索装置。
- 前記キージョイント検索部は、
前記オブジェクトのエンドポイントを検索し、
前記映像から前記エンドポイントの特徴を抽出し、
前記抽出された特徴に基づいて前記エンドポイントに対して分類作業を行い、
前記分類されたエンドポイントの位置を算出して前記キージョイントデータを検索することを特徴とする請求項1又は2に記載のオブジェクト姿勢検索装置。 - 前記キージョイント検索部は、
前記映像から前記エンドポイントに対応するエンドパートに対する映像を分割し、
前記分割された映像に対して正規化作業を行い、
前記正規化された映像から前記エンドパートの特徴を抽出し、
前記抽出された特徴に基づいて前記エンドパートに対して分類作業を行い、
前記分類されたエンドパートの位置を算出して前記キージョイントデータを検索することを特徴とする請求項3に記載のオブジェクト姿勢検索装置。 - 前記キージョイント検索部は、前記映像から前記オブジェクトの特徴を抽出し、前記抽出された特徴に基づいて特定姿勢にある前記オブジェクト姿勢を分類し、前記分類された姿勢に基づいて前記データベースから前記キージョイントデータを検索することを特徴とする請求項1又は4に記載のオブジェクト姿勢検索装置。
- 前記キージョイント検索部は、前記映像から前記オブジェクトの3次元シルエット特徴又は3次元レベルセット特徴を抽出し、特定姿勢クラスIDに対応する前記抽出された3次元シルエット特徴又は3次元レベルセット特徴に基づいて前記オブジェクトの前記姿勢を分類し、前記姿勢クラスIDに基づいて前記データベースから前記キージョイントデータを検索することを特徴とする請求項1又は5に記載のオブジェクト姿勢検索装置。
- 前記姿勢検索部は、制約逆運動学を前記キージョイントデータに適用することによって、前記オブジェクトのための少なくとも1つの候補姿勢を生成することを特徴とする請求項1、3又は5に記載のオブジェクト姿勢検索装置。
- 前記姿勢検索部は、前記検索されたキージョイントデータが適用される姿勢と前記少なくとも1つの候補姿勢との間の差を算出し、前記算出された差に基づいて前記少なくとも1つの候補姿勢の加重値因子を算出し、前記算出された加重値因子に基づいて前記少なくとも1つの候補姿勢の加重値和を取得し、前記加重値和により生成された姿勢を前記最大類似姿勢として検索することを特徴とする請求項7に記載のオブジェクト姿勢検索装置。
- 前記オブジェクトの運動量を算出する後処理部をさらに備え、
前記後処理部は、前記映像の複数のフレームそれぞれに対して検索された複数の定められた最大類似姿勢間の距離の和を前記運動量として算出することを特徴とする請求項1、3又は5に記載のオブジェクト姿勢検索装置。 - 前記後処理部は、現在フレームの複数のキージョイントと以前フレームの複数のキージョイントとのうち同じ位置にあるキージョイント間の各距離を算出し、前記算出された距離のうち閾値よりも大きいか同じ距離を合算することによって前記運動量を算出することを特徴とする請求項9に記載のオブジェクト姿勢検索装置。
- 前記最大類似姿勢に基づいて前記オブジェクトと関連して算出されたオブジェクトスケルトンを表示するディスプレイをさらに含むことを特徴とする請求項3又は5に記載のオブジェクト姿勢検索装置。
- 前記姿勢検索部は、
前記キージョイントデータに基づいて前記オブジェクトに対する少なくとも1つの候補姿勢を生成し、
前記データベースに基づいて前記少なくとも1つの候補姿勢に対する姿勢自然性値を演算し、
前記姿勢自然性値が最も高い候補姿勢を前記最大類似姿勢として検索することを特徴とする請求項1に記載のオブジェクト姿勢検索装置。 - 前記姿勢検索部は、前記最大類似姿勢に基づいて前記オブジェクトに対するオブジェクトスケルトンを算出することを特徴とする請求項1に記載のオブジェクト姿勢検索装置。
- 姿勢をとる利用者の映像を前記映像にキャプチャーするカメラをさらに備えることを特徴とする請求項1に記載のオブジェクト姿勢検索装置。
- 映像内オブジェクトのキージョイントに対するキージョイントデータを検索するために前記映像を分析するステップと、
前記検索されたキージョイントデータに基づいて、1つまたはそれ以上のオブジェクトのポテンシャル姿勢を示すオブジェクト姿勢を格納するデータベースから前記オブジェクトの実際姿勢と類似度が最も高い最大類似姿勢を検索するステップと、
を含むことを特徴とするオブジェクト姿勢検索方法。 - 前記映像は、前記オブジェクトの深さ映像であることを特徴とする請求項15に記載のオブジェクト姿勢検索方法。
- 前記映像を分析するステップは、
前記オブジェクトのエンドポイントを検索するステップと、
前記映像から前記エンドポイントの特徴を抽出するステップと、
前記抽出された特徴に基づいて前記エンドポイントに対して分類作業を行うステップと、
前記分類されたエンドポイントの3次元位置を算出して前記キージョイントデータを検索するステップと、
を含むことを特徴とする請求項15に記載のオブジェクト姿勢検索方法。 - 前記映像を分析するステップは、
前記映像から前記エンドポイントに対応するエンドパートに対する映像を分割するステップと、
前記分割された映像に対して正規化作業を行うステップと、
前記正規化された映像から前記エンドパートの特徴を抽出するステップと、
前記抽出された特徴に基づいて前記エンドパートに対して分類作業を行うステップと、
前記分類されたエンドパートの位置を算出して前記キージョイントデータを検索するステップと、
を含むことを特徴とする請求項17に記載のオブジェクト姿勢検索方法。 - 前記映像を分析するステップは、
前記映像から前記オブジェクトの特徴を抽出するステップと、
前記抽出された特徴に基づいて特定姿勢にある前記オブジェクト姿勢を分類するステップと、
前記分類された姿勢に基づいて前記データベースから前記キージョイントデータを検索するステップと、
を含むことを特徴とする請求項18に記載のオブジェクト姿勢検索方法。 - 前記映像を分析するステップは、
前記映像から前記オブジェクトの3次元シルエット特徴又は3次元レベルセット特徴を抽出するステップと、
特定姿勢クラスIDに対応する前記抽出された3次元シルエット特徴又は3次元レベルセット特徴に基づいて前記オブジェクトの前記姿勢を分類するステップと、
前記姿勢クラスIDに基づいて前記データベースから前記キージョイントデータを検索するステップと、
を含むことを特徴とする請求項19に記載のオブジェクト姿勢検索方法。 - 前記最大類似姿勢を検索するステップは、制約逆運動学を前記キージョイントデータに適用することによって、前記オブジェクトのための少なくとも1つの候補姿勢を生成するステップを含むことを特徴とする請求項17又は19に記載のオブジェクト姿勢検索方法。
- 前記最大類似姿勢を検索するステップは、
前記検索されたキージョイントデータが適用される姿勢と前記少なくとも1つの候補姿勢との間の差を算出するステップと、
前記算出された差に基づいて前記少なくとも1つの候補姿勢の加重値因子を算出するステップと、
前記算出された加重値因子に基づいて前記少なくとも1つの候補姿勢の加重値和を取得するステップと、
前記加重値和により生成された姿勢を前記最大類似姿勢として検索するステップと、
を含むことを特徴とする請求項21に記載のオブジェクト姿勢検索方法。 - 前記映像の複数のフレームそれぞれに対して検索された複数の定められた最大類似姿勢の間の距離の和に基づいて運動量を算出するステップをさらに含むことを特徴とする請求項17又は19に記載のオブジェクト姿勢検索方法。
- 前記運動量を算出するステップは、
現在フレームの複数のキージョイントのうち、同じ姿勢内のキージョイントと以前フレームの複数のキージョイントと間の距離それぞれを算出するステップと、
前記算出された距離のうち、閾値よりも大きいか同じ距離を合算することによって前記運動量を算出するステップと、
を含むことを特徴とする請求項23に記載のオブジェクト姿勢検索方法。 - 前記最大類似姿勢に基づいて前記オブジェクトと関連するオブジェクトスケルトンを算出するステップと、
前記オブジェクトスケルトンをディスプレイに表示するステップと、
をさらに含むことを特徴とする請求項17又は19に記載のオブジェクト姿勢検索方法。 - 前記最大類似姿勢を検索するステップは、
前記キージョイントデータに基づいて前記オブジェクトに対する少なくとも1つの候補姿勢を生成するステップと、
前記データベースに基づいて前記少なくとも1つの候補姿勢に対する姿勢自然性値を演算するステップと、
前記姿勢自然性値が最も高い候補姿勢を前記最大類似姿勢として検索するステップと、
を含むことを特徴とする請求項15に記載のオブジェクト姿勢検索方法。 - 請求項15乃至26のいずれか一項に記載の方法を実行するプログラムを記録したコンピュータで読み出し可能な記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2011-0074546 | 2011-07-27 | ||
KR1020110074546A KR101815975B1 (ko) | 2011-07-27 | 2011-07-27 | 객체 자세 검색 장치 및 방법 |
PCT/KR2012/004909 WO2013015528A1 (en) | 2011-07-27 | 2012-06-21 | Apparatus, method, and medium detecting object pose |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014522035A true JP2014522035A (ja) | 2014-08-28 |
JP6025845B2 JP6025845B2 (ja) | 2016-11-16 |
Family
ID=47597273
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014522730A Active JP6025845B2 (ja) | 2011-07-27 | 2012-06-21 | オブジェクト姿勢検索装置及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9098740B2 (ja) |
EP (1) | EP2737418A4 (ja) |
JP (1) | JP6025845B2 (ja) |
KR (1) | KR101815975B1 (ja) |
CN (1) | CN103718175B (ja) |
WO (1) | WO2013015528A1 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017525029A (ja) * | 2014-06-27 | 2017-08-31 | 華為技術有限公司Huawei Technologies Co.,Ltd. | ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末 |
KR20190128500A (ko) * | 2018-05-08 | 2019-11-18 | 한국전자통신연구원 | 영상 감시 시스템에서의 실시간 쓰레기 투기 행위 탐지 방법 및 장치 |
JP2021507434A (ja) * | 2017-12-13 | 2021-02-22 | ヒューマニシング オートノミー リミテッド | 歩行者の意図を予測するためのシステムおよび方法 |
WO2021224994A1 (ja) * | 2020-05-08 | 2021-11-11 | 日本電気株式会社 | 画像選択装置、画像選択方法、及びプログラム |
WO2022003854A1 (ja) * | 2020-07-01 | 2022-01-06 | 日本電気株式会社 | 画像処理装置、画像処理方法、及びプログラム |
WO2023089690A1 (ja) * | 2021-11-17 | 2023-05-25 | 日本電気株式会社 | 検索装置、検索方法、およびプログラム |
JP7499346B2 (ja) | 2020-03-20 | 2024-06-13 | ヒンジ ヘルス, インコーポレイテッド | 逆運動学に基づいた関節の回転の推測 |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9104984B2 (en) * | 2008-11-13 | 2015-08-11 | Sony Corporation | Method and device relating to information management |
US20140267611A1 (en) * | 2013-03-14 | 2014-09-18 | Microsoft Corporation | Runtime engine for analyzing user motion in 3d images |
BR112015023898A2 (pt) * | 2013-03-21 | 2017-07-18 | Koninklijke Philips Nv | aparelho de processamento de imagens, método de processamento de imagens, elemento de programa de computador para controlar um aparelho e mídia legível por computador |
CN103714340B (zh) * | 2014-01-09 | 2017-01-25 | 西安电子科技大学 | 基于图像分块的自适应特征提取方法 |
CN103745218B (zh) * | 2014-01-26 | 2017-02-15 | 清华大学 | 一种深度图像中的姿势识别方法及装置 |
US9087176B1 (en) * | 2014-03-06 | 2015-07-21 | Kla-Tencor Corporation | Statistical overlay error prediction for feed forward and feedback correction of overlay errors, root cause analysis and process control |
KR102256057B1 (ko) * | 2014-03-17 | 2021-05-25 | 에스케이플래닛 주식회사 | 객체의 자세 기반 검색 결과 제공 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체 |
US10576603B2 (en) * | 2014-04-22 | 2020-03-03 | Kla-Tencor Corporation | Patterned wafer geometry measurements for semiconductor process controls |
US9552070B2 (en) * | 2014-09-23 | 2017-01-24 | Microsoft Technology Licensing, Llc | Tracking hand/body pose |
US9878447B2 (en) * | 2015-04-10 | 2018-01-30 | Microsoft Technology Licensing, Llc | Automated collection and labeling of object data |
CN105631919B (zh) * | 2015-07-09 | 2019-01-29 | 腾讯科技(深圳)有限公司 | 一种数据处理方法和装置 |
US20170076629A1 (en) * | 2015-09-14 | 2017-03-16 | Electronics And Telecommunications Research Institute | Apparatus and method for supporting choreography |
CN105513136B (zh) * | 2015-11-30 | 2018-05-04 | 东北大学 | 一种基于水平集中心聚类的3d角色模型骨架提取方法 |
WO2017092615A1 (zh) * | 2015-11-30 | 2017-06-08 | 上海联影医疗科技有限公司 | 一种计算机辅助诊断系统及方法 |
KR102565485B1 (ko) * | 2016-01-11 | 2023-08-14 | 한국전자통신연구원 | 도시 거리 검색 서비스 제공 서버 및 방법 |
EP3529009A4 (en) * | 2016-10-20 | 2020-06-24 | Robo-Team Home Ltd. | HUMAN TRACKING ROBOT |
CN108089699B (zh) * | 2016-11-21 | 2020-10-30 | 宏达国际电子股份有限公司 | 人体姿势侦测系统、服装以及方法 |
US10163033B2 (en) * | 2016-12-13 | 2018-12-25 | Caterpillar Inc. | Vehicle classification and vehicle pose estimation |
US20230107110A1 (en) * | 2017-04-10 | 2023-04-06 | Eys3D Microelectronics, Co. | Depth processing system and operational method thereof |
JP6860066B2 (ja) * | 2017-05-12 | 2021-04-14 | 富士通株式会社 | 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム |
EP3624052A4 (en) * | 2017-05-12 | 2020-03-18 | Fujitsu Limited | DISTANCE IMAGE PROCESSING DEVICE, DISTANCE IMAGE PROCESSING SYSTEM, DISTANCE IMAGE PROCESSING METHOD AND DISTANCE IMAGE PROCESSING PROGRAM |
KR101963556B1 (ko) | 2017-07-04 | 2019-04-01 | 주식회사 알고리고 | 인공 신경망을 이용한 시계열적 자세 예측 장치 |
CN109298778B (zh) * | 2017-07-24 | 2021-02-23 | 宏达国际电子股份有限公司 | 追踪系统及其方法 |
WO2019082376A1 (ja) * | 2017-10-27 | 2019-05-02 | 株式会社アシックス | 動作状態評価システム、動作状態評価装置、動作状態評価サーバ、動作状態評価方法、および動作状態評価プログラム |
US10460512B2 (en) * | 2017-11-07 | 2019-10-29 | Microsoft Technology Licensing, Llc | 3D skeletonization using truncated epipolar lines |
WO2019108250A1 (en) * | 2017-12-03 | 2019-06-06 | Facebook, Inc. | Optimizations for dynamic object instance detection, segmentation, and structure mapping |
US10586350B2 (en) | 2017-12-03 | 2020-03-10 | Facebook, Inc. | Optimizations for dynamic object instance detection, segmentation, and structure mapping |
US10733431B2 (en) | 2017-12-03 | 2020-08-04 | Facebook, Inc. | Systems and methods for optimizing pose estimation |
US10796452B2 (en) | 2017-12-03 | 2020-10-06 | Facebook, Inc. | Optimizations for structure mapping and up-sampling |
US11127189B2 (en) * | 2018-02-23 | 2021-09-21 | Canon Kabushiki Kaisha | 3D skeleton reconstruction from images using volumic probability data |
JP2020014051A (ja) * | 2018-07-13 | 2020-01-23 | ローランド株式会社 | 情報処理方法、及び情報処理装置 |
CN109902548B (zh) * | 2018-07-20 | 2022-05-31 | 华为技术有限公司 | 一种对象属性识别方法、装置、计算设备及系统 |
US11335027B2 (en) | 2018-09-28 | 2022-05-17 | Hewlett-Packard Development Company, L.P. | Generating spatial gradient maps for a person in an image |
WO2020084667A1 (ja) * | 2018-10-22 | 2020-04-30 | 富士通株式会社 | 認識方法、認識プログラム、認識装置、学習方法、学習プログラムおよび学習装置 |
KR102031983B1 (ko) | 2019-03-22 | 2019-10-14 | 주식회사 알고리고 | 복수의 lstm을 이용한 시계열적 자세 예측 장치 |
KR102239953B1 (ko) * | 2019-05-09 | 2021-04-14 | (주)도넛시스템엘에스아이 | 운동칼로리 산출 서비스 방법 |
US11803585B2 (en) * | 2019-09-27 | 2023-10-31 | Boe Technology Group Co., Ltd. | Method and apparatus for searching for an image and related storage medium |
WO2021084677A1 (ja) * | 2019-10-31 | 2021-05-06 | 日本電気株式会社 | 画像処理装置、画像処理方法及び画像処理プログラムが格納された非一時的なコンピュータ可読媒体 |
KR102357117B1 (ko) * | 2020-01-09 | 2022-01-27 | 주식회사 엘지유플러스 | 다중 영상 재생 방법 및 장치 |
KR20210106763A (ko) * | 2020-02-21 | 2021-08-31 | 삼성전자주식회사 | 객체의 움직임을 추적하는 전자 장치 및 방법 |
CN111695520A (zh) * | 2020-06-13 | 2020-09-22 | 德沃康科技集团有限公司 | 一种高精度的儿童坐姿检测与矫正方法及装置 |
CN112200074A (zh) * | 2020-10-09 | 2021-01-08 | 广州健康易智能科技有限公司 | 一种姿态对比的方法和终端 |
KR102416825B1 (ko) * | 2020-10-14 | 2022-07-06 | (주)유디피 | 스켈레톤 분석을 이용한 객체 추적 장치 및 방법 |
KR102531287B1 (ko) * | 2020-12-23 | 2023-05-12 | 한국과학기술연구원 | 자세 인식 기반의 영상 초상권 보호 방법 및 장치 |
US11593944B2 (en) * | 2021-01-06 | 2023-02-28 | Tencent America LLC | System and method for instance segmentation in pathological images using object-guided framework |
US20240071084A1 (en) * | 2021-01-15 | 2024-02-29 | Hewlett-Packard Development Company, L.P. | Determination of person state relative to stationary object |
WO2022188056A1 (zh) * | 2021-03-10 | 2022-09-15 | 深圳市大疆创新科技有限公司 | 图像处理方法、装置及存储介质 |
CN113052083B (zh) * | 2021-03-26 | 2024-06-11 | 陕西大步实业有限公司 | 一种多近邻图约束矩阵分解的动作行为分割方法 |
KR102369152B1 (ko) * | 2021-11-04 | 2022-03-02 | 아이픽셀 주식회사 | 인공지능을 이용한 실시간 자세 동작 인식 시스템 및 인식 방법 |
CN114821006B (zh) * | 2022-06-23 | 2022-09-20 | 盾钰(上海)互联网科技有限公司 | 交互式间接推理的孪生体态检测方法及系统 |
KR102706055B1 (ko) * | 2024-04-09 | 2024-09-11 | 국립한국해양대학교산학협력단 | 라이다 장착 스마트 기기를 활용한 3차원 인체 골격 정보 추출 방법 |
CN118502639B (zh) * | 2024-07-16 | 2024-09-24 | 好瑞圣(常州)科技有限公司 | 姿态差异识别方法、装置、电子设备、介质和程序产品 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001134615A (ja) * | 1999-09-08 | 2001-05-18 | Hyundai Electronics Ind Co Ltd | 3次元人体姿勢の検索方法および検索装置 |
US6459824B1 (en) * | 1998-07-22 | 2002-10-01 | Electronics And Telecommunications Research Institute | Method of retrieving moving pictures using joint points based on pose information |
WO2007102537A1 (ja) * | 2006-03-07 | 2007-09-13 | Osaka University | 姿勢推定装置および方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6771818B1 (en) * | 2000-04-04 | 2004-08-03 | Microsoft Corporation | System and process for identifying and locating people or objects in a scene by selectively clustering three-dimensional regions |
KR20050065198A (ko) | 2003-12-24 | 2005-06-29 | 한국전자통신연구원 | 사용자의 움직임을 이용한 3차원 동작명령 인식기 |
US7317836B2 (en) * | 2005-03-17 | 2008-01-08 | Honda Motor Co., Ltd. | Pose estimation based on critical point analysis |
CN103778635B (zh) * | 2006-05-11 | 2016-09-28 | 苹果公司 | 用于处理数据的方法和装置 |
US7965886B2 (en) * | 2006-06-13 | 2011-06-21 | Sri International | System and method for detection of multi-view/multi-pose objects |
JP4148281B2 (ja) * | 2006-06-19 | 2008-09-10 | ソニー株式会社 | モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム |
KR100858087B1 (ko) * | 2007-02-14 | 2008-09-10 | 삼성전자주식회사 | 객체 포즈 정규화 방법과 장치 및 객체 인식 방법 |
CN101079103A (zh) * | 2007-06-14 | 2007-11-28 | 上海交通大学 | 基于稀疏贝叶斯回归的人脸姿势识别方法 |
WO2009031155A2 (en) | 2007-09-06 | 2009-03-12 | Yeda Research And Development Co. Ltd. | Modelization of objects in images |
KR100933957B1 (ko) | 2008-05-16 | 2009-12-28 | 전남대학교산학협력단 | 단일 카메라를 이용한 삼차원 인체 포즈 인식 방법 |
EP2327061A4 (en) | 2008-08-15 | 2016-11-16 | Univ Brown | METHOD AND DEVICE FOR ESTIMATING BODY SHAPES |
JP4404157B2 (ja) | 2008-12-10 | 2010-01-27 | 日本ビクター株式会社 | 動画像符号化装置および動画像符号化方法 |
US8267781B2 (en) * | 2009-01-30 | 2012-09-18 | Microsoft Corporation | Visual target tracking |
WO2010096279A2 (en) * | 2009-02-17 | 2010-08-26 | Omek Interactive , Ltd. | Method and system for gesture recognition |
JP5253588B2 (ja) * | 2009-02-25 | 2013-07-31 | 本田技研工業株式会社 | 内部距離形状関連法を用いた手姿勢の取り込み及び認識 |
KR101591779B1 (ko) * | 2009-03-17 | 2016-02-05 | 삼성전자주식회사 | 모션 데이터 및 영상 데이터를 이용한 골격 모델 생성 장치및 방법 |
US8755569B2 (en) | 2009-05-29 | 2014-06-17 | University Of Central Florida Research Foundation, Inc. | Methods for recognizing pose and action of articulated objects with collection of planes in motion |
US20110025834A1 (en) * | 2009-07-31 | 2011-02-03 | Samsung Electronics Co., Ltd. | Method and apparatus of identifying human body posture |
CN101989326B (zh) * | 2009-07-31 | 2015-04-01 | 三星电子株式会社 | 人体姿态识别方法和装置 |
US8751215B2 (en) * | 2010-06-04 | 2014-06-10 | Microsoft Corporation | Machine based sign language interpreter |
-
2011
- 2011-07-27 KR KR1020110074546A patent/KR101815975B1/ko active IP Right Grant
-
2012
- 2012-06-21 JP JP2014522730A patent/JP6025845B2/ja active Active
- 2012-06-21 WO PCT/KR2012/004909 patent/WO2013015528A1/en unknown
- 2012-06-21 EP EP12817346.5A patent/EP2737418A4/en not_active Ceased
- 2012-06-21 CN CN201280034991.4A patent/CN103718175B/zh active Active
- 2012-07-03 US US13/541,126 patent/US9098740B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6459824B1 (en) * | 1998-07-22 | 2002-10-01 | Electronics And Telecommunications Research Institute | Method of retrieving moving pictures using joint points based on pose information |
JP2001134615A (ja) * | 1999-09-08 | 2001-05-18 | Hyundai Electronics Ind Co Ltd | 3次元人体姿勢の検索方法および検索装置 |
US6557010B1 (en) * | 1999-09-08 | 2003-04-29 | Hyundai Electronics Industries Co, Ltd. | Method and apparatus for searching human three-dimensional posture |
WO2007102537A1 (ja) * | 2006-03-07 | 2007-09-13 | Osaka University | 姿勢推定装置および方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9984461B2 (en) | 2014-06-27 | 2018-05-29 | Huawei Technologies Co., Ltd. | Method, apparatus, and terminal for obtaining vital sign data of target object |
JP2017525029A (ja) * | 2014-06-27 | 2017-08-31 | 華為技術有限公司Huawei Technologies Co.,Ltd. | ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末 |
JP2021507434A (ja) * | 2017-12-13 | 2021-02-22 | ヒューマニシング オートノミー リミテッド | 歩行者の意図を予測するためのシステムおよび方法 |
KR20190128500A (ko) * | 2018-05-08 | 2019-11-18 | 한국전자통신연구원 | 영상 감시 시스템에서의 실시간 쓰레기 투기 행위 탐지 방법 및 장치 |
KR102153591B1 (ko) * | 2018-05-08 | 2020-09-09 | 한국전자통신연구원 | 영상 감시 시스템에서의 실시간 쓰레기 투기 행위 탐지 방법 및 장치 |
US11048942B2 (en) | 2018-05-08 | 2021-06-29 | Electronics And Telecommunications Research Institute | Method and apparatus for detecting a garbage dumping action in real time on video surveillance system |
JP7499346B2 (ja) | 2020-03-20 | 2024-06-13 | ヒンジ ヘルス, インコーポレイテッド | 逆運動学に基づいた関節の回転の推測 |
WO2021224994A1 (ja) * | 2020-05-08 | 2021-11-11 | 日本電気株式会社 | 画像選択装置、画像選択方法、及びプログラム |
JP7435754B2 (ja) | 2020-05-08 | 2024-02-21 | 日本電気株式会社 | 画像選択装置、画像選択方法、及びプログラム |
JPWO2022003854A1 (ja) * | 2020-07-01 | 2022-01-06 | ||
JP7485040B2 (ja) | 2020-07-01 | 2024-05-16 | 日本電気株式会社 | 画像処理装置、画像処理方法、及びプログラム |
WO2022003854A1 (ja) * | 2020-07-01 | 2022-01-06 | 日本電気株式会社 | 画像処理装置、画像処理方法、及びプログラム |
WO2023089690A1 (ja) * | 2021-11-17 | 2023-05-25 | 日本電気株式会社 | 検索装置、検索方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP2737418A1 (en) | 2014-06-04 |
EP2737418A4 (en) | 2015-10-14 |
KR20130013122A (ko) | 2013-02-06 |
WO2013015528A1 (en) | 2013-01-31 |
CN103718175B (zh) | 2018-10-12 |
KR101815975B1 (ko) | 2018-01-09 |
US9098740B2 (en) | 2015-08-04 |
CN103718175A (zh) | 2014-04-09 |
US20130028517A1 (en) | 2013-01-31 |
JP6025845B2 (ja) | 2016-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6025845B2 (ja) | オブジェクト姿勢検索装置及び方法 | |
Jalal et al. | Robust human activity recognition from depth video using spatiotemporal multi-fused features | |
Ar et al. | A computerized recognition system for the home-based physiotherapy exercises using an RGBD camera | |
Zhu et al. | Evaluating spatiotemporal interest point features for depth-based action recognition | |
Ji et al. | Interactive body part contrast mining for human interaction recognition | |
CN105022982B (zh) | 手部运动识别方法和装置 | |
Wang et al. | Mining actionlet ensemble for action recognition with depth cameras | |
CN102682302B (zh) | 一种基于关键帧的多特征融合的人体姿态识别方法 | |
US9639746B2 (en) | Systems and methods of detecting body movements using globally generated multi-dimensional gesture data | |
Jalal et al. | A spatiotemporal motion variation features extraction approach for human tracking and pose-based action recognition | |
Chaudhari et al. | Yog-guru: Real-time yoga pose correction system using deep learning methods | |
Yao et al. | Real-time hand pose estimation from RGB-D sensor | |
JP2014093023A (ja) | 物体検出装置、物体検出方法及びプログラム | |
CN104517097A (zh) | 一种基于kinect的运动人体姿态识别方法 | |
Papadopoulos et al. | Human action recognition using 3d reconstruction data | |
Monir et al. | Rotation and scale invariant posture recognition using Microsoft Kinect skeletal tracking feature | |
Mastorakis et al. | Fall detection without people: A simulation approach tackling video data scarcity | |
Bhuyan et al. | Trajectory guided recognition of hand gestures having only global motions | |
CN104732247B (zh) | 一种人脸特征定位方法 | |
Shaikh et al. | Gait recognition using partial silhouette-based approach | |
Parashar et al. | Improved Yoga Pose Detection Using MediaPipe and MoveNet in a Deep Learning Model. | |
Saabni | Facial expression recognition using multi Radial Bases Function Networks and 2-D Gabor filters | |
Keceli et al. | Recognition of basic human actions using depth information | |
Goudelis et al. | 3D Cylindrical Trace Transform based feature extraction for effective human action classification | |
Ding et al. | Combining adaptive hierarchical depth motion maps with skeletal joints for human action recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160927 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161011 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6025845 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |