JP2014522035A - オブジェクト姿勢検索装置及び方法 - Google Patents

オブジェクト姿勢検索装置及び方法 Download PDF

Info

Publication number
JP2014522035A
JP2014522035A JP2014522730A JP2014522730A JP2014522035A JP 2014522035 A JP2014522035 A JP 2014522035A JP 2014522730 A JP2014522730 A JP 2014522730A JP 2014522730 A JP2014522730 A JP 2014522730A JP 2014522035 A JP2014522035 A JP 2014522035A
Authority
JP
Japan
Prior art keywords
posture
video
key joint
search
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014522730A
Other languages
English (en)
Other versions
JP6025845B2 (ja
Inventor
イン ユ,ビョン
ギュ チェー,チャン
ジュン ハン,ジェ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014522035A publication Critical patent/JP2014522035A/ja
Application granted granted Critical
Publication of JP6025845B2 publication Critical patent/JP6025845B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/56Information retrieval; Database structures therefor; File system structures therefor of still image data having vectorial format
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5862Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • G06F3/0321Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】 オブジェクト姿勢検索装置及び方法が開示される。
【解決手段】 オブジェクト姿勢検索方法は、オブジェクトのキージョイントデータを抽出し、抽出されたキージョイントデータを用いて候補姿勢を生成し、生成された候補姿勢を用いてデータベースを用いて最大類似姿勢を検索する。
【選択図】 図1

Description

オブジェクト姿勢を検索する装置及び方法に関する。
日常生活で人は2つの目を使用しているため遠距離の解像度が低い人体姿勢(human body pose)であっても良好に認知することができる。しかし、コンピュータビジョンシステムにおいて人体姿勢を認知する方法は、多様な分野で要求されているものの解決されない難しい問題である。
従来これを解決するためモデルに基づいた方法が用いられた。しかし、従来方法は、ヨガやストレッチングのように胴体部に対するかみ合わせ(Occlusion)が多く、座ったり横になって行う複雑な姿勢を推定するには適用し難しい問題があった。また、モデル基盤の従来方法は、一般的に高い計算を要求するため埋め込み(Embedded)環境に適用し難く、はやい動作の場合はトラッキングが難しく、分割エラーに対して強靱でないという短所がある。
本発明は、オブジェクト姿勢検索装置及び方法を提供する。
一実施形態に係るオブジェクト姿勢検索装置は、映像を分析することによって、前記映像内オブジェクトのキージョイントに対するキージョイントデータを検索するキージョイント検索部と、1つまたはそれ以上のオブジェクトのポテンシャル姿勢を示すオブジェクト姿勢を格納するデータベースと、前記検索されたキージョイントデータに基づいて、前記オブジェクト姿勢のうち前記オブジェクトの実際姿勢と類似度が最も高い最大類似姿勢を検索する姿勢検索部とを備える。
一実施形態に係るオブジェクト姿勢検索方法は、映像内オブジェクトのキージョイントに対するキージョイントデータを検索するために前記映像を分析するステップと、前記検索されたキージョイントデータに基づいて、1つまたはそれ以上のオブジェクトのポテンシャル姿勢を示すオブジェクト姿勢を格納するデータベースから前記オブジェクトの実際姿勢と類似度が最も高い最大類似姿勢を検索するステップとを含む。
オブジェクトに対するキージョイントデータを抽出し、抽出されたキージョイントデータを用いて候補姿勢を生成し、生成された候補姿勢を用いてデータベースから最大類似姿勢を検索することで算出量を減すと共に、埋め込み環境にも適用され得る。
また、キージョイントデータを検索する様々な方法を提供することによって、複雑な姿勢についても認識率を高めることができる。
また、キージョイントデータ及びデータベースを用いることによって別途の姿勢トラッキング過程を含むことなく、したがって、はやい動作に対して最大類似姿勢を容易に検索することができ、カメラの入力速度よりも高い速度でオブジェクトスケルトンを生成することができる。
一実施形態に係るオブジェクト姿勢検索装置の構成を示す図である。 一実施形態に係るオブジェクト及びキージョイントを示す図である。 一実施形態に係るオブジェクト及びキージョイントを示す図である。 一実施形態に係るオブジェクト姿勢検索装置においてキージョイント検索部の動作を示す図である。 キージョイント検索部の他の実施形態を示す図である。 キージョイント検索部の他の実施形態を示す図である。 一実施形態に係るオブジェクト姿勢検索装置において前処理部の動作を示す図である。 一実施形態に係るオブジェクト姿勢検索装置において前処理部の動作を示す図である。 一実施形態に係るオブジェクト姿勢検索装置において姿勢検索部の動作を示す図である。 一実施形態に係るオブジェクトスケルトンを示す図である。 一実施形態に係るオブジェクトスケルトンを示す図である。 一実施形態に係るオブジェクト姿勢検索装置において後処理部の動作を示す図である。 一実施形態に係るオブジェクト姿勢検索装置においてモデル基盤トラッキング部の動作を示す図である。 一実施形態に係るオブジェクト姿勢検索装置において姿勢検索部が加重値を用いて最大類似姿勢を検索する動作を示す図である。 一実施形態に係るオブジェクト姿勢検索方法を示すフローチャートである。 一実施形態に係るプロセシング装置を含む1つまたはそれ以上のオブジェクト姿勢検索装置が他のプロセシング装置と通信する動作を示す図である。 一実施形態に係るプロセシング装置を含む1つまたはそれ以上のオブジェクト姿勢検索装置が他のプロセシング装置と通信する動作を示す図である。
以下、実施形態を添付する図面を参照しながら詳細に説明する。しかし、本発明が実施形態によって制限されたり限定されることはない。各図面に提示された同一の参照符号は同一の部材を示す。
図1は、一実施形態に係るオブジェクト姿勢検索装置の構成を示す図である。図1を参照すると、オブジェクト姿勢検索装置は、深さ映像102からオブジェクト101のキージョイントデータを検索する。また、オブジェクト姿勢検索装置は、検索されたキージョイントデータに基づいてデータベース120を用いてオブジェクト101と類似度の最も高い最大類似姿勢を検索してもよい。したがって、オブジェクト姿勢検索装置は、オブジェクト101と最も類似の姿勢を検索する。以下、一実施形態に係るオブジェクト姿勢検索装置の各構成の動作に対して詳細に説明する。
一実施形態に係るオブジェクト姿勢検索装置は、キージョイント検索部110、データベース120及び姿勢検索部130を備える。キージョイント検索部110は、深さ映像102からオブジェクト101のキージョイントデータを検索する。オブジェクト101は、カメラからリアルタイム入力されるリアルタイム映像または予め記録された映像に含まれる人、物などを示す。キージョイントは、オブジェクト101のエンドパート(End Part、端部)、主要関節、連結部品などであってもよい。
データベース120は、オブジェクトと関連するオブジェクト姿勢を格納する。オブジェクト姿勢は、オブジェクトが一般的に取れる姿勢に関する情報を含んでもよい。オブジェクト姿勢は、オブジェクトに対して予め設定されたデフォルトキージョイントが1つも重ならない状態の姿勢を示す。デフォルトキージョイントは、図2を参照すると、オブジェクトの頭211、両手212、213及び両足214、215を含んでもよい。他の実施形態によって、オブジェクト姿勢は、オブジェクトが現実世界で頻繁に取る姿勢のうちの選定された姿勢であってもよく、ここで、オブジェクト姿勢検索装置のユーザは、選定された姿勢をオブジェクト姿勢に設定してもよい。
姿勢検索部130は、キージョイントデータに基づいてデータベース120を用いてオブジェクト101と類似度の最も高い最大類似姿勢を検索する。
姿勢検索部130で最大類似姿勢を検索する方法は、様々な方法で実施可能である。例えば、姿勢検索部130は、少なくとも1つ以上の候補姿勢を生成し、生成された候補姿勢を用いて最大類似姿勢を検索してもよい。
姿勢検索部130で少なくとも1つ以上の候補姿勢を生成する実施形態では、キージョイントデータに制約逆運動学(Constraint Inverse Kinematics(IK))を適用してオブジェクト101に対する候補姿勢を生成する方法と、キージョイントデータに基づいてデータベース120からオブジェクト101の候補姿勢を統計的に少なくとも1つ以上を抽出して生成する方法とが挙げられる。候補姿勢を生成する具体的な説明は後述することにする。
また、姿勢検索部130で生成された候補姿勢を用いて最大類似姿勢を検索する方法の実施形態として、データベース120を用いて候補姿勢と類似度の最も高い姿勢を最大類似姿勢として検索してもよく、他の実施形態として、加重値を用いて生成された候補姿勢から最大類似姿勢を検索してもよい。最大類似姿勢を検索する具体的な説明は後述することにする。
オブジェクト姿勢検索装置は、前処理部140をさらに備えてもよい。前処理部140は、カメラからリアルタイム入力されるリアルタイム映像または予め記録された映像からオブジェクトを抽出してもよい。
また、オブジェクト姿勢検索装置は、後処理部150をさらに備えてもよい。後処理部150は、姿勢検索部130によって検索された最大類似姿勢に対して姿勢ワーピング(Pose Warping)を行ってもよい。また、後処理部150は、姿勢ワーピングされた最大類似姿勢に対して高速サンプリングしてもよい。他の実施形態によって後処理部150は、オブジェクトに対する運動量を算出してもよい。
また、オブジェクト姿勢検索装置は、モデル基盤トラッキング部160をさらに備えてもよい。モデル基盤トラッキング部160は、データベースに格納されたオブジェクトと関連するモデルに基づいてオブジェクト姿勢をトラッキングしてもよい。
図2及び図3は、一実施形態に係るオブジェクト及びキージョイントを示す図である。図2及び図3を参照すると、オブジェクトが人210である場合、キージョイントは頭211、両手212、213及び両足214、215であってもよい。単なる一例として、頭211、両手212、213及び両足214、215のうち少なくとも1つの先端部分が人210の他の部分によって隠された、つまり遮られた場合、キージョイントは見える身体部分のうち身体の別のエンドパート(例えば膝、ヒジ、腰など)になる。例えば、第1姿勢320の場合、両手212、213と頭211が重なるため、キージョイントはヒジ321をさらに含んでもよい。また、第2姿勢330の場合、1つの手212と一足214が重なるため、キージョイントは膝331をさらに含んでもよい。また、第3姿勢340の場合、両手212、213が互いに重なり、両足214、215が互いに重なるため、キージョイントは尻341をさらに含んでもよい。また、第4姿勢350の場合、両手212、213が互いに重なり、両足214、215が互いに重なるため、キージョイントは膝351をさらに含んでもよい。
図2に示すように、キージョイントが重ならない単純な姿勢とは異なって、オブジェクトは図3に示すように、キージョイントが重なる複雑な姿勢も含む。例えば、第1姿勢320、第2姿勢330、第3姿勢340及び第4姿勢350などのように、手または足が1ヶ所に集まり、キージョイントが重なる複雑な姿勢の場合は、見える身体部分のうち従来におけるキージョイントと類似位置にある身体エンドパートを新しいキージョイントとして含んでもよい。
以下、図4ないし図14及び図16A、図16Bを参照して、一実施形態に係るオブジェクト姿勢検索装置の各構成の動作について詳細に説明する。
図4は、一実施形態に係るオブジェクト姿勢検索装置において、キージョイント検索部110の動作を示す図である。図4を参照すると、ステップ410は、オブジェクト401のエンドポイントを検索する動作を示す。ここで、ステップ410は、キージョイント検索部110で行われる。実施形態によってキージョイント検索部110は、3次元連結構成要素(3D Connected Component)を用いてオブジェクト401のエンドポイントを検索してもよい。エンドポイントは、オブジェクト401の身体の先部分(例えば、脳天、指先、つま先など)を意味し、また、エンドパートはエンドポイントに対応する身体の部位(例えば、頭、手、足など)を意味する。
ステップ412は、エンドポイントを検索する動作を繰り返し行うことによって、エンドポイントの検索率を向上させる動作を示す。ここで、ステップ412は、キージョイント検索部110で行われる。例えば、キージョイント検索部110がエンドポイントを検索する動作を1回行った場合の映像411を参照すると、頭先(脳天)、指先、つま先、股の他にも、わき腹、肩、膝などの部分もエンドポイントとして検索される。しかし、キージョイント検索部110がエンドポイントを検索する動作を繰り替えし行った場合の映像413を参照すると、頭の先端、指先、つま先、股の部分のみがエンドポイントとして検索されることから、検索率を向上することができる。
ステップ420はエンドポイントに対する検索が完了すると、オブジェクト401の深さ映像からエンドポイントに対応するエンドパートの映像を分割する動作を示す。ここで、ステップ420は、キージョイント検索部110で行われる。映像421は、深さ映像から分割されたエンドポイントに対応する頭、手、足、股のエンドパートに対する映像の実施形態を示す。
ステップ430は、分割された映像421に対して正規化作業を行う動作を示す。ここで、ステップ430は、キージョイント検索部110で行われる。エンドパートに対する分割された映像421は、同じエンドパートであってもオブジェクト401の姿勢に応じて、方向、角度、上下などが互いに異なることがある。例えば、同一の頭に対する映像でも、オブジェクト401がどのような方向を眺めていたかに応じて頭の方向が異なる。したがって、キージョイント検索部110は、エンドパートの特徴の抽出正確度を高めるために、分割された映像421を同じ姿勢に合わせる正規化作業を行う。
ステップ440は、正規化された映像431からエンドパートの特徴を抽出する動作を示す。ここで、ステップ440は、キージョイント検索部110で行われる。実施形態によって、キージョイント検索部110は、正規化された映像431からエンドパートに対するHaarlet、curvature、HoG(Histogram of Gradient)などの形状基盤の特徴を抽出してもよい。他の実施形態によってキージョイント検索部110は、正規化された映像431からエンドパートに対する3D Haarlet、Level set featureなどのような3次元特徴を抽出してもよい。
ステップ450は、キージョイントデータの検索の正確度を高めるために、抽出された特徴に基づいてエンドパートに対して分類作業を行う動作を示す。ここで、ステップ450は、キージョイント検索部110で行われる。すなわち、キージョイント検索部110は、抽出された特徴に基づいてエンドパートがいかなる部位に属するかを判断して分類してもよい。例えば、抽出された特徴が頭であると判断される場合、キージョイント検索部110はエンドパートを頭に分類してもよい。実施形態によってキージョイント検索部110は、学習されたAdaboost、Decision tree、Random forest classifierなどを用いてエンドパートに対する分類作業を行ってもよい。映像451は分類されたエンドパートの実施形態を示す。
ステップ460は、分類されたエンドパート451の3次元位置を算出してオブジェクト401のキージョイントデータを検索する動作を示す。ここで、ステップ460は、キージョイント検索部110で行われる。実施形態によってキージョイント検索部110は、central moment、spatial moment、mean−shift estimatorなどを用いて、分類されたエンドパート451の2次元位置または3次元位置を算出する。また、キージョイント検索部110は、Kalman estimationなどのようなフィルタを介して算出された3次元位置を補正してもよい。
図5及び図6は、キージョイント検索部110の他の実施形態を示す図である。図5及び図6を参照すると、キージョイント検索部は、オブジェクトに対する特徴を抽出してキージョイントデータを検索する。
図5を参照すると、ステップ510は、オブジェクト501の深さ映像からオブジェクト501の3次元シルエット特徴(3D Silhouette Feature)を抽出する動作を示す。ここで、ステップ510はキージョイント検索部110で行われ、また、後述するステップ520〜ステップ540もキージョイント検索部110で行われる。映像511は、オブジェクト501の3次元シルエット特徴の実施形態を示す。
ステップ520は、3次元シルエット特徴511に基づいてオブジェクト501の姿勢を分類する動作を示す。
ステップ530は、分類された姿勢に対応する姿勢クラスIDに基づいて、データベース120からオブジェクト501のキージョイントデータを検索する動作を示す。例えば、キージョイント検索部110は、データベース120に格納された複数の姿勢のうち、分類された姿勢に対応する姿勢クラスIDを有する姿勢を検索し、検索された姿勢からキージョイントデータを検索してもよい。実施形態によってキージョイント検索部110は、データベース120の他に別に実現される、姿勢クラスID及びキージョイント位置をマッチングして格納する第2データベースを用いてキージョイントデータを検索してもよい。
ステップ540は、分類された姿勢の3次元位置を算出してオブジェクト501のキージョイントデータを検索する動作を示す。したがって、上述したステップ510〜ステップ540を行うことによって、キージョイント検索部110はオブジェクト501に対するキージョイントデータを検索することができる。
図6を参照すると、ステップ610は、オブジェクト601の深さ映像からオブジェクト601の3次元レベルセット特徴を抽出する動作を示す。ここで、ステップ610はキージョイント検索部110で行われ、また、後述するステップ620〜ステップ640もキージョイント検索部110で行われる。映像611は、オブジェクト601に対する3次元レベルセット特徴の実施形態を示す。
ステップ620は、3次元レベルセット特徴611に基づいてオブジェクト601の姿勢を分類する動作を示す。
ステップ630は、分類された姿勢に対応する姿勢クラスIDに基づいて、データベース120からオブジェクト601のキージョイントデータを検索する動作を示す。例えば、キージョイント検索部110は、データベース120に格納された複数の姿勢のうち、分類された姿勢に対応する姿勢クラスIDを有する姿勢を検索し、検索された姿勢からキージョイントデータを検索してもよい。実施形態によってキージョイント検索部110は、データベース120の他に別に実現される、姿勢クラスID及びキージョイント位置をマッチングして格納する第2データベースを用いてキージョイントデータを検索してもよい。
ステップ640は、分類された姿勢の3次元位置を算出してオブジェクト601のキージョイントデータを検索する動作を示す。したがって、上述したステップ610〜ステップ640を行うことによって、キージョイント検索部110はオブジェクト601のキージョイントデータを検索することができる。
オブジェクト姿勢検索装置のキージョイント検索部110は、図5及び図6を参照して説明した3次元シルエット特徴及び3次元レベルセット特徴の他に、オブジェクトの深さ映像から3Dシルエット特徴を抽出することができる。
また、オブジェクト姿勢検索装置のキージョイント検索部110は、抽出された特徴に基づいてオブジェクト姿勢を分類する方法でtemplate matching、decision tree、neural network、random forestなどのアルゴリズムを用いてもよい。
図4〜図6を参照して説明したオブジェクト姿勢検索装置のキージョイント検索部は、前処理部で抽出されたオブジェクトを用いてオブジェクトのキージョイントデータを検索することができる。以下、図7及び図8を参照して、一実施形態に係るオブジェクト姿勢検索装置において前処理部の動作について詳細に説明する。
前処理部140は、より正確な姿勢を検出するためにキージョイント検索部110に入力される映像を先に加工する機能を行う。例えば、前処理部140は、背景と前景(オブジェクト)が共にある映像から前景(オブジェクト)のみを分離して出力してもよく、他の例として、映像ごとにそれぞれ異なるスケールを正規化して出力してもよい。前者の場合について図7を参照して説明し、後者の場合については図8を参照して説明する。
図7を参照すると、ステップ710は、カメラからリアルタイム入力されるリアルタイム映像または予め記録された映像(以下、「入力映像」という)702が入力される動作を示す。ここで、ステップ710は前処理部140で行われる。また、後述するステップ720及びステップ730も前処理部140で行われる。
ステップ720は、入力映像702から背景を学習する動作を示す。実施形態によって、前処理部140は背景を学習するために、入力映像702の一定フレーム数の深さシーケンスで平均背景深さマップを記録してもよい。また、前処理部140は、入力映像702のピクセルごとに深さ値がカメラに近いか否かを判断し、ピクセルの深さ値がカメラに近いと判断される場合、深さ値がカメラに近いと判断されるピクセルを前景ピクセルとして算出してもよい。また、前処理部140は、学習された背景をデータベース731に格納してもよい。映像732は学習された背景の実施形態を示す。
ステップ730は、学習された背景を用いて入力映像702から前景を区分するために、背景を除去(Background Subtraction)する動作を示す。すなわち、前処理部140は、学習された背景を用いて入力映像702から背景を除去し、前景のオブジェクト740を出力する。
図8を参照すると、ステップ810は、入力映像702から出力されたオブジェクト801のノイズを除去する動作を示す。ここで、ステップ810は、前処理部140で行われ、後述するステップ820及びステップ830も前処理部140で行われる。実施形態によって前処理部140は、Hole Fillingなどのノイズの除去作業を行ってオブジェクト801のノイズを除去してもよい。他の実施形態によって前処理部140は、カメラのFoV、障害物などにより切られたオブジェクト801身体の一部を復元してもよい。映像811は復元された深さ映像形状の一実施形態を示す。
ステップ820は、復元された映像811に対してスケール正規化を行う動作を示す。実施形態によって前処理部140は、基準比率sX、sYに合わせて復元された映像811に対してスケール正規化を行う。したがって、前処理部140をスケール正規化することによって、ユーザは人の身体比率、カメラからの距離に関わらず同じセンシング/認識性能を期待することができる。映像821は、スケール正規化が適用された映像の実施形態を示す。
ステップ830は、スケール正規化された映像821に対してローテーション正規化を行う動作を示す。実施形態によって、前処理部140は、スケール正規化された映像821のメイン軸をピクセルベクトル空間を対象としたPCA(Primary Component Analysis)などの適用によって主軸を算出し、基準軸に合わせて回転するローテーション正規化を行うことで、位置及び方向に関わらず同じセンシング/認識性能を期待することができる。映像831は、ローテーション正規化の適用された映像の実施形態を示す。実施形態によって映像831は、オブジェクト姿勢検索装置のキージョイント検索部110から入力されてもよい。
図9は、一実施形態に係るオブジェクト姿勢検索装置において、姿勢検索部の動作を示す図である。図9を参照すると、ステップ910は、キージョイントデータに基づいてオブジェクト901の候補姿勢を生成する動作を示す。ここで、ステップ910は、姿勢検索部130で行われる。後述するステップ920〜ステップ950も姿勢検索部130で行われる。実施形態によって姿勢検索部130は、2つ以上の候補姿勢を生成してもよい。
姿勢検索部130は、生成された候補姿勢から最大類似姿勢を検索する。例えば、姿勢検索部130は、生成された候補姿勢の姿勢自然性値を演算する過程により最大類似姿勢を検索してもよい。他の方法として、姿勢検索部130は、生成された候補姿勢の姿勢尤度値(Pose Likelihood Value)を演算する過程により最大類似姿勢を検索してもよい。更なる方法として、姿勢検索部130は、生成された候補姿勢に対する姿勢自然性値及び姿勢尤度値を演算し、演算された2種類の値を総合的に考慮して最大類似姿勢を検索してもよい。姿勢検索部130が姿勢尤度値を演算して最大類似姿勢を検索する動作についてはステップ920を参照して後述する。また、姿勢検索部130が姿勢自然性値を演算して最大類似姿勢を検索する動作についてはステップ930を参照して後述する。
姿勢検索部130が複数の候補姿勢を生成する場合、姿勢検索部130は、複数の候補姿勢を加重値和して最大類似姿勢を検索してもよい。ここで、加重値和して最大類似姿勢を検索する方法の実施形態として、(1)複数の候補姿勢のうち閾値以上となる候補姿勢を選別し、選別された候補姿勢を加重値和して最大類似姿勢を検索する方法、(2)複数の候補姿勢全てに対して基準値との差を演算し、演算された差を加重値和して最大類似姿勢を検索する方法などが挙げられる。
ステップ920は、生成された候補姿勢に対する姿勢尤度値を演算する動作を示す。実施形態によって、姿勢検索部130は、演算された姿勢尤度値が最も高い候補姿勢を最大類似姿勢として検索する。姿勢検索部130は、下記の数式(1)を用いて姿勢尤度値を演算してもよい。
ここで、C:生成された候補ポーズのジョイント位置の集合、
D:入力映像で候補ポーズのジョイント位置の深さ値の集合、
L:姿勢尤度値
数式(1)を参考すると、C及びD間の差が小さいほど姿勢尤度値Lは1に近く、差が大きいほど0に近い値に演算される。
ステップ940は、データベース930に基づいて候補姿勢の姿勢自然性値を演算する動作を示す。実施形態によってデータベース930は、図1に示すデータベース120と同じデータベースであってもよい。姿勢検索部130は、各候補姿勢Cの確率値をデータベース930を用いて演算してもよく、このような確率値を姿勢自然性値と見なし得る。候補姿勢の確率値算出に用いられるデータベース930は学習された統計モデルを格納してもよく、特定姿勢群の統計モデルが集まって数十〜数百個以上の姿勢群の統計モデルを格納してもよい。
データベース930に格納された統計モデルは、一例として、因子分析器(Factor Analyzer)であってもよく、この場合に数式(2)のようにモデリングされる。
q:姿勢の実際のジョイント値を有するD次元のベクトル
L:特定姿勢群内の代表姿勢を格納しているDxd次元のベクトル(例えば、特定姿勢群内の代表姿勢が10種類であり、各代表姿勢の実際ジョイント値が60個である場合を仮定すると、Dは60、dは10となる)
s:Factor Analyzerのhidden factorとして、学習によって決定されるd次元のベクトルを示し、平均がゼロのガウス分布N(0、I)と仮定される)
n:ガウス確率変数としてノイズを意味し、ガウス分布N(μ、ψ)と仮定される)
数式(2)にガウス分布モデルを適用すると、数式(3)のように表現される。
p(q):姿勢の確率値(姿勢自然性値)
q:姿勢の実際のジョイント値を有するD次元のベクトル
L:姿勢群内の代表姿勢を格納しているDxd次元のベクトル
μ:モデリングしたnの平均ベクトル
ψ:モデリングしたnの分散行列
Factor Analyzerとして非線形的な分布を有するオブジェクト姿勢を表現することが難しい場合、他の実施形態として、数式(4)のように数個の線形モデルの加重値和として構成されたモデルのMFA(Mixture of Factor Analyzers)を用いることができる。
K:Factor Analyzerの個数
:特定姿勢群kの加重値
p(q):姿勢の確率値(姿勢自然性値)
q:姿勢の実際のジョイント値を有するD次元のベクトル
:特定姿勢群kの代表姿勢を格納しているDxd次元のベクトル
μ:特定姿勢群kのモデリングしたnの平均ベクトル
ψ:モデリングしたnの分散行列
前述したように、データベース930に格納された統計モデルは、学習された統計モデルであってもよい。MFA統計モデルの場合、全ての姿勢情報を入力にして、期待値極大化方法によってL、s、w、μ、ψなどを学習し、このように学習された結果がデータベース930に更新されてもよい。
このようなMFA統計モデルが格納されたデータベースを用いる場合、各候補姿勢Cを数式(4)のqに入力して候補姿勢の確率値(姿勢自然性値)p(C)を演算してもよく、実施形態によって姿勢検索部130は、演算された確率値(姿勢自然性値)が最も高い候補姿勢Cを最大類似姿勢として検索してもよい。
他の実施形態によって姿勢検索部130は、候補姿勢に対する姿勢尤度値を演算し、また、データベース930に基づいて候補姿勢に対する姿勢自然性値を演算した後、演算された姿勢尤度値及び姿勢自然性値を総合的に判断して最大類似姿勢を検索してもよい。姿勢検索部130が姿勢尤度値及び姿勢自然性値を総合的に判断する方法の例として、2つの値の平均が最も高い候補姿勢を最大類似姿勢として検索する方法、2つの値の加重値を別にして演算した後、演算値が最も高い候補姿勢を最大類似姿勢として検索する方法などが挙げられる。また、その他にも、姿勢検索部130が姿勢尤度値及び姿勢自然性値を総合的に判断して最大類似姿勢を検索する方法は様々な方法により変更して実施することができる。
ステップ950は、演算された最大類似姿勢に基づいてオブジェクトスケルトンを算出する動作を示す。オブジェクトスケルトンは、オブジェクトの形状をスケルトン形態に表したものである。オブジェクトの形状をスケルトン形態に表すことによって、オブジェクト姿勢及び動作を効果的に制御することができる。
以下、図10及び図11を参照して一実施形態に係るオブジェクトスケルトンについて説明する。図10及び図11を参照すると、姿勢検索部130は、複数のジョイント1001ないし1020を含むスケルトン形態のオブジェクトスケルトンを算出することができる。
実施形態によってオブジェクトスケルトンは、Head1001、Neck1002、L_HAND_EFFECTOR1003、L_FORCE_ARM1004、L_UPPER_ARM1005、L_CLAVICLE1006、R_CLAVICLE1007、R_UPPER_ARM1008、R_FORCE_ARM1009、R_HAND_EFFECTOR1010、SPINE31011、SPINE21012、SPINE11013、L_THIGH1014、L_CALF1015、L_FOOT_EFFECTOR1016、ROOT & Pelvis1017、R_THIGH1018、R_CALF1019及びR_FOOT_EFFECTOR1020のジョイントを含んでもよい。
図11を参照すると、姿勢検索部130は、オブジェクトスケルトン及びオブジェクト形状を合成した映像を提供してもよい。
図12は、一実施形態に係るオブジェクト姿勢検索装置において、後処理部の動作を示す図である。図12を参照すると、ステップ1210は、姿勢検索部130で検索されたスケルトン形態の最大類似姿勢1201に対して姿勢整列(Pose alignment)を行う動作を示す。ここで、ステップ1210は後処理部150で行われ、後述するステップ1220及びステップ1230も後処理部150で行われる。ステップ1210では、オブジェクトスケルトン1201の現在姿勢と以前姿勢との間のルート位置(Root Position)及び方向を一致させ得る。
ステップ1220は、姿勢整列された現在姿勢と以前姿勢との間の補間により中間姿勢を生成する姿勢ワーピング(Pose Warping)を行う。実施形態によって後処理部150は、時間情報を考慮した以前フレームの姿勢及び現在フレームで空間情報が考慮された様々に生成された姿勢を考慮し、姿勢ワーピングを行ってもよい。他の実施形態によって後処理部150は、以前フレームで最終的に推定されたオブジェクトスケルトンと現在フレームで最終的に推定されたオブジェクトスケルトンとの信頼度値を参考し、最終的なオブジェクトスケルトンをブレンディング(調整)する。後処理部150は、ブレンディングを行うことでオブジェクト姿勢ともっと類似する姿勢を検出することができ、さらに、高速でオブジェクト姿勢を類推することができる。
ステップ1230は、姿勢ワーピングされた現在姿勢と以前姿勢との間に線形/非線形補間によってスムーズで自然な移行を提供し、センシング/認識されたスケルトン間の中間姿勢を高速サンプリングする動作を示す。したがって、一実施形態に係るオブジェクト姿勢検索装置は、映像入力速度よりもはやい高速の姿勢を出力することができる。
後処理部150は、オブジェクトに対する運動量を算出してもよい。算出した運動量は、例えば、ユーザのカロリー消耗量、エネルギ消耗量などを演算するために活用されてもよい。後処理部150は、オブジェクトの深さ映像の複数フレームそれぞれに対して検索された複数の最大類似姿勢の間の距離の和をオブジェクトの運動量として演算してもよい。実施形態によって後処理部150は、現在フレームに対する複数のキージョイント及び以前フレームに対する複数のキージョイントに対して、同じ位置にあるキージョイント間の距離をそれぞれ演算し、演算されたキージョイント間の距離のうち、閾値以上となる距離を和してオブジェクトの運動量を演算してもよい。詳しく説明すると、後処理部150は、数式(5)及び数式(6)を用いてオブジェクトに対する運動量を演算してもよい。
ここで、D:距離閾値、
I(x):リコール関数(オブジェクトが動いたか否かを判断する関数として、D以上動くと1をリターンする)、
E:最終推定された運動量(全てのジョイントnに対応する全ての入力されたフレームmを累積させて値を演算)、
:以前フレームのスケルトン
:現在フレームのスケルトン
図13は、一実施形態に係るオブジェクト姿勢検索装置において、モデル基盤トラッキング部の動作を示す図である。図13を参照すると、ステップ1310は、オブジェクト1301の深さ映像と格納された以前フレーム1302の深さ映像と間の差を演算する動作を示す。ここで、ステップ1310は、モデル基盤トラッキング部160で行われ、また、後述するステップ1320〜ステップ1340もモデル基盤トラッキング部160で行われる。
ステップ1320は、演算された差を用いて3次元モデル1321をフィッティングする動作を示す。また、ステップ1330は、入力されたオブジェクト1301を以前映像にデータベースに格納する動作を示す。また、ステップ1340は、オブジェクト1301のオブジェクト姿勢を算出する動作を示す。オブジェクトスケルトン1350は、算出されたオブジェクト姿勢の実施形態を示す。オブジェクト姿勢検索装置は、上述したステップ1310〜ステップ1340の動作を追加的に行うことによって、オブジェクトの最大類似姿勢の検索効率を高めることができる。
実施形態によって後処理部150は、モデル基盤トラッキング部160から推定されたオブジェクトスケルトン1350及び姿勢検索部130で検索された最大類似姿勢を比較し、推定正確度が高いオブジェクトスケルトンに加重値を付与してもよい。したがって、後処理部150は、オブジェクトスケルトン1350及び姿勢検索部130で検索された最大類似姿勢を1つのオブジェクトスケルトンにブレンディングしてもよい。また、後処理部150は、加重値を付与することでオブジェクトスケルトン1350及び姿勢検索部130で検索された最大類似姿勢のうち加重値の付与された姿勢を選択し、最終的に推定されたオブジェクトスケルトンに出力してもよい。
図14は、一実施形態に係るオブジェクト姿勢検索装置において、姿勢検索部130が加重値を用いて最大類似姿勢を検索する動作を示す図である。図14を参照すると、ステップ1401は、キージョイントデータが適用された姿勢1410と候補姿勢1420との間の差を演算する動作を示す。ここで、ステップ1401は姿勢検索部130で行われる。候補姿勢1420は2以上であってもよい。
また、姿勢検索部130は、演算された差に基づいて候補姿勢1420の加重値wを演算する。実施形態によって姿勢検索部130は、数式(7)を用いて加重値を演算してもよい。
ここで、P:キージョイントデータが適用された姿勢1410、
:候補姿勢1420
ステップ1402は、演算された加重値に基づいて候補姿勢1420を加重値和する動作を示す。ここで、ステップ1402は姿勢検索部130で行われる。実施形態によって姿勢検索部130は、数式(8)を用いて加重値和し生成された姿勢1430を演算してもよい。
ここで、P:候補姿勢1420
:加重値を和して生成された姿勢1430
姿勢検索部130は、加重値和して生成された姿勢1430を最大類似姿勢として検索することができる。
図15は、一実施形態に係るオブジェクト姿勢検索方法を示すフローチャートである。図15を参照すると、一実施形態に係るオブジェクト姿勢検索方法は、オブジェクトの深さ映像からオブジェクトのキージョイントのキージョイントデータを検索する(1510)。オブジェクトは、カメラからリアルタイム入力されるリアルタイム映像または予め記録された映像に含まれる人、物などを示してもよい。キージョイントは、オブジェクトのエンドパート、主要関節、連結部品などであってもよい。
一実施形態に係るオブジェクト姿勢検索方法は、キージョイントデータに基づいてデータベースを用いてオブジェクトと類似度の最も高い最大類似姿勢を検索する(1520)。一実施形態に係るデータベースはオブジェクトと関連するオブジェクト姿勢を格納してもよく、オブジェクト姿勢はオブジェクトが一般的に取れる姿勢に関する情報を含んでもよい。
オブジェクト姿勢検索方法が最大類似姿勢を検索する方法は、様々な方法により変更して実施してもよい。例えば、オブジェクト姿勢検索方法は、少なくとも1つ以上の候補姿勢を生成し、生成された候補姿勢を用いて最大類似姿勢を検索してもよい。
オブジェクト姿勢検索方法が少なくとも1つ以上の候補姿勢を生成する実施形態では、キージョイントデータに制約IKを適用してオブジェクトに対する候補姿勢を生成する方法と、キージョイントデータに基づいてデータベースからオブジェクトの候補姿勢を統計的に少なくとも1つ以上を抽出して生成する方法とが挙げられる。また、オブジェクト姿勢検索方法が生成された候補姿勢を用いて最大類似姿勢を検索する方法の実施形態として、データベースから候補姿勢と類似度の最も高い姿勢を最大類似姿勢として検索してもよく、他の実施形態として、加重値を用いて生成された候補姿勢から最大類似姿勢を検索してもよい。
詳細なオブジェクト姿勢検索方法は前述したため以下は省略する。
図16A及び図16Bは、一実施形態に係るプロセシング装置を含む1つまたはそれ以上のオブジェクト姿勢検索装置が他のプロセシング装置と通信する動作を示す図である。
図16Aは、オブジェクト姿勢検索装置2100、1つまたはそれ以上のネットワーク2140、潜在的に存在する他のオブジェクト姿勢測定装置2150を示す。オブジェクト姿勢検索装置2100はプロセシング装置またはシステム2120を含み、潜在的にユーザインターフェース2130を含んでもよい。これと類似に、オブジェクト姿勢測定装置2150はプロセシング装置またはシステム2160を含み、潜在的にユーザインターフェース2170を含んでもよい。
図16Bは、一実施形態に係るオブジェクト姿勢測定装置2100及びオブジェクト姿勢測定装置2150のうち少なくとも1つを示す端末2200を示す。端末2200は、1つまたはそれ以上のカメラのような映像入力装置2260と結合されたエンコーダ2205、デコーダ2250、ディスプレイ2230とユーザ入出力インターフェース2235のようなユーザインターフェース2130、中央処理ユニット2210のような1つまたはそれ以上のプロセシング装置を含む。中央処理ユニット2210は、エンコーダ2205及びデコーダ2250と結合される。中央処理ユニット2210は、エンコーダ2205とデコーダ2250の動作を制御し、端末2200の他のコンポーネントとエンコーダ2205/デコーダ2250間の相互作用を仲裁する。また、映像入力装置2260は、中央処理ユニット2210と直接結合される。また、ディスプレイ2230は、実施形態により予測されたオブジェクト姿勢を表示してもよい。示されるエレメント2240は、1つまたはそれ以上の無線及び/または有線通信システムを示す。端末2200は、ホームエンターテイメントやゲーム機器としてデスクトップコンピュータ、ラップトップコンピュータ、セットトップ装置であってもよく、または、モバイルフォン、スマートフォン、タブレットコンピュータ、パーソナルデジタルアシスタント、ノート型パソコンなどとして移動機器であってもよい。中央処理ユニット2210は、モバイルフォン、スマートフォン、タブレットコンピュータ、または、パーソナルデジタルアシスタントなど、その他の機能と共に実施形態に係る姿勢検索機能を内蔵してもよい。したがって、実施形態に係る端末2200は、具体的な態様と特徴を異にしながら様々なアプリケーションと共に姿勢検索機能を内蔵することができる。端末2200に内蔵された姿勢検索機能は他のアプリケーションと相互作用してもよい。
先に説明した実施形態は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などのうちの1つまたはその組合せを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれてもよい。
上述したように、本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。
101:オブジェクト
102:深さ映像
110:キージョイント検索部
120:データベース
130:姿勢検索部
140:前処理部
150:後処理部
160:モデル基盤トラッキング部

Claims (27)

  1. 映像を分析することによって、前記映像内オブジェクトのキージョイントに対するキージョイントデータを検索するキージョイント検索部と、
    1つまたはそれ以上のオブジェクトのポテンシャル姿勢を示すオブジェクト姿勢を格納するデータベースと、
    前記検索されたキージョイントデータに基づいて、前記オブジェクト姿勢のうち前記オブジェクトの実際姿勢と類似度が最も高い最大類似姿勢を検索する姿勢検索部と、
    を備えることを特徴とするオブジェクト姿勢検索装置。
  2. 前記映像は、前記オブジェクトの深さ映像であることを特徴とする請求項1に記載のオブジェクト姿勢検索装置。
  3. 前記キージョイント検索部は、
    前記オブジェクトのエンドポイントを検索し、
    前記映像から前記エンドポイントの特徴を抽出し、
    前記抽出された特徴に基づいて前記エンドポイントに対して分類作業を行い、
    前記分類されたエンドポイントの位置を算出して前記キージョイントデータを検索することを特徴とする請求項1又は2に記載のオブジェクト姿勢検索装置。
  4. 前記キージョイント検索部は、
    前記映像から前記エンドポイントに対応するエンドパートに対する映像を分割し、
    前記分割された映像に対して正規化作業を行い、
    前記正規化された映像から前記エンドパートの特徴を抽出し、
    前記抽出された特徴に基づいて前記エンドパートに対して分類作業を行い、
    前記分類されたエンドパートの位置を算出して前記キージョイントデータを検索することを特徴とする請求項3に記載のオブジェクト姿勢検索装置。
  5. 前記キージョイント検索部は、前記映像から前記オブジェクトの特徴を抽出し、前記抽出された特徴に基づいて特定姿勢にある前記オブジェクト姿勢を分類し、前記分類された姿勢に基づいて前記データベースから前記キージョイントデータを検索することを特徴とする請求項1又は4に記載のオブジェクト姿勢検索装置。
  6. 前記キージョイント検索部は、前記映像から前記オブジェクトの3次元シルエット特徴又は3次元レベルセット特徴を抽出し、特定姿勢クラスIDに対応する前記抽出された3次元シルエット特徴又は3次元レベルセット特徴に基づいて前記オブジェクトの前記姿勢を分類し、前記姿勢クラスIDに基づいて前記データベースから前記キージョイントデータを検索することを特徴とする請求項1又は5に記載のオブジェクト姿勢検索装置。
  7. 前記姿勢検索部は、制約逆運動学を前記キージョイントデータに適用することによって、前記オブジェクトのための少なくとも1つの候補姿勢を生成することを特徴とする請求項1、3又は5に記載のオブジェクト姿勢検索装置。
  8. 前記姿勢検索部は、前記検索されたキージョイントデータが適用される姿勢と前記少なくとも1つの候補姿勢との間の差を算出し、前記算出された差に基づいて前記少なくとも1つの候補姿勢の加重値因子を算出し、前記算出された加重値因子に基づいて前記少なくとも1つの候補姿勢の加重値和を取得し、前記加重値和により生成された姿勢を前記最大類似姿勢として検索することを特徴とする請求項7に記載のオブジェクト姿勢検索装置。
  9. 前記オブジェクトの運動量を算出する後処理部をさらに備え、
    前記後処理部は、前記映像の複数のフレームそれぞれに対して検索された複数の定められた最大類似姿勢間の距離の和を前記運動量として算出することを特徴とする請求項1、3又は5に記載のオブジェクト姿勢検索装置。
  10. 前記後処理部は、現在フレームの複数のキージョイントと以前フレームの複数のキージョイントとのうち同じ位置にあるキージョイント間の各距離を算出し、前記算出された距離のうち閾値よりも大きいか同じ距離を合算することによって前記運動量を算出することを特徴とする請求項9に記載のオブジェクト姿勢検索装置。
  11. 前記最大類似姿勢に基づいて前記オブジェクトと関連して算出されたオブジェクトスケルトンを表示するディスプレイをさらに含むことを特徴とする請求項3又は5に記載のオブジェクト姿勢検索装置。
  12. 前記姿勢検索部は、
    前記キージョイントデータに基づいて前記オブジェクトに対する少なくとも1つの候補姿勢を生成し、
    前記データベースに基づいて前記少なくとも1つの候補姿勢に対する姿勢自然性値を演算し、
    前記姿勢自然性値が最も高い候補姿勢を前記最大類似姿勢として検索することを特徴とする請求項1に記載のオブジェクト姿勢検索装置。
  13. 前記姿勢検索部は、前記最大類似姿勢に基づいて前記オブジェクトに対するオブジェクトスケルトンを算出することを特徴とする請求項1に記載のオブジェクト姿勢検索装置。
  14. 姿勢をとる利用者の映像を前記映像にキャプチャーするカメラをさらに備えることを特徴とする請求項1に記載のオブジェクト姿勢検索装置。
  15. 映像内オブジェクトのキージョイントに対するキージョイントデータを検索するために前記映像を分析するステップと、
    前記検索されたキージョイントデータに基づいて、1つまたはそれ以上のオブジェクトのポテンシャル姿勢を示すオブジェクト姿勢を格納するデータベースから前記オブジェクトの実際姿勢と類似度が最も高い最大類似姿勢を検索するステップと、
    を含むことを特徴とするオブジェクト姿勢検索方法。
  16. 前記映像は、前記オブジェクトの深さ映像であることを特徴とする請求項15に記載のオブジェクト姿勢検索方法。
  17. 前記映像を分析するステップは、
    前記オブジェクトのエンドポイントを検索するステップと、
    前記映像から前記エンドポイントの特徴を抽出するステップと、
    前記抽出された特徴に基づいて前記エンドポイントに対して分類作業を行うステップと、
    前記分類されたエンドポイントの3次元位置を算出して前記キージョイントデータを検索するステップと、
    を含むことを特徴とする請求項15に記載のオブジェクト姿勢検索方法。
  18. 前記映像を分析するステップは、
    前記映像から前記エンドポイントに対応するエンドパートに対する映像を分割するステップと、
    前記分割された映像に対して正規化作業を行うステップと、
    前記正規化された映像から前記エンドパートの特徴を抽出するステップと、
    前記抽出された特徴に基づいて前記エンドパートに対して分類作業を行うステップと、
    前記分類されたエンドパートの位置を算出して前記キージョイントデータを検索するステップと、
    を含むことを特徴とする請求項17に記載のオブジェクト姿勢検索方法。
  19. 前記映像を分析するステップは、
    前記映像から前記オブジェクトの特徴を抽出するステップと、
    前記抽出された特徴に基づいて特定姿勢にある前記オブジェクト姿勢を分類するステップと、
    前記分類された姿勢に基づいて前記データベースから前記キージョイントデータを検索するステップと、
    を含むことを特徴とする請求項18に記載のオブジェクト姿勢検索方法。
  20. 前記映像を分析するステップは、
    前記映像から前記オブジェクトの3次元シルエット特徴又は3次元レベルセット特徴を抽出するステップと、
    特定姿勢クラスIDに対応する前記抽出された3次元シルエット特徴又は3次元レベルセット特徴に基づいて前記オブジェクトの前記姿勢を分類するステップと、
    前記姿勢クラスIDに基づいて前記データベースから前記キージョイントデータを検索するステップと、
    を含むことを特徴とする請求項19に記載のオブジェクト姿勢検索方法。
  21. 前記最大類似姿勢を検索するステップは、制約逆運動学を前記キージョイントデータに適用することによって、前記オブジェクトのための少なくとも1つの候補姿勢を生成するステップを含むことを特徴とする請求項17又は19に記載のオブジェクト姿勢検索方法。
  22. 前記最大類似姿勢を検索するステップは、
    前記検索されたキージョイントデータが適用される姿勢と前記少なくとも1つの候補姿勢との間の差を算出するステップと、
    前記算出された差に基づいて前記少なくとも1つの候補姿勢の加重値因子を算出するステップと、
    前記算出された加重値因子に基づいて前記少なくとも1つの候補姿勢の加重値和を取得するステップと、
    前記加重値和により生成された姿勢を前記最大類似姿勢として検索するステップと、
    を含むことを特徴とする請求項21に記載のオブジェクト姿勢検索方法。
  23. 前記映像の複数のフレームそれぞれに対して検索された複数の定められた最大類似姿勢の間の距離の和に基づいて運動量を算出するステップをさらに含むことを特徴とする請求項17又は19に記載のオブジェクト姿勢検索方法。
  24. 前記運動量を算出するステップは、
    現在フレームの複数のキージョイントのうち、同じ姿勢内のキージョイントと以前フレームの複数のキージョイントと間の距離それぞれを算出するステップと、
    前記算出された距離のうち、閾値よりも大きいか同じ距離を合算することによって前記運動量を算出するステップと、
    を含むことを特徴とする請求項23に記載のオブジェクト姿勢検索方法。
  25. 前記最大類似姿勢に基づいて前記オブジェクトと関連するオブジェクトスケルトンを算出するステップと、
    前記オブジェクトスケルトンをディスプレイに表示するステップと、
    をさらに含むことを特徴とする請求項17又は19に記載のオブジェクト姿勢検索方法。
  26. 前記最大類似姿勢を検索するステップは、
    前記キージョイントデータに基づいて前記オブジェクトに対する少なくとも1つの候補姿勢を生成するステップと、
    前記データベースに基づいて前記少なくとも1つの候補姿勢に対する姿勢自然性値を演算するステップと、
    前記姿勢自然性値が最も高い候補姿勢を前記最大類似姿勢として検索するステップと、
    を含むことを特徴とする請求項15に記載のオブジェクト姿勢検索方法。
  27. 請求項15乃至26のいずれか一項に記載の方法を実行するプログラムを記録したコンピュータで読み出し可能な記録媒体。
JP2014522730A 2011-07-27 2012-06-21 オブジェクト姿勢検索装置及び方法 Active JP6025845B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2011-0074546 2011-07-27
KR1020110074546A KR101815975B1 (ko) 2011-07-27 2011-07-27 객체 자세 검색 장치 및 방법
PCT/KR2012/004909 WO2013015528A1 (en) 2011-07-27 2012-06-21 Apparatus, method, and medium detecting object pose

Publications (2)

Publication Number Publication Date
JP2014522035A true JP2014522035A (ja) 2014-08-28
JP6025845B2 JP6025845B2 (ja) 2016-11-16

Family

ID=47597273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014522730A Active JP6025845B2 (ja) 2011-07-27 2012-06-21 オブジェクト姿勢検索装置及び方法

Country Status (6)

Country Link
US (1) US9098740B2 (ja)
EP (1) EP2737418A4 (ja)
JP (1) JP6025845B2 (ja)
KR (1) KR101815975B1 (ja)
CN (1) CN103718175B (ja)
WO (1) WO2013015528A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017525029A (ja) * 2014-06-27 2017-08-31 華為技術有限公司Huawei Technologies Co.,Ltd. ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末
KR20190128500A (ko) * 2018-05-08 2019-11-18 한국전자통신연구원 영상 감시 시스템에서의 실시간 쓰레기 투기 행위 탐지 방법 및 장치
JP2021507434A (ja) * 2017-12-13 2021-02-22 ヒューマニシング オートノミー リミテッド 歩行者の意図を予測するためのシステムおよび方法
WO2021224994A1 (ja) * 2020-05-08 2021-11-11 日本電気株式会社 画像選択装置、画像選択方法、及びプログラム
WO2022003854A1 (ja) * 2020-07-01 2022-01-06 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム
WO2023089690A1 (ja) * 2021-11-17 2023-05-25 日本電気株式会社 検索装置、検索方法、およびプログラム
JP7499346B2 (ja) 2020-03-20 2024-06-13 ヒンジ ヘルス, インコーポレイテッド 逆運動学に基づいた関節の回転の推測

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9104984B2 (en) * 2008-11-13 2015-08-11 Sony Corporation Method and device relating to information management
US20140267611A1 (en) * 2013-03-14 2014-09-18 Microsoft Corporation Runtime engine for analyzing user motion in 3d images
BR112015023898A2 (pt) * 2013-03-21 2017-07-18 Koninklijke Philips Nv aparelho de processamento de imagens, método de processamento de imagens, elemento de programa de computador para controlar um aparelho e mídia legível por computador
CN103714340B (zh) * 2014-01-09 2017-01-25 西安电子科技大学 基于图像分块的自适应特征提取方法
CN103745218B (zh) * 2014-01-26 2017-02-15 清华大学 一种深度图像中的姿势识别方法及装置
US9087176B1 (en) * 2014-03-06 2015-07-21 Kla-Tencor Corporation Statistical overlay error prediction for feed forward and feedback correction of overlay errors, root cause analysis and process control
KR102256057B1 (ko) * 2014-03-17 2021-05-25 에스케이플래닛 주식회사 객체의 자세 기반 검색 결과 제공 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체
US10576603B2 (en) * 2014-04-22 2020-03-03 Kla-Tencor Corporation Patterned wafer geometry measurements for semiconductor process controls
US9552070B2 (en) * 2014-09-23 2017-01-24 Microsoft Technology Licensing, Llc Tracking hand/body pose
US9878447B2 (en) * 2015-04-10 2018-01-30 Microsoft Technology Licensing, Llc Automated collection and labeling of object data
CN105631919B (zh) * 2015-07-09 2019-01-29 腾讯科技(深圳)有限公司 一种数据处理方法和装置
US20170076629A1 (en) * 2015-09-14 2017-03-16 Electronics And Telecommunications Research Institute Apparatus and method for supporting choreography
CN105513136B (zh) * 2015-11-30 2018-05-04 东北大学 一种基于水平集中心聚类的3d角色模型骨架提取方法
WO2017092615A1 (zh) * 2015-11-30 2017-06-08 上海联影医疗科技有限公司 一种计算机辅助诊断系统及方法
KR102565485B1 (ko) * 2016-01-11 2023-08-14 한국전자통신연구원 도시 거리 검색 서비스 제공 서버 및 방법
EP3529009A4 (en) * 2016-10-20 2020-06-24 Robo-Team Home Ltd. HUMAN TRACKING ROBOT
CN108089699B (zh) * 2016-11-21 2020-10-30 宏达国际电子股份有限公司 人体姿势侦测系统、服装以及方法
US10163033B2 (en) * 2016-12-13 2018-12-25 Caterpillar Inc. Vehicle classification and vehicle pose estimation
US20230107110A1 (en) * 2017-04-10 2023-04-06 Eys3D Microelectronics, Co. Depth processing system and operational method thereof
JP6860066B2 (ja) * 2017-05-12 2021-04-14 富士通株式会社 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム
EP3624052A4 (en) * 2017-05-12 2020-03-18 Fujitsu Limited DISTANCE IMAGE PROCESSING DEVICE, DISTANCE IMAGE PROCESSING SYSTEM, DISTANCE IMAGE PROCESSING METHOD AND DISTANCE IMAGE PROCESSING PROGRAM
KR101963556B1 (ko) 2017-07-04 2019-04-01 주식회사 알고리고 인공 신경망을 이용한 시계열적 자세 예측 장치
CN109298778B (zh) * 2017-07-24 2021-02-23 宏达国际电子股份有限公司 追踪系统及其方法
WO2019082376A1 (ja) * 2017-10-27 2019-05-02 株式会社アシックス 動作状態評価システム、動作状態評価装置、動作状態評価サーバ、動作状態評価方法、および動作状態評価プログラム
US10460512B2 (en) * 2017-11-07 2019-10-29 Microsoft Technology Licensing, Llc 3D skeletonization using truncated epipolar lines
WO2019108250A1 (en) * 2017-12-03 2019-06-06 Facebook, Inc. Optimizations for dynamic object instance detection, segmentation, and structure mapping
US10586350B2 (en) 2017-12-03 2020-03-10 Facebook, Inc. Optimizations for dynamic object instance detection, segmentation, and structure mapping
US10733431B2 (en) 2017-12-03 2020-08-04 Facebook, Inc. Systems and methods for optimizing pose estimation
US10796452B2 (en) 2017-12-03 2020-10-06 Facebook, Inc. Optimizations for structure mapping and up-sampling
US11127189B2 (en) * 2018-02-23 2021-09-21 Canon Kabushiki Kaisha 3D skeleton reconstruction from images using volumic probability data
JP2020014051A (ja) * 2018-07-13 2020-01-23 ローランド株式会社 情報処理方法、及び情報処理装置
CN109902548B (zh) * 2018-07-20 2022-05-31 华为技术有限公司 一种对象属性识别方法、装置、计算设备及系统
US11335027B2 (en) 2018-09-28 2022-05-17 Hewlett-Packard Development Company, L.P. Generating spatial gradient maps for a person in an image
WO2020084667A1 (ja) * 2018-10-22 2020-04-30 富士通株式会社 認識方法、認識プログラム、認識装置、学習方法、学習プログラムおよび学習装置
KR102031983B1 (ko) 2019-03-22 2019-10-14 주식회사 알고리고 복수의 lstm을 이용한 시계열적 자세 예측 장치
KR102239953B1 (ko) * 2019-05-09 2021-04-14 (주)도넛시스템엘에스아이 운동칼로리 산출 서비스 방법
US11803585B2 (en) * 2019-09-27 2023-10-31 Boe Technology Group Co., Ltd. Method and apparatus for searching for an image and related storage medium
WO2021084677A1 (ja) * 2019-10-31 2021-05-06 日本電気株式会社 画像処理装置、画像処理方法及び画像処理プログラムが格納された非一時的なコンピュータ可読媒体
KR102357117B1 (ko) * 2020-01-09 2022-01-27 주식회사 엘지유플러스 다중 영상 재생 방법 및 장치
KR20210106763A (ko) * 2020-02-21 2021-08-31 삼성전자주식회사 객체의 움직임을 추적하는 전자 장치 및 방법
CN111695520A (zh) * 2020-06-13 2020-09-22 德沃康科技集团有限公司 一种高精度的儿童坐姿检测与矫正方法及装置
CN112200074A (zh) * 2020-10-09 2021-01-08 广州健康易智能科技有限公司 一种姿态对比的方法和终端
KR102416825B1 (ko) * 2020-10-14 2022-07-06 (주)유디피 스켈레톤 분석을 이용한 객체 추적 장치 및 방법
KR102531287B1 (ko) * 2020-12-23 2023-05-12 한국과학기술연구원 자세 인식 기반의 영상 초상권 보호 방법 및 장치
US11593944B2 (en) * 2021-01-06 2023-02-28 Tencent America LLC System and method for instance segmentation in pathological images using object-guided framework
US20240071084A1 (en) * 2021-01-15 2024-02-29 Hewlett-Packard Development Company, L.P. Determination of person state relative to stationary object
WO2022188056A1 (zh) * 2021-03-10 2022-09-15 深圳市大疆创新科技有限公司 图像处理方法、装置及存储介质
CN113052083B (zh) * 2021-03-26 2024-06-11 陕西大步实业有限公司 一种多近邻图约束矩阵分解的动作行为分割方法
KR102369152B1 (ko) * 2021-11-04 2022-03-02 아이픽셀 주식회사 인공지능을 이용한 실시간 자세 동작 인식 시스템 및 인식 방법
CN114821006B (zh) * 2022-06-23 2022-09-20 盾钰(上海)互联网科技有限公司 交互式间接推理的孪生体态检测方法及系统
KR102706055B1 (ko) * 2024-04-09 2024-09-11 국립한국해양대학교산학협력단 라이다 장착 스마트 기기를 활용한 3차원 인체 골격 정보 추출 방법
CN118502639B (zh) * 2024-07-16 2024-09-24 好瑞圣(常州)科技有限公司 姿态差异识别方法、装置、电子设备、介质和程序产品

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134615A (ja) * 1999-09-08 2001-05-18 Hyundai Electronics Ind Co Ltd 3次元人体姿勢の検索方法および検索装置
US6459824B1 (en) * 1998-07-22 2002-10-01 Electronics And Telecommunications Research Institute Method of retrieving moving pictures using joint points based on pose information
WO2007102537A1 (ja) * 2006-03-07 2007-09-13 Osaka University 姿勢推定装置および方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771818B1 (en) * 2000-04-04 2004-08-03 Microsoft Corporation System and process for identifying and locating people or objects in a scene by selectively clustering three-dimensional regions
KR20050065198A (ko) 2003-12-24 2005-06-29 한국전자통신연구원 사용자의 움직임을 이용한 3차원 동작명령 인식기
US7317836B2 (en) * 2005-03-17 2008-01-08 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
CN103778635B (zh) * 2006-05-11 2016-09-28 苹果公司 用于处理数据的方法和装置
US7965886B2 (en) * 2006-06-13 2011-06-21 Sri International System and method for detection of multi-view/multi-pose objects
JP4148281B2 (ja) * 2006-06-19 2008-09-10 ソニー株式会社 モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
KR100858087B1 (ko) * 2007-02-14 2008-09-10 삼성전자주식회사 객체 포즈 정규화 방법과 장치 및 객체 인식 방법
CN101079103A (zh) * 2007-06-14 2007-11-28 上海交通大学 基于稀疏贝叶斯回归的人脸姿势识别方法
WO2009031155A2 (en) 2007-09-06 2009-03-12 Yeda Research And Development Co. Ltd. Modelization of objects in images
KR100933957B1 (ko) 2008-05-16 2009-12-28 전남대학교산학협력단 단일 카메라를 이용한 삼차원 인체 포즈 인식 방법
EP2327061A4 (en) 2008-08-15 2016-11-16 Univ Brown METHOD AND DEVICE FOR ESTIMATING BODY SHAPES
JP4404157B2 (ja) 2008-12-10 2010-01-27 日本ビクター株式会社 動画像符号化装置および動画像符号化方法
US8267781B2 (en) * 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
WO2010096279A2 (en) * 2009-02-17 2010-08-26 Omek Interactive , Ltd. Method and system for gesture recognition
JP5253588B2 (ja) * 2009-02-25 2013-07-31 本田技研工業株式会社 内部距離形状関連法を用いた手姿勢の取り込み及び認識
KR101591779B1 (ko) * 2009-03-17 2016-02-05 삼성전자주식회사 모션 데이터 및 영상 데이터를 이용한 골격 모델 생성 장치및 방법
US8755569B2 (en) 2009-05-29 2014-06-17 University Of Central Florida Research Foundation, Inc. Methods for recognizing pose and action of articulated objects with collection of planes in motion
US20110025834A1 (en) * 2009-07-31 2011-02-03 Samsung Electronics Co., Ltd. Method and apparatus of identifying human body posture
CN101989326B (zh) * 2009-07-31 2015-04-01 三星电子株式会社 人体姿态识别方法和装置
US8751215B2 (en) * 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6459824B1 (en) * 1998-07-22 2002-10-01 Electronics And Telecommunications Research Institute Method of retrieving moving pictures using joint points based on pose information
JP2001134615A (ja) * 1999-09-08 2001-05-18 Hyundai Electronics Ind Co Ltd 3次元人体姿勢の検索方法および検索装置
US6557010B1 (en) * 1999-09-08 2003-04-29 Hyundai Electronics Industries Co, Ltd. Method and apparatus for searching human three-dimensional posture
WO2007102537A1 (ja) * 2006-03-07 2007-09-13 Osaka University 姿勢推定装置および方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9984461B2 (en) 2014-06-27 2018-05-29 Huawei Technologies Co., Ltd. Method, apparatus, and terminal for obtaining vital sign data of target object
JP2017525029A (ja) * 2014-06-27 2017-08-31 華為技術有限公司Huawei Technologies Co.,Ltd. ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末
JP2021507434A (ja) * 2017-12-13 2021-02-22 ヒューマニシング オートノミー リミテッド 歩行者の意図を予測するためのシステムおよび方法
KR20190128500A (ko) * 2018-05-08 2019-11-18 한국전자통신연구원 영상 감시 시스템에서의 실시간 쓰레기 투기 행위 탐지 방법 및 장치
KR102153591B1 (ko) * 2018-05-08 2020-09-09 한국전자통신연구원 영상 감시 시스템에서의 실시간 쓰레기 투기 행위 탐지 방법 및 장치
US11048942B2 (en) 2018-05-08 2021-06-29 Electronics And Telecommunications Research Institute Method and apparatus for detecting a garbage dumping action in real time on video surveillance system
JP7499346B2 (ja) 2020-03-20 2024-06-13 ヒンジ ヘルス, インコーポレイテッド 逆運動学に基づいた関節の回転の推測
WO2021224994A1 (ja) * 2020-05-08 2021-11-11 日本電気株式会社 画像選択装置、画像選択方法、及びプログラム
JP7435754B2 (ja) 2020-05-08 2024-02-21 日本電気株式会社 画像選択装置、画像選択方法、及びプログラム
JPWO2022003854A1 (ja) * 2020-07-01 2022-01-06
JP7485040B2 (ja) 2020-07-01 2024-05-16 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム
WO2022003854A1 (ja) * 2020-07-01 2022-01-06 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム
WO2023089690A1 (ja) * 2021-11-17 2023-05-25 日本電気株式会社 検索装置、検索方法、およびプログラム

Also Published As

Publication number Publication date
EP2737418A1 (en) 2014-06-04
EP2737418A4 (en) 2015-10-14
KR20130013122A (ko) 2013-02-06
WO2013015528A1 (en) 2013-01-31
CN103718175B (zh) 2018-10-12
KR101815975B1 (ko) 2018-01-09
US9098740B2 (en) 2015-08-04
CN103718175A (zh) 2014-04-09
US20130028517A1 (en) 2013-01-31
JP6025845B2 (ja) 2016-11-16

Similar Documents

Publication Publication Date Title
JP6025845B2 (ja) オブジェクト姿勢検索装置及び方法
Jalal et al. Robust human activity recognition from depth video using spatiotemporal multi-fused features
Ar et al. A computerized recognition system for the home-based physiotherapy exercises using an RGBD camera
Zhu et al. Evaluating spatiotemporal interest point features for depth-based action recognition
Ji et al. Interactive body part contrast mining for human interaction recognition
CN105022982B (zh) 手部运动识别方法和装置
Wang et al. Mining actionlet ensemble for action recognition with depth cameras
CN102682302B (zh) 一种基于关键帧的多特征融合的人体姿态识别方法
US9639746B2 (en) Systems and methods of detecting body movements using globally generated multi-dimensional gesture data
Jalal et al. A spatiotemporal motion variation features extraction approach for human tracking and pose-based action recognition
Chaudhari et al. Yog-guru: Real-time yoga pose correction system using deep learning methods
Yao et al. Real-time hand pose estimation from RGB-D sensor
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
CN104517097A (zh) 一种基于kinect的运动人体姿态识别方法
Papadopoulos et al. Human action recognition using 3d reconstruction data
Monir et al. Rotation and scale invariant posture recognition using Microsoft Kinect skeletal tracking feature
Mastorakis et al. Fall detection without people: A simulation approach tackling video data scarcity
Bhuyan et al. Trajectory guided recognition of hand gestures having only global motions
CN104732247B (zh) 一种人脸特征定位方法
Shaikh et al. Gait recognition using partial silhouette-based approach
Parashar et al. Improved Yoga Pose Detection Using MediaPipe and MoveNet in a Deep Learning Model.
Saabni Facial expression recognition using multi Radial Bases Function Networks and 2-D Gabor filters
Keceli et al. Recognition of basic human actions using depth information
Goudelis et al. 3D Cylindrical Trace Transform based feature extraction for effective human action classification
Ding et al. Combining adaptive hierarchical depth motion maps with skeletal joints for human action recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161011

R150 Certificate of patent or registration of utility model

Ref document number: 6025845

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250