JP2005339100A - 身体動作解析装置 - Google Patents

身体動作解析装置 Download PDF

Info

Publication number
JP2005339100A
JP2005339100A JP2004155873A JP2004155873A JP2005339100A JP 2005339100 A JP2005339100 A JP 2005339100A JP 2004155873 A JP2004155873 A JP 2004155873A JP 2004155873 A JP2004155873 A JP 2004155873A JP 2005339100 A JP2005339100 A JP 2005339100A
Authority
JP
Japan
Prior art keywords
subject
body motion
image
matrix
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004155873A
Other languages
English (en)
Inventor
Masahide Naemura
昌秀 苗村
Masami Suzuki
雅実 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004155873A priority Critical patent/JP2005339100A/ja
Publication of JP2005339100A publication Critical patent/JP2005339100A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【構成】 身体動作解析装置10はコンピュータ12を含み、コンピュータ12には、ダンスする被験者の映像が入力される。コンピュータ12は、入力された映像に基づいて、人物シルエット画像を抽出する。次に、コンピュータ12は、色処理により、人物シルエット画像から被験者の各部位を検出するとともに、人物シルエット画像をスケルトン画像に変換する。続いて、スケルトン画像をハフ変換することにより、各部位を直線近似し、各部位をカルマンフィルタにより時間追跡する。そして、時間追跡されたハフパラメータには、SVDが施され、身体動作の動き特徴量を抽出する。その後、抽出した動き特徴量の時系列データをフーリエ変換することにより、周波数解析する。
【効果】 被験者の身体動作全体のリズム要素を抽出することができる。
【選択図】 図1

Description

この発明は身体動作解析装置および身体動作解析方法に関し、特にたとえば、リズムに従ってダンスを踊る被験者の身体動作を解析する、身体動作解析装置および身体動作解析方法に関する。
従来のこの種の身体動作解析装置の一例が非特許文献1に開示される。この非特許文献1によれば、カメラで撮影されたダンサーのシルエット画像を生成し、生成したシルエット画像をスケルトン化処理する。次にスケルトン画像をハフ(Hough)変換し、ハフ変換により得られた上半身の主軸(上半身主軸)のハフパラメータを追跡処理する。この追跡処理では、ハフパラメータの時間的な連続性を仮定して、ハフ空間上での近傍処理を利用し、近隣領域から最適なハフパラメータを選択する。その結果、ハフパラメータの時系列集合が得られ、これがダンサーの動き情報を表すパラメータとなる。そして、ハフパラメータのθ成分に着目し、その時系列データをフーリエ変換し、ダンサーの身体動作のリズム性を検証(解析)していた。
「動作解析に基づいたダンスの評価手法」,苗村 昌秀,鈴木 雅実,画像電子学会研究開予稿 03-05-07,pp.39-44,2003
しかし、非特許文献1に記載された評価では、上半身部分の主軸部分を追跡処理した結果得られるパラメータに基づいて、ダンサーの身体動作のリズム性を検証するようにしてあるため、身体動作のリズム性を正確に検証できているとはいえなかった。つまり、ダンスにおいては、上半身部分の主軸部分のみならず、頭部、手および足の動きも重要な要素であり、より広範な部位の動き情報を取得する必要があった。
それゆえに、この発明の主たる目的は、新規な、身体動作解析装置および身体動作解析方法を提供することである。
この発明の他の目的は、身体動作全体についてのリズム性を解析することができる、身体動作解析装置および身体動作解析方法を提供することである。
請求項1の発明は、被験者の身体動作を撮影した映像から被験者の身体の各部位を所定時間追跡し、当該各部位に対応する物理量から特徴量を一定時間毎に抽出するとともに、当該所定時間について集合した特徴量群を取得する特徴量群取得手段、特徴量群についての主成分分析に基づいて固有ベクトルへの射影成分に関する射影情報を生成する射影情報生成手段、および射影情報生成手段によって生成された射影情報の時系列を周波数解析してスペクトル情報を得る周波数解析手段を備える、身体動作解析装置である。
請求項1の発明は、被験者の身体動作のリズム性を解析する身体動作解析装置である。この身体動作解析装置では、特徴量群取得手段は、被験者の身体動作を撮影した映像から、その被験者の身体の各部位(頭部、胴体、手、足など)を所定時間追跡し、当該各部位に対応する物理量から特徴量を一定時間毎に抽出するとともに、当該所定時間について集合した特徴量群を取得する。たとえば、被験者の身体動作を撮影した映像から人物シルエット画像を抽出する。次に、この人物シルエット画像をスケルトン画像に変換する。そして、各部位を時間追跡する。この時間追跡により、一定時間(たとえば、1フレーム)毎に特徴量(身体動作の動き特徴量)を抽出し、それを所定時間(動きの1周期)分集めて特徴量群を取得する。射影情報生成手段は、特徴量群についての主成分分析に基づいて、たとえば所定の固有値までの固有ベクトルを生成し、この固有ベクトルへの射影成分に関する射影情報を生成する。周波数解析手段は、生成された射影情報の時系列を周波数解析(たとえば、フーリエ変換やWavelet変換)する。これにより、スペクトル情報が得られる。
請求項1の発明によれば、被験者の身体の各部位を追跡し、それによって得られる特徴量群の主成分分析に基づいて生成された固有ベクトルの射影情報のについての時系列を周波数変換するので、そのスペクトル強度のピーク値から身体動作のリズム性を解析することができる。
請求項2の発明は請求項1に従属し、特徴量は、各部位の第1所定点と被験者の身体の第2所定点との差分である。
請求項2の発明では、特徴量は、各部位の第1所定点(たとえば、各部位を直線近似した場合における線分の両端点の中点)のそれぞれと、被験者の身体の第2所定点(たとえば、胴体の重心点(中心点))との差分である。ただし、頭部(顔)は楕円近似し、その楕円の中心点と身体の重心点との差分が求められる。
請求項2の発明によれば、各部位の第1所定点と身体の第2所定点との差分を求めるので、動きの特徴を容易に得ることができる。
請求項3の発明は請求項1または2に従属し、特徴量群取得手段は、一定時間毎抽出される特徴量の要素を縦に並べるとともに、一定時間の区切りで所定期間に相当する期間分だけ横に並べた行列を生成する行列生成手段を含み、射影情報生成手段は、生成された行列を特異値分解して特徴量の固有値を抽出する固有値抽出手段を含む。
請求項3の発明では、行列生成手段は、一定時間(1フレーム)毎に抽出される特徴量の要素(部位のそれぞれに対応する特徴量)を縦に並べるとともに、一定時間毎の区切りで所定期間に相当する期間分だけ横に並べた行列を生成する。固有値抽出手段は、生成された行列を特異値分解して、特徴量(身体動作の動きの特徴量)の固有値を抽出する。
請求項3の発明によれば、所定時間分の各部位の特徴量についての行列を生成し、その行列の固有値を抽出するので、身体動作の全体の動きを抽出することができる。
請求項4の発明は請求項1ないし3のいずれかに従属し、テンポラルフィルタを用いて被験者の身体の各部位を追跡する追跡手段をさらに備える。
請求項4の発明では、追跡手段は、カルマンフィルタやパーティクルフィルタのようなテンポラルフィルタを用いて被験者の身体の各部位を追跡する。
請求項4の発明によれば、被験者を撮影した映像により、或る部位が隠れてしまい、映像に基づいて当該部位を追跡できない場合であっても、テンポラルフィルタにより推定して、追跡することができる。つまり、或る部位を観測できない場合や観測が不完全な場合であっても、ほぼ正確に当該部位を追跡することができるのである。
請求項5の発明においても、請求項1の発明と同様に、身体動作のリズム性を解析することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この実施例の身体動作解析装置10は、コンピュータ12およびカメラ14によって構成される。コンピュータ12は、汎用のPC或いはワークステーションのようなコンピュータである。カメラ14は、CCDイメージャのような撮像装置を用いたカメラである。また、身体動作解析装置10(厳密には、コンピュータ12)には、必要に応じてディスプレイ(スクリーン)16が接続される。
なお、この実施例では、身体動作解析装置10にカメラ14が含まれるように示してあるが、カメラ14で撮影しておいた映像をオフラインで入力するようにする場合には、カメラ14は必須の構成要素とする必要はない。かかる場合には、コンピュータ12が身体動作解析装置として機能する。
このような構成の身体動作装置10では、たとえば、ダンスを踊る被験者Aがカメラ14で撮影され、カメラ14で撮影された映像に基づいて、コンピュータ12が被験者Aの身体動作(この実施例では、ダンス)についてのリズム性を解析する。以下、その解析方法について順に説明する。
なお、カメラ14で撮影した映像やコンピュータ12による解析結果などが、必要に応じて接続されたディスプレイ16に表示され、被験者A等に提示される。
まず、カメラ14でダンスを踊る被験者Aが撮影されると、撮影された映像に対応する映像データはコンピュータ12に入力される。ただし、この実施例では、被験者Aは、ブルーバックを背景に踊っている。コンピュータ12は、カメラ14から入力される映像データに基づいて人物シルエット画像データを抽出する。つまり、カメラ14で撮影した映像は、被験者Aがブルーバックを背景に踊った映像であるため、背景画像と人物画像との色情報の違いを利用して、人物シルエット画像を抽出するのである。たとえば、人物シルエット画像を抽出する方法としては、M.Naemura,et.al., “Morphological Segmentation of Sports Scenes using Color Information”,IEEE‐T Broadcasting,vol.46,No.3,pp.181‐188,2000に記載された方法(手法)を採用することができる。この手法によれば、人物の影部分や照明変化の有る部分までも含めた色情報を背景色情報としているため、人物の影や照明変化の影響が少ない抽出処理を実現することができる。
人物シルエット画像を抽出すると、次にコンピュータ12は、人物シルエット画像から被験者Aの各部位を検出する。図示は省略するが、被験者Aは、部位毎に異なる色が付された衣服を着用しており、したがって、コンピュータ12は、映像から得られる色情報に基づいて、部位を判別(区別)することができる。ただし、被験者Aが着用する衣服には、背景色である青(ブルー)以外の色が付されているものとする。また、正確に部位を検出するため、当該衣服としては、比較的被験者の身体に密着するボディースーツないしは全身タイツのようなものが選択される。この部位の検出処理により、被験者Aの頭部、胴体、手および足のような部位が検出される。
続いて、コンピュータ12は、人物シルエット画像にスケルトン化処理を施す。たとえば、スケルトン化処理としては、I.Pitas, Digital Image Processing Algorithms and Applications, John Wiley & Sons,Inc., 2000に記載された処理を採用することができる。スケルトン化処理は、2値で表現されたオブジェクト画像の形状抽出手法であり、この実施例では、ダンスする被験者Aを撮影した映像に適用される。したがって、スケルトン化処理により、被験者Aの主要骨格部分(頭部、胴体,腕,足など)が得られる。この実施例では、頭部(顔)は、シルエット画像の輪郭線に基づいて楕円モデル化され、他の部位(胴体、手、足)は、シルエット領域をスケルトン化処理し、さらに、後述するように直線近似することにより、線分モデル化される。各部位は後述するカルマンフィルタにより追跡され、したがって、所定フレーム(この実施例では、1フレーム)毎の変化、すなわち、部位毎の動き情報を、容易に求めることができる。この実施例では、数1で定義されるMorphological スケルトン化処理を採用した。
Figure 2005339100
ここで、nBは、半径nの構造要素であり、数2に従って表現される。
Figure 2005339100
ただし、この実施例では、スケルトン化処理において、構造要素のサイズを「5」に設定した。
スケルトン化処理を実行することにより、スケルトン画像を取得すると、続いて、コンピュータ12は、当該スケルトン画像にハフ(Hough)変換を施す。これは、ダンスのように激しい動きを伴う場合には、取得されたスケルトン画像に冗長な部分が多数現われてしまうためである。そこで、スケルトン画像にハフ変換を施すことにより、冗長な部分(箇所)を省略して、人物骨格として主要な部分のみを直線に近似して、取り出すようにしてある。ハフ変換は、線分要素の検出に広く用いられている処理であり、線分を表す画像データをパラメータ化し、数3のように示される。
Figure 2005339100
ここで、θは検出された線分の方向を表す角度であり、ρは原点座標から線分までの距離を表す。
また、ハフパラメータは、ハフ空間で定義される(ρ,θ)の組み合わせとなる。ハフ変換した値をハフ空間上で閾値処理することにより、ハフパラメータを抽出すると、スケルトン画像の各部位を表す部分がハフパラメータとして表現されることになる。ハフ変換後には、空間的な情報が消去されるので、スケルトン画像と抽出したハフパラメータとで描画した線分画像を対応付けて、線分の始点座標と終点座標と(以下、両者をまとめて「端点」ということがある。)の情報をハフパラメータとともに維持する。つまり、図示は省略するが、コンピュータ12の内部に設けられる、或いは外部に接続される記憶媒体(HDやRAM等)に、端点の情報およびこれに対応してハフパラメータが記憶される。
このようなハフパラメータは、1フレーム毎に特定される。この実施例では、各部位について、時間方向に沿った追跡処理が実行される。この実施例では、移動する物体を追跡するのに広く用いられているカルマンフィルタを導入し、コンピュータ12は、観測値と動きのダイナミクスを考慮した予測値とを融合することによって、ハフパラメータの追跡処理を実現する。このため、或る時間において、観測(検出)できない部位についても対応が可能となる。たとえば、検出できない部位としては、被験者Aが横向きになった場合に、カメラ14側とは反対に位置する手や足が該当する。また、左手と右手が重なったり、左足と右足が重なったりする場合に、カメラ14に対してブラインドとなる部位(または部位の一部)も該当する。
ここで、カルマンフィルタは、動きのダイナミクス(強弱)を表す行列(ダイナミクス行列)Aと状態ベクトルXとから観測ベクトルzへの変換行列Hを用いると、数4に示すように、定式化される。ただし、数4(数5も同じ。)において、アルファベットの右上に添えたバー(横棒)は予測値(推測値)を意味する。
Figure 2005339100
この数4の算出結果は、数5に従って更新される。具体的には、観測値による更新処理が実行される。
Figure 2005339100
ただし、Q,R,Pは、それぞれ、プロセス,観測および状態の共分散行列を表す。また、Kはカルマンゲイン行列であり、Iは単位行列である。
この実施例では、人物(被験者A)の部位を追跡処理するため、人物を棒状モデル(ハフパラメータ)で表示し、ハフパラメータがカルマンフィルタの追跡の対象となる。カルマンフィルタの状態ベクトルとしては、それぞれの部位を表す棒線(線分)の端点位置とその速度で表わされるベクトルLとし、観測ベクトルは、人物シルエット化処理、部位検出処理およびパラメータ化処理を経て得られた端点を集めたベクトルMとした。このベクトルLおよびベクトルMは、数6のように示される。
Figure 2005339100
また、このときのダイナミクス行列Aと変換行列Hは、数7に示すように定義される。
Figure 2005339100
観測ベクトルを求める処理は、数4で得られた予測位置を基準に棒状形状に合わせて近傍化した領域のみ(後述する図2に示す斜線を付した四角枠)で行われる。これにより、処理の短縮化(縮小化)と他の部位との混合を避けることができる。また、観測の共分散行列Rを、観測ベクトルの信頼度に応じて、その値を変化させることにより、観測が不健全(不完全)な場合でも、予測値で捕えるような処理を導入した。以上のような処理により、被験者Aの各部位の時間的な変化を表す複数の動き特徴量が得られる。以下、上述した処理をまとめて、「動作解析処理」ということがある。
以上のようにして得られた動きの特徴量は、相互に関連し合う複数部位のデータ列からなる。したがって、部位毎にデータ解析処理を実行し、その結果を平均化することが考えられるが、ダンスのような動き(身体動作)を評価する場合には、身体動作全体のリズム要素を抽出した方が、より人間の主観による評価(主観評価)に近い結果を得ることができると考えられる。これは、人間が被験者Aのダンスのリズムを評価する場合、各部位を個別に見るのではなく、全体の動きを捉えるためである。このため、動きの特徴量すなわち複数部位のデータ列を統合する必要がある。
この実施例では、複数部位のデータ列を統合するために、SVD(Singular Value Decomposition)を、当該データ列(複数の動き特徴量の時系列データ)で構成される行列に適用し、被験者Aの身体動作についての全体の動きを表すデータ列に変換することにより、全体の動きについてのリズム要素の抽出を容易にしてある。
ここで、SVDは、行列を特異分解(主成分分析)する数学的ツールであり、その内容については、たとえば、G.H.Golub and C.F.Van Loan, “Matrix Computations”,Johns Hopkins Univ. Press, 1996に紹介されている。簡単に説明すると、SVDは、或るデータ列行列の共分散行列を求め、当該共分散行列の固有値と固有ベクトルとを求めるツールである。このように求められた固有値に対応する固有ベクトルが主成分分析した結果である。上述の文献に紹介されているSVDを用いると、大量のデータ集合の主成分データを分析することができる。M×Nの行列Aが存在すると仮定すると、SVDは数8のように表される。
Figure 2005339100
ここで、M≧Nの場合には、UはM×Nの列正規直交行列であり、VはN×Nの正規直交行列であり、WはN×Nの対角行列である。また、M<Nの場合には、UはM×Mの正規直交行列であり、VはN×Mの列正規直交行列であり、WはM×Mの対角行列である。対角行列Wの対角成分は特異値と呼ばれ、M≧Nの場合にはAAの固有値の平方根に相当し、M<Nの場合にはAAの固有値の平方根に相当する。また、行列Uの列ベクトルはAAの固有ベクトルとなる。
SVDを用いて、複数の動き特徴量からリズム抽出のための統合データ列への変換を行う場合には、まず、M個の要素からなる各部位の棒状線分の端点位置(この実施例では、端点位置を平均化した中点位置)で表される動き特徴量を、身体の全体の動きが1周期となるNフレーム分だけ集める。ここで、1周期とは、或るダンスに含まれる一連の動きに相当する期間をいい、たとえば、基本姿勢(直立した状態)から次に基本姿勢に戻るまでの期間をいう。また、この周期は、ダンスの種類(振り付け)やダンスに使用する音楽(バックグラウンドミュージック)等によって、その長さが異なる。したがって、1周期に含まれるフレーム数も異なることになる。
つまり、コンピュータ12は、複数部位のデータ列からなる動き特徴量を取得すると、各要素(M個の要素)から被験者の中心座標(重心座標)Cを差し引いて、M×Nの行列Xを作る。ここで、中心座標Cは、人物シルエット画像から取得される人物のへその位置或いはその近傍である。ただし、ダンス中では、頭部、手および足の位置が時々刻々と変化するため、それらを除いた胴体部分のみから中心座標Cを算出するようにしてある。
このように得られた行列XにSVDを施することにより得られた対角行列Wの対角成分wを、その値の大きい順番に並べて、数8に代入する。SVDが施された結果、行列Uの列ベクトルは、左から固有値の大きい順番に並んだ固有ベクトルとなる。この固有ベクトル行列Uを用いると、iフレームでの動き特徴量Xは数9のように示される。
Figure 2005339100
ここで、b=(bi1,bi2,…,bip,p=min(M,N)は、固有ベクトルの射影成分を表す値で構成されたベクトルである。言い換えると、複数の動き特徴量の固有ベクトルで張られた空間で、どれぐらい変動しているかを示す値である。つまり、被験者Aの身体動作の全体的な方向(動き方向)を示すのである。その動きに対する寄与は、対応する固有値に比例して大きいので、複数の動き特徴量で支配的な動きを評価するためには、固有値の大きいbの成分だけを評価すればよいことになる。このときの代表的なbの選択方法には、もとの固有値を大きいものから順番に並べた固有値列を{w,w,…,w},p=min(M,N)としたとき、数10で定義される固有ベクトルの寄与率αが或る閾値(たとえば、0.95)以上を初めて満たしたときのインデックスkまでの{b,b,…,b}を選択する方法がある。
Figure 2005339100
このようにして、変換したデータbを或る一定時間(1周期よりも長い時間)分だけ集めて、周波数解析することにより、周波数スペクトル情報を得て、リズム要素の抽出を行う。以下、具体例を用いて説明することにする。
図2は、ダンスする被験者を撮影した映像を用いて、ハフパラメータの追跡処理を行った場合についての途中経過の一例を示す図解図である。ただし、ここで用いた映像の時間は300フレーム(10秒間)であり、ダンスする被験者としては主観評価により分類した専門家ダンサーと非専門家ダンサーとを選択した。また、図2に示す例では、簡単のため、ダンサーの頭部および両手(厳密には、左腕および右腕についての前腕)のみに着目した場合について示してある。さらに、この実施例では、簡単のため、両手のみの特徴量を抽出して、周波数解析するようにするため、比較的手の動きが大きいダンスを選択した。
図2(A)は専門家ダンサーのハフパラメータを追跡処理した途中経過を示し、図2(B)は非専門家ダンサーのハフパラメータを追跡処理した途中経過を示す。ただし、専門家ダンサーと非専門家ダンサーとは同じダンスを踊り、また、図2(A)および図2(B)に示す途中経過は同じタイミングである。さらに、図2(A)および図2(B)に示す斜線を付した四角枠は、カルマンフィルタによる追跡処理により、予測される左手および右手の前腕を、モデル化した棒状形状に合わせて近傍化した領域である。この図2(A)と図2(B)とを対比すると、専門家ダンサーと非専門家ダンサーとでは、同じタイミングにおいて、顔の向き、両手の位置および角度に違いがあるのが容易に分かる。
なお、カルマンフィルタを用いたことにより、色処理による部位の検出(観測)が不可能または不完全であっても、良好に両手を追跡できることが確認できた。
SVDによる動き特徴量の変換には、動作解析処理によって得られた左手および右手の前腕の部分を表す線分の端点位置を平均化(端点の中点座標を算出)し、両手の位置を表すデータに変換した4次元データ(xleft,yleft,xright,yright)を用いた。つまり、両手について、手首に相当する位置座標と肘に相当する位置座標との平均値を算出するのである。この4次元データをSVDによりデータ変換することにより得られたデータを(b,b,b,b)とし、それぞれの要素の時系列データ{b},{b},{b},{b}をフーリエ変換により周波数解析した。
図3(A)および図3(B)は、専門家ダンサーおよび非専門家ダンサーについての周波数解析結果を示すグラフであり、当該グラフの縦軸はスペクトル強度(周波数スペクトル強度)を示し、横軸は周波数を示す。図3(A)および図3(B)から分かるように、専門家ダンサーおよび非専門家ダンサーのいずれの場合にも、{b},{b}列で、スペクトル強度のピーク値が存在する。このことから、動きのリズム要素の抽出ができていることが分かる。また、これらのピーク値に対応する周波数f,fには、f=2fの関係が成り立っている。このことは、対象としたダンスでは、手を大きく動かす動作の中に、その半分の周期で動かす動作が存在しているためであると考えられる。また、専門家ダンサーと非専門家ダンサーとでは、専門家ダンサーの方がそれぞれのピーク周波数(f,f)でのスペクトル強度が強く表れていることが分かる。これにより、専門家ダンサーほど、リズム的な動きを多く有し、さらには、複雑な動きまでリズム感の有る動作を再現できていると言える。
図3に示した周波数解析の結果は、主観評価により、専門家ダンサーと非専門家ダンサーとを分類した結果と一致しているので、動作解析で得られた動き特徴量を解析することにより、ダンスの優劣に影響を与えるリズム感の有無を評価することができると言える。
なお、この実施例では、簡単のため、両腕の前腕のみに着目した場合について説明したが、さらに他の部位、たとえば、頭部、上半身の主軸(背骨)および足についても追跡処理をした場合であっても、それら全体の特徴量から同様の結果が得られると考えられる。
また、図3に示す例は、この実施例で選択されたダンスについての周波数解析の結果であり、ダンスが異なれば、ピーク値が存在する系列(図3では、{b}〜{b})やピーク値が表れる周波数(図3ではf,f)も変化することは言うまでもない。
また、周波数解析した結果に基づいて、専門家ダンサーを基準とした場合における非専門家ダンサーのリズム感の判定をすることもできる。たとえば、専門家ダンサーについての周波数解析結果から或る一定値以上のスペクトル強度を有するシーケンス系列を選択する。たとえば、図3(A)に示した例を用いて説明すると、一定値を「2000」に設定すると、{b}および{b}の系列が選択される。
次に、専門家ダンサーについての周波数解析結果から選択された系列についてのスペクトル強度のピーク値に基づいて閾値を決定する。たとえば、当該スペクトル強度のピーク値の6割を閾値に決定する。図3(A)に示した例では、系列{b}については、閾値(以下、説明の便宜上、「第1閾値」という。)が「1500(2500×0.6)」に決定され、系列{b}については、閾値(以下、説明の便宜上、「第2閾値」という。)が「1440(2400×0.6)」に決定される。
そして、決定した第1閾値および第2閾値を用いて、非専門家ダンサーのリズム判定を行う。まず、非専門家ダンサーの周波数解析結果から、第1閾値および第2閾値を決定した系統と同じ系統(図3(B)に示す例では、系統{b}および{b})であり、第1閾値および第2閾値を決定した際のスペクトル強度のピーク値を示した周波数(図3(A)では、fおよびf)に対応するスペクトル強度を検出する。つまり、図3(B)において、周波数fおよびfにおけるスペクトル強度を検出する。たとえば、周波数fにおけるスペクトル強度Pを検出し、周波数fにおけるスペクトル強度Pを検出したとする。
次に、検出したスペクトル強度を用いて、リズム判定を行う。具体的には、スペクトル強度P1と第1閾値とを比較するとともに、スペクトル強度P2と第2閾値とを比較する。そして、P1≧第1閾値かつP2≧第2閾値の場合には、リズム評価を「3(優)」と判定し、P1≧第1閾値かつP2<第2閾値、または、P1<第1閾値かつP2≧第2閾値の場合には、リズム評価を「2(普通)」と判定し、P1<第1閾値かつP2<第2閾値の場合には、リズム評価を「1(劣)」と判定する。
このように、専門家ダンサーの周波数解析結果と非専門家ダンサーの周波数解析結果とから、非専門家ダンサーのリズム評価を判定することもできる。ただし、ここで示した評価方法は単なる例示であり、これに限定されるべきではない。たとえば、閾値を増やして、さらに詳細に評価することも可能である。また、着目する系列を1つにして、簡単に評価することも可能である。
この実施例によれば、被験者の各部位の動き特徴量を統合的に解析するので、より複雑な動きからリズム要素を抽出することができる。つまり、身体動作全体についてのリズム性を解析することができる。
また、リズム性の解析結果を非専門家のような被験者に提示することにより、非専門家のダンスの向上に資することも可能である。たとえば、専門家の周波数解析結果と被験者の周波数解析結果とを対比可能にディスプレイに表示することが考えられる。
なお、この実施例では、ダンスする被験者の動作について解析したが、スポーツにおける動作をリズム性の有る動きと捉えて、リズム要素を抽出することも可能である。たとえば、野球であれば、ピッチング動作やバットのスイング動作などのリズム要素を解析することができる。
また、この実施例では、テンポラルフィルタとしてカルマンフィルタを用いてハフパラメータの追跡処理を行うようにしたが、カルマンフィルタに代えて、パーティクルフィルタを用いることも可能である。
さらに、この実施例では、1台のカメラを設けるようにしたが、2台以上設けるようにすることもできる。この場合には、被験者を立体的に捉えることができるため、ダンス動作により隠れているところを可及的に減らすことができ、身体動作の解析を向上することができる。したがって、カルマンフィルタ等を用いた推定(推測)が必要でない可能性がある。
また、身体の部位(動作)についての追跡は、各部位(たとえば、手先)の動きをパターンマッチング手法によって行うことが出来るのは勿論のこと、モーションキャプチャのような従来技術を用いることにより、手先等にマーカを添付するなどして、動きを追跡し易くすることも可能である。この場合、隠れた(カメラの死角となる)部位のみをカルマンフィルタ等による推定に基づいて追跡が可能であることは言うまでもない。
さらに、着目する部位が隠れない(カメラの死角とならない)ダンスなどでは、そのまま当該部位を追跡して動作解析を行うことも可能である。この場合には、カルマンフィルタ等は不要となる。
また、この実施例では、SVDにより得られたデータ(bi)の時系列データをフーリエ変換してスペクトル情報を得るようにしたが、Wavelet変換によりスペクトル情報を得ることも可能である。
さらに、この実施例では、SVDにより主成分分析するようにしたが、このように、共分散行列の固有値と固有ベクトルとを求める数学的な方法(ツール)としては、KL変換、或いは、ヤコビ法(ヤコビ変換)またはハウスホルダ変換のような3重対角行列を用いる方法を適用することも可能である。
この発明の身体動作解析装置の一例を示す図解図である。 図1実施例に示す構成により、専門家ダンサーおよび非専門家ダンサーを撮影した映像に基づいて、ハフパラメータを追跡した場合の途中経過の一例を示す図解図である。 図1実施例に示す構成により、専門家ダンサーおよび非専門家ダンサーの両手の前腕についての動き特徴量を統合的に解析した場合における周波数に対するスペクトル強度の変化の一例を示すグラフである。
符号の説明
10 …身体動作解析装置
12 …コンピュータ
14 …カメラ
16 …ディスプレイ

Claims (5)

  1. 被験者の身体動作を撮影した映像から前記被験者の身体の各部位を所定時間追跡し、当該各部位に対応する物理量から特徴量を一定時間毎に抽出するとともに、当該所定時間について集合した特徴量群を取得する特徴量群取得手段、
    前記特徴量群についての主成分分析に基づいて固有ベクトルへの射影成分に関する射影情報を生成する射影情報生成手段、および
    前記射影情報生成手段によって生成された射影情報の時系列を周波数解析してスペクトル情報を得る周波数解析手段を備える、身体動作解析装置。
  2. 前記特徴量は、前記各部位の第1所定点と前記被験者の身体の第2所定点との差分である、請求項1記載の身体動作解析装置。
  3. 前記特徴量群取得手段は、前記一定時間毎抽出される特徴量の要素を縦に並べるとともに、前記一定時間の区切りで前記所定期間に相当する期間分だけ横に並べた行列を生成する行列生成手段を含み、
    前記射影情報生成手段は、生成された前記行列を特異値分解して前記特徴量の固有値を抽出する固有値抽出手段を含む、請求項1または2記載の身体動作解析装置。
  4. テンポラルフィルタを用いて前記被験者の身体の各部位を追跡する追跡手段をさらに備える、請求項1ないし3のいずれかに記載の身体動作解析装置。
  5. 被験者の身体動作を撮影した映像から前記被験者の身体の各部位を所定時間追跡し、当該各部位に対応する物理量から特徴量を一定時間毎に抽出するとともに、当該所定時間について集合した特徴量群を取得し、
    前記特徴量群についての主成分分析に基づいて固有ベクトルへの射影成分に関する射影情報を生成し、そして
    生成された射影情報の時系列を周波数解析してスペクトル情報を得る、身体動作解析方法。
JP2004155873A 2004-05-26 2004-05-26 身体動作解析装置 Withdrawn JP2005339100A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004155873A JP2005339100A (ja) 2004-05-26 2004-05-26 身体動作解析装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004155873A JP2005339100A (ja) 2004-05-26 2004-05-26 身体動作解析装置

Publications (1)

Publication Number Publication Date
JP2005339100A true JP2005339100A (ja) 2005-12-08

Family

ID=35492617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004155873A Withdrawn JP2005339100A (ja) 2004-05-26 2004-05-26 身体動作解析装置

Country Status (1)

Country Link
JP (1) JP2005339100A (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008007471A1 (fr) * 2006-07-10 2008-01-17 Kyoto University Procédé de suivi d'un marcheur et dispositif de suivi d'un marcheur
JP2008059224A (ja) * 2006-08-30 2008-03-13 Nippon Hoso Kyokai <Nhk> 形状推定装置及び形状推定プログラム
JP2010267069A (ja) * 2009-05-14 2010-11-25 Kddi Corp 映像コンテンツ生成装置及びコンピュータプログラム
KR20110032351A (ko) * 2009-09-22 2011-03-30 삼성전자주식회사 영상 처리 장치 및 방법
JP2011244214A (ja) * 2010-05-18 2011-12-01 Casio Comput Co Ltd 動画再生装置、動画再生方法及びプログラム
JP2012133666A (ja) * 2010-12-22 2012-07-12 Sogo Keibi Hosho Co Ltd 部位認識装置、部位認識方法、及び部位認識プログラム
JP2013085702A (ja) * 2011-10-18 2013-05-13 Toyota Central R&D Labs Inc 生体信号推定装置及びプログラム
KR20130083677A (ko) * 2012-01-13 2013-07-23 삼성전자주식회사 신체 연결 관계 분석 장치 및 방법
US8644552B2 (en) 2009-10-13 2014-02-04 Samsung Electronics Co., Ltd. Markerless motion capturing apparatus and method
JP2014123322A (ja) * 2012-12-21 2014-07-03 Casio Comput Co Ltd 情報報知装置、情報報知方法及びプログラム
US8885920B2 (en) 2009-09-22 2014-11-11 Samsung Electronics Co., Ltd. Image processing apparatus and method
CN104766045A (zh) * 2014-01-07 2015-07-08 富士通株式会社 评价方法和评价装置
CN104766044A (zh) * 2014-01-07 2015-07-08 富士通株式会社 评估方法和评估设备
US9576191B2 (en) 2012-07-26 2017-02-21 Panasonic Corporation Posture estimation device, posture estimation method, and posture estimation program
JP2019097818A (ja) * 2017-11-30 2019-06-24 住友ゴム工業株式会社 スイング解析装置
JP2020182670A (ja) * 2019-05-08 2020-11-12 住友ゴム工業株式会社 スイング解析装置
JP2020185370A (ja) * 2019-05-08 2020-11-19 住友ゴム工業株式会社 スイング解析装置
JP2020199049A (ja) * 2019-06-10 2020-12-17 Kddi株式会社 コーチングアプリケーションの構築装置、方法およびプログラム
JP2021068257A (ja) * 2019-10-25 2021-04-30 エイベックス株式会社 評価装置、評価方法、及びプログラム

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2008007471A1 (ja) * 2006-07-10 2009-12-10 国立大学法人京都大学 歩行者トラッキング方法及び歩行者トラッキング装置
JP4686663B2 (ja) * 2006-07-10 2011-05-25 国立大学法人京都大学 歩行者トラッキング方法及び歩行者トラッキング装置
WO2008007471A1 (fr) * 2006-07-10 2008-01-17 Kyoto University Procédé de suivi d'un marcheur et dispositif de suivi d'un marcheur
US8229164B2 (en) 2006-07-10 2012-07-24 Synthesis Corporation Pedestrian tracking method and pedestrian tracking device
JP2008059224A (ja) * 2006-08-30 2008-03-13 Nippon Hoso Kyokai <Nhk> 形状推定装置及び形状推定プログラム
JP4690971B2 (ja) * 2006-08-30 2011-06-01 日本放送協会 形状推定装置及び形状推定プログラム
JP2010267069A (ja) * 2009-05-14 2010-11-25 Kddi Corp 映像コンテンツ生成装置及びコンピュータプログラム
US8885920B2 (en) 2009-09-22 2014-11-11 Samsung Electronics Co., Ltd. Image processing apparatus and method
KR20110032351A (ko) * 2009-09-22 2011-03-30 삼성전자주식회사 영상 처리 장치 및 방법
KR101640039B1 (ko) * 2009-09-22 2016-07-18 삼성전자주식회사 영상 처리 장치 및 방법
US8644552B2 (en) 2009-10-13 2014-02-04 Samsung Electronics Co., Ltd. Markerless motion capturing apparatus and method
JP2011244214A (ja) * 2010-05-18 2011-12-01 Casio Comput Co Ltd 動画再生装置、動画再生方法及びプログラム
JP2012133666A (ja) * 2010-12-22 2012-07-12 Sogo Keibi Hosho Co Ltd 部位認識装置、部位認識方法、及び部位認識プログラム
JP2013085702A (ja) * 2011-10-18 2013-05-13 Toyota Central R&D Labs Inc 生体信号推定装置及びプログラム
KR20130083677A (ko) * 2012-01-13 2013-07-23 삼성전자주식회사 신체 연결 관계 분석 장치 및 방법
KR101908284B1 (ko) * 2012-01-13 2018-10-16 삼성전자주식회사 신체 연결 관계 분석 장치 및 방법
US9576191B2 (en) 2012-07-26 2017-02-21 Panasonic Corporation Posture estimation device, posture estimation method, and posture estimation program
JP2014123322A (ja) * 2012-12-21 2014-07-03 Casio Comput Co Ltd 情報報知装置、情報報知方法及びプログラム
US9761013B2 (en) 2012-12-21 2017-09-12 Casio Computer Co., Ltd. Information notification apparatus that notifies information of motion of a subject
CN104766044A (zh) * 2014-01-07 2015-07-08 富士通株式会社 评估方法和评估设备
JP2015128507A (ja) * 2014-01-07 2015-07-16 富士通株式会社 評価プログラム、評価方法および評価装置
US9847042B2 (en) 2014-01-07 2017-12-19 Fujitsu Limited Evaluation method, and evaluation apparatus
CN104766045A (zh) * 2014-01-07 2015-07-08 富士通株式会社 评价方法和评价装置
JP2019097818A (ja) * 2017-11-30 2019-06-24 住友ゴム工業株式会社 スイング解析装置
JP2020182670A (ja) * 2019-05-08 2020-11-12 住友ゴム工業株式会社 スイング解析装置
JP2020185370A (ja) * 2019-05-08 2020-11-19 住友ゴム工業株式会社 スイング解析装置
JP7281138B2 (ja) 2019-05-08 2023-05-25 住友ゴム工業株式会社 スイング解析装置
JP7283693B2 (ja) 2019-05-08 2023-05-30 住友ゴム工業株式会社 スイング解析装置
JP2020199049A (ja) * 2019-06-10 2020-12-17 Kddi株式会社 コーチングアプリケーションの構築装置、方法およびプログラム
JP7060549B2 (ja) 2019-06-10 2022-04-26 Kddi株式会社 コーチングアプリケーションの構築装置、方法およびプログラム
JP2021068257A (ja) * 2019-10-25 2021-04-30 エイベックス株式会社 評価装置、評価方法、及びプログラム
JP7368178B2 (ja) 2019-10-25 2023-10-24 エイベックス株式会社 評価装置、評価方法、及びプログラム

Similar Documents

Publication Publication Date Title
JP2005339100A (ja) 身体動作解析装置
Yoo et al. Automated markerless analysis of human gait motion for recognition and classification
Ceseracciu et al. Markerless analysis of front crawl swimming
JP4930854B2 (ja) 関節物体位置姿勢推定装置及びその方法ならびにプログラム
US7330566B2 (en) Video-based gait recognition
EP3593276A1 (en) Image analysis using neural networks for pose and action identification
US20140064571A1 (en) Method for Using Information in Human Shadows and Their Dynamics
Ding et al. STFC: Spatio-temporal feature chain for skeleton-based human action recognition
KR20120048021A (ko) 이미지 분석을 위한 방법 및 시스템
Ahmed et al. Human gender classification based on gait features using kinect sensor
Loy et al. Monocular 3d reconstruction of human motion in long action sequences
US11450148B2 (en) Movement monitoring system
Su et al. Human gait recognition based on motion analysis
Krzeszowski et al. Gait recognition based on marker-less 3D motion capture
Nouredanesh et al. Chasing feet in the wild: a proposed egocentric motion-aware gait assessment tool
JP6786098B2 (ja) 歩容解析装置
Wang et al. Robust pose recognition of the obscured human body
Chandrashekhar et al. Action energy images for reliable human action recognition
Serrano et al. Automated feet detection for clinical gait assessment
Qin et al. Gesture recognition from depth images using motion and shape features
Senanayake et al. Artificial neural network based gait patterns identification using neuromuscular signals and soft tissue deformation analysis of lower limbs muscles
Andriluka et al. Benchmark datasets for pose estimation and tracking
JP2012190280A (ja) 行動認識装置、行動認識方法及びプログラム
Boyle et al. Machine learning and deep neural network architectures for 3D motion capture datasets
Bouchrika et al. Recognizing people in non-intersecting camera views

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070807