JP2008165578A - 動体の動作表現方法および動作認識方法 - Google Patents

動体の動作表現方法および動作認識方法 Download PDF

Info

Publication number
JP2008165578A
JP2008165578A JP2006355662A JP2006355662A JP2008165578A JP 2008165578 A JP2008165578 A JP 2008165578A JP 2006355662 A JP2006355662 A JP 2006355662A JP 2006355662 A JP2006355662 A JP 2006355662A JP 2008165578 A JP2008165578 A JP 2008165578A
Authority
JP
Japan
Prior art keywords
motion
image
images
moving object
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006355662A
Other languages
English (en)
Other versions
JP4929460B2 (ja
Inventor
Seiji Ishikawa
聖二 石川
Juukui Tan
ジュークイ タン
Taketo Ogata
健人 緒方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu Institute of Technology NUC
Original Assignee
Kyushu Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu Institute of Technology NUC filed Critical Kyushu Institute of Technology NUC
Priority to JP2006355662A priority Critical patent/JP4929460B2/ja
Publication of JP2008165578A publication Critical patent/JP2008165578A/ja
Application granted granted Critical
Publication of JP4929460B2 publication Critical patent/JP4929460B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】従来法で表現が困難であった映像中の人物などの動作を表現するための方法、およびこれを用いた動作の認識方法を提供する。
【解決手段】入力された時系列画像の連続する2枚の画像(映像入力)から動体の動きベクトルを計算し(動きベクトル生成)、この動きベクトル成分を異なる複数方向にそれぞれ動きのみを表現する複数種類の画像に分解し(動きベクトル分解)、該複数種類の画像をそれぞれ独立して時間軸方向に重みを付けて重ね合わせ画像を形成する(重ね合わせ画像生成)動作の表現方法認識、並びに、この重ね合わせ画像から特徴ベクトル(特徴量)を抽出し(特徴ベクトル抽出)および認識を行う前に予め用意していたテンプレート画像の特徴ベクトルとのパターンマッチングによって、動体の動作を認識する(動作認識)動作認識方法。
【選択図】図1

Description

本発明は、カメラによって撮像された映像、動画像に映る人物などの動きの画像をコンピュータによって自動で認識する動作認識方法およびこれに使用可能な動体の動作表現方法に関する。
従来、人物などの動作認識のための動作表現方法の一つとして、例えば、特許文献1または非特許文献1には、一定期間の動き情報を重ねて表現するモーションヒストリーイメージ法(以下、単に「MHI」いう)が提案されている。これは、対象となる動体の複数の画像から動体動作を認識する場合に、新しい画像ほど明るく、過去の画像ほど暗く表示し、時系列画像として表現される人物(動体)の動きを二次元画像に圧縮する表現方法である。即ち、一定期間の時系列画像から動いている部分を抽出し、重みを付け重ね合わせた画像で表現する方法であり、この重ね合わせ画像は、得られた時系列画像の連続する2枚の画像を差分し、画素値の変化があった部分を閾値処理によって抽出し、抽出した部分にある値を持たせ、それ以外の部分は現在の重みが0以上であれば1減らすことを繰り返すことによって得られる。
そして、これらの画像の動作認識にあっては、認識したい動作を行う人物などを含む画像から以上の方法によって求められた画像と、予め取得していた動作のテンプレート画像(即ち、学習画像)とのパターンマッチングを行って、該当人物の動作認識を行っている。
米国特許第6654483号公報 エー・エフ・ボビック(A.F. Bobick)とジェイ・ダブル・ダビス(J.W. Davis)著、「テンポラルテンプレートを用いた人の動作認識(The Recognition of Human Movement Using Temporal Templates)」、IEEE Transactions on Pattern Analysis and Machine Intelligence(PAMI)、Vol.23、No.3、2001年、p.257-267
しかしながら、特許文献1および非特許文献1で開示されている動作表現方法は、動きの変化が激しい場合、新しい動きが次々と上書きされ古い動きが消されてしまうため、複雑な動きを表現するのに適しておらず、認識精度が劣化するという問題がある。
また、以上の例に使用されているMHIはフレーム間差分画像を2値化した画像から生成するため、閾値の設定によっては、同じ動作でも異なるMHIが生成されてしまうという問題がある。また、フレーム間差分で得られる動き情報には動作認識の対象となる人とカメラの相対的な移動情報も含まれるため、同じ動作でも対象者の移動速度の違いやカメラの移動によって、生成されるMHIが異なるという問題がある。
本発明はかかる事情に鑑みてなされたもので、このような従来法で表現が困難であった映像中の人物などの動作を表現するための動体の動作表現方法、およびこれを用いた動作の認識方法を提供することを目的とする。
前記目的に沿う第1の発明に係る動きの情報に着目した動体の動作表現方法は、入力された時系列画像の連続する2枚の画像から動体(即ち、局所領域)の動きベクトルを計算し、この動きベクトル成分を異なる複数方向にそれぞれ動きのみを表現する複数種類の画像に分解し、該複数種類の画像をそれぞれ独立して時間軸方向に重みを付けて重ね合わせ画像を形成する。
ここで、第1の発明において、前記異なる複数方向は、前記動きベクトルの画像に対して上下左右の4方向であるのが好ましい。また、動きベクトルを複数方向に分解して表現する以外の具体的処方については従来技術が適用可能である。
この場合、MHI(正確にはDMHI)に処理するデータは動きベクトル(フレーム画像ではない)であるから、単なるフレーム画像と異なり、閾値は必ずしも必要でない。
また、前記目的に沿う第2の発明に係る動体の動作認識方法は、認識したい動作を行う動体を含む画像から第1の発明に係る動体の動作表現方法によって得られた前記重ね合わせ画像、および認識を行う前に予め用意していたテンプレート画像のパターンマッチングによって、前記動体の動作を認識する。なお、双方の特徴量を抽出してパターンマッチングを行う方がデータ処理がより簡単となる。
そして、この動体の動作認識方法において、前記テンプレート画像は、既知の動作を行う動体を含む映像から前記動作表現方法によって得られる重ね合わせ画像からなるのが好ましい。これによって同一処理物の比較となるので、認識精度が向上する。
請求項1、2記載の動体の動作表示方法においては、一定期間内の複数方向(例えば、上下左右の4方向)の動きの履歴を画像として表現することによって、動体、例えば人などの複雑な動作を、従来法より更に詳しく表現できる。
そして、請求項3〜5記載の動体の動作認識方法においては、上記のような動体の動作表現方法を用いることによって、更に認識率の向上を図ることが可能となるとともに、観察方向に依存しない動作認識が可能となる。
続いて、添付した図面を参照しつつ、本発明を具体化した実施の形態につき説明し、本発明の理解に供する。
ここで、図1は本発明の一実施の形態に係る動体の動作認識方法を適用した動作認識装置の構成図、図2はフレーム画像の説明図(写真を含む)、図3は差分画像の説明図、図4は本発明の一実施の形態に係る動体の動作表示方法の説明用写真、図5は同方法の説明用写真、図6はフーモーメント処理の説明図、図7は実施例の状況を示すカメラ配置図、図8は動体(人物)の各動作を示す写真、図9は実施例で用いた各動作から生成されるMHIとDMHIの例を示す写真である。
本発明の一実施の形態に係る動体の動作認識方法では、動体の一例である人の動作を対象としてその表現の認識を行う場合について説明する。
図1に示すように、本発明の一実施の形態に係る動作認識方法を適用した動作認識装置10は、映像データを入力する映像入力部11と、映像入力部11に記憶されている画像データから動きベクトルを生成する動きベクトル生成部12と、動きベクトル生成部12によって処理された動きベクトルの動作を複数方向(即ち、上下左右)に分解する動きベクトル分解部13と、動きベクトル分解部13によって分解された上下左右の各画像からモーションヒストリーイメージを作成する重ね合わせ画像生成部14と、重ね合わせ画像生成部14から特徴ベクトルを抽出する特徴ベクトル抽出部15と、特徴ベクトル抽出部15の画像を学習データ(テンプレート画像)と比較して人の動作を決定する動作認識部16とを備えている。以下、これらについて詳細に説明する。
映像入力部11は、ビデオカメラからの映像信号、またはパーソナルコンピュータのハードディスク内の映像データベースからの映像(画像)データを、時系列の連続映像として入力する。
この様子を図2に示すが、映像データは、幅がW、高さがHで撮影した映像(動画像)のある時点tにおけるフレーム画像の集合からなり、各フレーム画像は、W×H個の画素(ピクセル)を持つ。従って、映像データは、画像の左上を原点としてそこから右にx、下にy画素分だけ進んだ場所にあるピクセルがf(x,y,t)と表わされる。このf(x,y,t)は例えば0〜255の値を持ち、255が真っ白、0が真っ黒で、その間の場合は0に近いほど黒く、255に近いほど白くなる(グレイスケール画像)。従って、図2では壁の部分におけるf(x,y,t)は255に近い値を持ち、人の髪の毛やズボンの部分のf(x,y,t)は0に近い値を持つことになる。
ここで、まず画像の差分について説明する。いま、幅W、高さHで撮影した映像(動画像)から、t時点でのフレーム画像とt−1時点でのフレーム画像を取り出して、その差分をとることを考える。画像間の差分とは、同じ位置のピクセル値の差をとることである。取り出した2枚の画像において、左上の原点から右にx、下にy画素の位置にある画素は、f(x,y,t)およびf(x,y,t−1)で表現できるので、その差分は、単純に|f(x,y,t)−f(x,y,t−1)|となる。これを原点から1画素ずつ計算し、その結果を画素値とする画像を生成すれば、画素値が0に近いと黒くなるので、2つの画像の間で変化のない部分は黒く、逆に動きがある部分は画素値が大きくなるので白くなる画像が生成できる。これを差分画像と呼び、差分画像の例を図3に示す。
ところが、先に説明した差分画像は、動きがある部分に大きな画素値が入いるので、動きがあったかなかったかを知ることができるが、その動きがどの方向であるかを知ることはできない。そこで、この実施の形態においては、動きベクトル生成部12でオプティカルフローを生成し、被写体の動きベクトルを算出する。
オプティカルフローを計算するためには、差分画像の場合と同様に2枚のフレーム画像が必要となる。そして、片方の画像内の画素一つ一つが、もう片方の画像内のどこに移動しているかを求め、その位置関係を示す2次元ベクトルを画素とする画像が、オプティカルフローである。例えば、t時点のフレーム画像とt−1時点のフレーム画像間のオプティカルフローを求める場合は、t−1時点での画像の画素一つ一つが、もう片方のt時点でのフレーム画像内のどこに移動したかを探す。t−1時点のフレームの原点から右にx、下にy移動した場所の画素f(x,y,t−1)が、t時点のフレームの画像でf(x+dx,y+dy,t)に移動していた場合は、t−1時点での、(x,y)の位置のオプティカルフローは(dx,dy)となり、2次元ベクトルとなる。動きベクトル生成部12は、入力された映像画像からオプティカルフローを生成し、被写体の動きベクトルを算出する。片方の画像内の画素がもう片方の画像内のどの位置に移動したかというのを求める方法には、ブロックマッチング法と勾配法があるがいずれも周知の技術であるので、詳しい説明は省略する。この結果、ある時点での画像の局所領域が次の時点でどの方向に動いたのかという2次元のベクトルを各画素に持つ動きベクトル画像が得られる。図4(a)に示す2つのフレーム画像18、19から、図4(b)に示すように動きベクトル画像20を作成している。
動きベクトル分解部13は、動きベクトル生成部12によって算出された動きベクトル画像20を上下左右の動き(複数方向の一例)のみを表す成分に分解する。この分解により動きベクトル画像20は4種類の独立した画像となる。図4(d)に、xプラス方向、xマイナス方向、yプラス方向、yマイナス方向に分解された画像21〜24を示している。図4(c)はその前工程を示す画像で、x方向およびy方向に動きベクトル画像20を分解している。
このようにして、一連のフレーム画像f(x,y,t)から以上の処理によってxプラス方向、xマイナス方向、yプラス方向、yマイナス方向に分解された画像21〜24を作成し、これらのモーションヒストリーイメージを作成する。
モーションヒストリーイメージは、前述のBobick(非特許文献1)らによって提案されたもので、一つの画像に過去の画像を残して行く時系列画像の表現方法の一つであって、新しい画像ほど明るく、過去の画像ほど暗く表示され、以下の式(1)によって生成される。
ここで、x、y、tはそれぞれ画像の座標値および時間を示し、D(x,y,t)は入力画像、τはどれだけの期間の過去の画像を残すかを決定するパラメータである。
これに対応する、τの期間に動きのあった領域を表現する2値画像モーションエナジーイメージ(MEI; Motion Energy Image)は式(2)で与えられる。
本実施の形態においては、このモーションヒストリーイメージ法を用いて、動きベクトル分解部13で作成された4種類の画像21〜24それぞれについて、重ね合わせ画像生成部14で4枚のモーションヒストリーイメージ(重ね合わせ画像)を生成する。これを式で示せば以下の通りとなる。
ここでHτ x+(x,y,t)、Hτ x−(x,y,t)は左右の動きから生成されるMHI、Hτ y+(x,y,t)、Hτ y−(x,y,t)は上下の動きから生成されるMHIであり、thは方向成分の閾値である。この閾値処理は、式(1)のMHIの2値入力画像D(x,y,t)を生成することに対応する。式(3)〜(6)より生成されるMHIは、それぞれ上下左右の方向に発生した動きの履歴を表している。これらのMHIを動きの向きの情報を持つモーションヒストリーイメージ(DMHI; Directional Motion History Images)と称する。動きの向きに分解された成分からそれぞれ独立したDMHIを生成することで、従来のMHIでは動きの向きの変化によって上書きされて失われていた過去の動き情報を残すことができる。図5(c)にその例を示す。
なお、図5(a)は「箱をつかんで持ち上げる」という動作のフレーム画像の一部であり、同図(b)はこれらのフレーム画像からMHIを生成したものの一部で、図5(a)は原画像、図5(b)は従来のMHI、図5(c)の4つの段の画像はそれぞれF ,F ,F およびF から生成したDMHIである。この動作は、最初人が箱をつかむ際に体を下にかがめ、箱をつかんだ後上体を上げるという動作であり、体をかがめた時点のフレームが図5(a)の2列目に、箱をつかんで上体を上げた時点のフレームが図5(a)の3列目に示されている。ここで従来のMHIを見ると2列目の時点で描かれている上体を下げるという動きの情報が、3列目の上体を上げるという動きの情報によって上書きされ、情報が失われていることがわかる。一方、同図(c)に示すDMHIを見ると、2列目での上体を下げるという動きは下方向の成分Hτ y+に描かれ、3列目での上体を上げるという動きは上方向の成分Hτ y−に描かれているため、上書きが回避され最初の下方向の動きの履歴が失われず残っていることがわかる。
以上の手法によって、動体の画像を複数枚のDMHIによって表現できる。
特徴ベクトル抽出部15は、得られた重ね合わせ画像からフーモーメント(Hu moment)を用いて特徴ベクトル(特徴量)を抽出する。なお、Hu momentについては非特許文献2(M.Hu, "Visual pattern recognition by moment invariants,"IRE Transactions on Information Theory, Vol.8, No.2, pp.179-187,1962)に詳細に記載されているので、その理論については省略し、Hu momentに基づく動作認識手法をDMHIに拡張した動作認識手法を以下に示す。
まず、(3)〜(6)式で示されるDMHIに対応する動きの情報を持つモーションエナジーイメージ(DMEI; Directional Motion Energy Images)を生成する。これは(2)式で示されるMEIの場合と同様に、式(2)によりDMHIを閾値0で2値化して得られる。得られたDMHIおよびDMEIの合計8つの特徴画像からそれぞれ7つのHu momentを求め、合計56個の特徴量を得る。
また、DMHIは動きの向きを考慮しているため、動きの向きによって大きい動きが表れる成分と、あまり動きが表れない成分がある。図5の箱をつかんで持ち上げる動作の場合、上下方向のMHIは左右方向のMHIより大きな動きが表れていることがわかる。そこで、DMHI間の方向による動きの割合を考慮するために、各DMHIの0次モーメントを新たな特徴量として加える。各0次モーメントは4つのDMHIから得られる0次モーメントの合計で合計が1になるように正規化する。同様にDMEI間でも正規化された0次モーメントを求め、計8つの特徴量を求める。これとHu momentより得られた56個の特徴量を加え、合計64個の特徴量を成分とする64次元のベクトルを、その動作を表現する特徴ベクトルとする。
Bobickら(非特許文献1)は、MHIおよびMEIから得られる特徴ベクトルを用いた認識手法として統計モデルに基づく手法を用いている。すなわち、学習データから特徴ベクトルを計算し平均と分散を求め、未知データとのマハラノビス距離を用いて最も近い動作を求めている。しかし、Hu momentは1つの画像を7次元のベクトルで表現するため、その表現に限りがある。そのため、複数の動作からHu momentに基づく特徴ベクトルを求め、特徴ベクトルから構成される多次元の特徴空間内での分布を考える場合、全ての動作が離れて分布するとは限らない。そのため平均と分散のみで分布を近似する認識法では誤認識が増える可能性がある。そこで、提案する手法では学習データのサンプルを全て記憶しておく全点探索に基づくk‐近傍法(k‐NN)を用いる。全点探索の手法は計算コストが大きいという欠点はあるが、複雑な分布を持つクラスタの認識に適している(非特許文献3:鳥脇純一郎,テレビジョン学会教科書シリーズ9 認識工学‐パターン認識とその応用‐,コロナ社,2002参照)。
よって、動作認識処理の流れは以下のようになる。まず事前に認識したい動作データから重ね合わせ画像からなるテンプレート画像であるDMHIおよびDMEIを求め、特徴ベクトルを算出しデータベース内に特徴ベクトルと動作ラベルを対応させて記憶しておく。そして認識させたい未知の動作が得られた場合、これからDMHIとDMEIを求め特徴ベクトルを算出し、データベース内の特徴ベクトルとのユークリッド距離を求め最も近いk個のサンプルを抽出するパターンマッチングを行い、このサンプルに対応する動作ラベルの多数決により動作を認識する。この動作認識処理の概略を図6に示す。
なお、前述した実施の形態で説明した動体の動作表示方法は、非特許文献1に記載された手法に基づくものであるが、式(3)〜(6)に示すように閾値を要件とする。そこで、閾値が異なると解が異なるので、閾値のないDMHIについて説明する。
先の式(1)で説明したように、多値の入力画像から生成されるMHIは以下の式(7)で表される。
σ(x,y,t)=max(f(x,y,t),σHσ(x,y,t−1)) ・・・(7)
ここでf(x,y,t)はtフレーム目における入力画像、保存率σはτに対応するパラメータで0<σ<1の値を持ち、1に近いほど過去の画像が残り、0に近いほど過去の画像は早く消去される。この式より得られるMHIは0を最小値とした実数値画像である。
一方、DMHIの入力として用いられる方向成分は、オプティカルフローの垂直・水平成分を正負に分解した値の絶対値が入っているため、これも0を最小値とした実数値画像である。よって、式(7)はそのままDMHIの生成に用いることができる。
以上で述べたHu momentに基づく動作認識手法は、Hu momentの表現に限界があり、特徴空間内で同じ動作から得られた特徴ベクトルのクラスタが動作ごとに集まって構成されるとは限らない。前記実施の形態では、この問題解決のためk‐NN法を用いたが、サンプル数が増加すると計算コストの面でこの方法は現実的ではない。そこで、MHIをバウンディングボックスで切り出し大きさの正規化を行った画像から特徴ベクトルを抽出することもできる。特徴ベクトルの抽出には固有空間法を適用した後、線形識別分析法(LDA; Linear Discriminant Analysis)を適用し、固有空間内で各動作のクラスタが最も分かれる最小次元の特徴量を抽出する。
LDAは前述の非特許文献3に記載されているが、d次元の特徴ベクトルxで表現されるデータ群がc個のクラスに分類されているとき、特徴ベクトルを各クラス内の分散が小さく、かつ各クラス間の分散が最大となるような(c−1)次元の空間に線形写像する手法である。
まず、与えられているデータ群を用いて特徴ベクトルを低次元空間に写像する写像行列を求める。クラスω(i=1,・・・,c)に属するデータの平均ベクトルおよびデータ数をベクトルxおよびNとし、クラスωの共分散行列Σを、式(8)と定義すると、クラス内変動行列Σおよびクラス間変動行列Σは式(9)、式(10)より得られる。ここでベクトルxおよびNは全データの平均ベクトルおよびデータ数である。
ΣおよびΣより、Σ=λΣとなる固有方程式を解き、得られた固有値のうち大きいものから(c−1)番目までの固有値に対応する固有ベクトルより写像行列PLDA=[e・・・ec−1]が求まる。
認識は、未知データがどのクラスに属するかの判定を写像行列により写像された空間内で行う。本発明では、変換後の空間での各クラスの平均ベクトルと共分散行列を用いてそのクラスを表現し、未知データの写像点とのマハラノビス距離が最も近いクラスが未知データの属するクラスであるという判定を行う。なお、認識実験の前にLDAによる写像行列および平均ベクトル、共分散行列をあらかじめ算出する作業を「学習」と呼ぶこととする。
本発明ではクラスは動作の種類とし、特徴ベクトルとして大きさを正規化したDMHIを用いる。DMHIは4つの成分を持つ2次元画像であるので、ラスタスキャンにより4つの画像データを1つのベクトルとして繋げる。したがって、1つのMHIの総画素数がPであれば、DMHIから生成される画像ベクトルの次元は4Pとなる。なお、LDAを適用する場合、学習データの次元数が全データ数からクラス数を引いた値以下であることを満たす必要があるため、本発明方法ではLDAの前処理として主成分分析(PCA; Principal Component Analysis)を学習データに適用する。この画像ベクトルに対しまずPCAを行い、PCAにより無意味な情報を削減したベクトルに対しLDAを適用する。なお、PCAにより得られる写像行列とLDAにより得られる写像行列の乗算により、画像ベクトルからLDAにより得られる特徴空間へ直接写像することができる。
続いて、本発明の作用効果を確認するために行った実施例について説明する。
[実施例1]
図7に示すように、対象者の向いている方向を中心に取り囲むように配置された4台のカメラを用いて、11人の5種類の動作を撮影した。動作は「箱をつかんで持ち上げる」、「小さなものを拾う」、「うずくまる」、「その場で歩く」、そして「倒れる」である。動作の例を図8に示す。
この実験では、動作1つを1つの動画ファイルとして切り出し、その動画ファイルの最終フレーム時点で得られるMHIおよびDMHIを認識に用いた。MHIおよびDMHIに残す履歴の長さを決定するパラメータτはファイルのフレーム数と同じとした。
実験の学習にはLeave-one-out法を用いた。一人分のデータをテスト用に取り出し、残りのデータを用いて学習を行った。学習時サンプルをデータベースに登録する際にはカメラの向きに関係なく動作ラベルのみを登録した。
パラメータの設定は以下の通りである。MHIの入力画像を生成するためのフレーム間差分画像の閾値は40、DMHIの閾値thは1.0、認識のためのk‐NNはk=3とした。実験結果より得られた認識率を表1に示す。表1(a)がMHI(従来例)の結果、(b)がDMHI(本発明)の結果である。
また、LDAに基づく認識手法をこの実験で生成されたMHIおよびDMHIに適用した場合の結果を表2に示す。同様に、(a)がMHIの結果、(b)がDMHIの結果である。LDAの前処理に用いた固有空間法は累積寄与率が90%となる最小の次元を用いた。また、LDAを適用する領域の切り出しには対象者の追跡は行わず、MHIの場合MEIをラベリングし最大面積となった領域を、DMHIの場合はDMEIの論理OR画像をラベリングし最大面積となった領域を32×32[pixel]に正規化したものを用いた。
この実験で得られたMHIおよびDMHIの例を図9に示す。
[実施例2]
実験は9人の6種類の動作を用いた。結果の比較のため、次の4種類の手法で実験を行った。
1.フレーム間差分の2値画像を入力とする式(1)で生成されるMHI(従来技術)に先に述べたLDAに基づく認識を用いる手法
2.フレーム間差分を入力とする式(7)で生成されるMHIにLDAに基づく認識を用いる手法
3.オプティカルフローの方向成分の2値画像を入力とする式(3)〜式(6)で生成されるDMHIにLDAに基づく認識を用いる手法(本発明)
4.オプティカルフローの方向成分を入力とする式(7)で生成されるDMHIにLDAに基づく認識を用いる手法(本発明)
これらの手法を実装したのは、式(7)から生成される閾値の必要ないMHIおよびDMHIと、2値画像から生成されるMHIおよびDMHIとの比較による性能評価、および従来のMHIとの比較によるDMHIの性能評価のためである。
パラメータの設定は以下の通りである。2値画像を入力とするMHIの生成のためのフレーム間差分の閾値は20、DMHI生成のための方向成分の閾値は1.0とした。LDAの前処理に用いたPCAは累積寄与率が90%となる最小の次元を用いた。なお、式(7)からDMHIを生成する手法では、ノイズ除去のため、動きベクトルを方向成分に分割後、各成分の値がある閾値以上であった場合はその閾値に置き換えその値を抑制した。この実験では方向成分が3.0以上だった場合とした。
この実験でも認識結果を算出する際に複数の異なるパラメータで生成されたMHIの多数決を行っている。今回は3つのMHIの多数決を行った。MHIのパラメータは、2値画像から生成されるMHIで25、30、35、多値のMHIで0.95、0.92、0.89とした。
実験結果を表3に示す。表3(a)は式(1)より生成されたMHIによる結果、(b)は式(7)より生成されたMHIによる結果、(c)は式(3)〜式(6)より生成されたDMHIの結果、そして(d)は式(7)より生成されたDMHIの結果である。
本発明の一実施の形態に係る動体の動作認識方法を適用した動作認識装置の構成図である。 フレーム画像の説明図(写真を含む)である。 差分画像の説明図である。 本発明の一実施の形態に係る動体の動作表示方法の説明用写真である。 同方法の説明用写真である。 フーモメント処理の説明図である。 実施例の状況を示すカメラ配置図である。 動体(人物)の各動作を示す写真である。 実施例で用いた各動作から生成されるMHIとDMHIの例を示す写真である。
符号の説明
10:動画認識装置、11:映像入力部、12:動きベクトル生成部、13:動きベクトル分解部、14:重ね合わせ画像生成部、15:特徴ベクトル抽出部、16:動画認識部、18、19:フレーム画像、20:動きベクトル画像、21〜24:画像

Claims (5)

  1. 入力された時系列画像の連続する2枚の画像から動体の動きベクトルを計算し、この動きベクトル成分を異なる複数方向にそれぞれ動きのみを表現する複数種類の画像に分解し、該複数種類の画像をそれぞれ独立して時間軸方向に重みを付けて重ね合わせ画像を形成することを特徴とする動体の動作表現方法。
  2. 請求項1記載の動体の動作表現方法において、前記異なる複数方向は、前記動きベクトルの画像に対して上下左右の4方向であることを特徴とする動体の動作表現方法。
  3. 認識したい動作を行う動体を含む画像から請求項1および2のいずれか1項に記載の動体の動作表現方法によって得られた前記重ね合わせ画像、および認識を行う前に予め用意していたテンプレート画像のパターンマッチングによって、前記動体の動作を認識することを特徴とする動体の動作認識方法。
  4. 請求項3記載の動体の動作認識方法において、前記パターンマッチングは、前記重ね合わせ画像から特徴量を抽出し、この特徴量と予め用意された前記テンプレート画像の特徴量とのユークリッド距離を計算することによって行うことを特徴とする動体の動作認識方法。
  5. 請求項3および4のいずれか1項に記載の動体の動作認識方法において、前記テンプレート画像は、既知の動作を行う動体を含む映像から前記動作表現方法によって得られる重ね合わせ画像からなることを特徴とする動体の動作認識方法。
JP2006355662A 2006-12-28 2006-12-28 動体の動作認識方法 Active JP4929460B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006355662A JP4929460B2 (ja) 2006-12-28 2006-12-28 動体の動作認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006355662A JP4929460B2 (ja) 2006-12-28 2006-12-28 動体の動作認識方法

Publications (2)

Publication Number Publication Date
JP2008165578A true JP2008165578A (ja) 2008-07-17
JP4929460B2 JP4929460B2 (ja) 2012-05-09

Family

ID=39694968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006355662A Active JP4929460B2 (ja) 2006-12-28 2006-12-28 動体の動作認識方法

Country Status (1)

Country Link
JP (1) JP4929460B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061376A (ja) * 2008-09-03 2010-03-18 National Institute Of Advanced Industrial Science & Technology 動作評価装置および動作評価方法
JP2013145453A (ja) * 2012-01-13 2013-07-25 Nippon Telegr & Teleph Corp <Ntt> 動作分析装置、方法、及びプログラム
WO2013146156A1 (ja) * 2012-03-29 2013-10-03 スタンレー電気株式会社 被測定物情報取得装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10285581A (ja) * 1997-04-04 1998-10-23 Fujitsu Ltd 自動監視装置
JP2002374520A (ja) * 2001-06-14 2002-12-26 Hitachi Ltd 動画像表示方法、映像による監視装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10285581A (ja) * 1997-04-04 1998-10-23 Fujitsu Ltd 自動監視装置
JP2002374520A (ja) * 2001-06-14 2002-12-26 Hitachi Ltd 動画像表示方法、映像による監視装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061376A (ja) * 2008-09-03 2010-03-18 National Institute Of Advanced Industrial Science & Technology 動作評価装置および動作評価方法
JP2013145453A (ja) * 2012-01-13 2013-07-25 Nippon Telegr & Teleph Corp <Ntt> 動作分析装置、方法、及びプログラム
WO2013146156A1 (ja) * 2012-03-29 2013-10-03 スタンレー電気株式会社 被測定物情報取得装置
JP2013205368A (ja) * 2012-03-29 2013-10-07 Stanley Electric Co Ltd 被測定物情報取得装置

Also Published As

Publication number Publication date
JP4929460B2 (ja) 2012-05-09

Similar Documents

Publication Publication Date Title
Jiang et al. Multi-layered gesture recognition with Kinect.
US8620024B2 (en) System and method for dynamic gesture recognition using geometric classification
Sonkusare et al. A review on hand gesture recognition system
Schwarz et al. Manifold learning for tof-based human body tracking and activity recognition.
JP2008310796A (ja) コンピュータにより実施される、訓練データから分類器を構築し、前記分類器を用いてテストデータ中の移動物体を検出する方法
Kuzmanic et al. Hand shape classification using DTW and LCSS as similarity measures for vision-based gesture recognition system
CN110688965A (zh) 基于双目视觉的ipt模拟训练手势识别方法
Alksasbeh et al. Smart hand gestures recognition using K-NN based algorithm for video annotation purposes
Paul et al. Extraction of facial feature points using cumulative histogram
Chen et al. Silhouette-based object phenotype recognition using 3D shape priors
He et al. Scale space histogram of oriented gradients for human detection
Song et al. Visual-context boosting for eye detection
Vafadar et al. A vision based system for communicating in virtual reality environments by recognizing human hand gestures
Jalilian et al. Persian sign language recognition using radial distance and Fourier transform
JP4929460B2 (ja) 動体の動作認識方法
KR20090050199A (ko) 광류와 은닉 마르코프 모델을 이용한 실시간 얼굴 표정인식
Vo et al. Dynamic gesture classification for Vietnamese sign language recognition
KR101035291B1 (ko) 관절모델db을 이용한 포즈인식 시스템
Caplier et al. Comparison of 2D and 3D analysis for automated cued speech gesture recognition
Poonkodi et al. RETRACTED ARTICLE: Action recognition using Correlation of Temporal Difference Frame (CTDF)—an algorithmic approach
Elsayed et al. Hybrid method based on multi-feature descriptor for static sign language recognition
Rasines et al. Feature selection for hand pose recognition in human-robot object exchange scenario
Mahbub et al. One-shot-learning gesture recognition using motion history based gesture silhouettes
Ayre-Storie et al. Deep learning-based human posture recognition
Naveed et al. Comparison of GLCM based hand gesture recognition systems using multiple classifiers

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110712

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150