JP2007280219A - 動きパターン認識装置、動きパターン認識方法及び動きパターン認識プログラム - Google Patents

動きパターン認識装置、動きパターン認識方法及び動きパターン認識プログラム Download PDF

Info

Publication number
JP2007280219A
JP2007280219A JP2006107910A JP2006107910A JP2007280219A JP 2007280219 A JP2007280219 A JP 2007280219A JP 2006107910 A JP2006107910 A JP 2006107910A JP 2006107910 A JP2006107910 A JP 2006107910A JP 2007280219 A JP2007280219 A JP 2007280219A
Authority
JP
Japan
Prior art keywords
motion pattern
trajectory
dimensional
pattern recognition
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006107910A
Other languages
English (en)
Inventor
Hidetomo Sakaino
英朋 境野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006107910A priority Critical patent/JP2007280219A/ja
Publication of JP2007280219A publication Critical patent/JP2007280219A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】人や車などの動きパターンを個人差を吸収して学習・認識する。
【解決手段】画像入力部100から入力された時系列画像から移動体の重心位置を移動軌跡として算出して軌跡蓄積部120に記憶しておき、メッシュ生成部130により、移動軌跡を検出する2次元平面を複数のメッシュに分割してそれぞれのメッシュに番号を付与し、1次元シンボル値算出部140により、算出した移動軌跡が存在したメッシュに付与された番号を時系列順に取得して、移動軌跡を1次元シンボル値に変換する。これにより、動きパターン学習部150により、HMMを適用して動きパターンを学習するとともに、動きパターン認識部160により、HMMを適用して動きパターンを認識することが可能となり、移動軌跡を精度よくかつ安定に学習・認識することができる。
【選択図】図1

Description

本発明は、動きパターンを学習・認識する技術に関する。
防犯における人の行動パターン解析や交通渋滞、交通事故パターン解析などには、移動体の動きパターンを学習し、認識する技術が必要とされている。人や車などの移動体の動きをカメラやセンサーなどで検出して画像化し、その画像を元にして移動体の動きを学習・認識する方法としては、ある地点からある地点への移動軌跡を1つの形状パターンとみなし、形状パターンの類似性に着目して学習・認識する方法が知られている。移動軌跡を形状パターンとして用いる方法は、認識する形状パターンと過去の蓄積されたデータベース内の形状パターンとの類似性を相互相関係数により定量的に評価する。また、交差点内などの車の動きを学習・認識する方法は、ある地点を通過したときの台数を計数したり、交差点内の交通の流れを大まかに人の目で計数することが多く、人手に頼っており、単純な動きを分類することに留まっている。
一方、音声認識の分野では、高い認識率を保つ隠れマルコフモデル(HMM:Hidden Markov Model)が学習・認識方法として盛んに用いられている(非特許文献1−3参照)。なお、HMMを画像の動きに適用した技術として、特許文献1に記載のものが提案されている。
特開2005−250708号公報 T.E. Starner、外2名、"Real-time american sign language recognition using desk and wearable computer based video"、IEEE Trans. PAMI、1998年、vol. 20、no. 12、p.1371-1375 S.S. Fels、外2名、"Glove-talk: a neural network interface which maps gestures to parallel format speech synthesizer controls"、IEEE Trans. Neural Network、1997年、vol. 9、no. 1、p.205-212 H.K. Lee、外1名、"An HMM-based threshold model approach for gesture recognition"、1999年、IEEE Trans. PAMI、vol. 21、no. 10、p.961-973 "Mesh Generation & Grid Generation on the Web"、[online]、[平成18年3月31日検索]、インターネット<URL:http//www-users.informatik.rwth-aachen.de/~roberts/meshgeneration.html> J.L. Barron、外2名、"Performance of optical flow techniques"、IJCV、1994年、vol. 12、no. 1、p43-77
しかしながら、従来の形状パターンを比較する方法では、形状パターンに個人差があり、ずれていることがほとんどであって、相互相関係数だけでは的確な学習と認識をすることができない。また、個人差以外にも、移動体が建物や樹木などに見え隠れするオクルージョン問題が発生し、安定した学習や認識が困難となる。さらに、形状パターンを静的に解析する以外に、時間的な変化を解析できるような動的な学習・認識方法も必要とされている。
一方、時間伸縮(弾性)マッチングとして知られており、個人差を柔軟に吸収することができるHMMは、音声認識に広く採用されているが、HMMを適用するためには、1次元のシンボル出力系列が必要であり、画像から得られる2次元の動きをどのようにして1次元シンボル出力系列に変換するのかが問題となる。
さらに、HMMの学習では認識精度を確保するために一定数以上の学習データが必要であるが、いかにして学習データの不足を補うのかという問題がある。また、不審な動きや交通事故などの事象は重要であるものの、人の記憶にしか残っていないことが多く、そのような事象をいかにして学習し、動きパターン認識に反映させるのかが課題となっている。
本発明は、上記に鑑みてなされたものであり、その課題とするところは、動きパターンを精度よくかつ安定に学習・認識することにある。
本発明の別の目的は、動きパターンの学習データの不足を補うことや、目撃情報など人の記憶している特徴的な動きパターンの学習を可能とすることにある。
第1の本発明に係る動きパターン認識装置は、時系列画像を入力する画像入力手段と、時系列画像から移動軌跡を取得し、当該移動軌跡の2次元平面における時系列順の位置座標を2次元位置情報群として軌跡蓄積手段に記憶させる軌跡取得手段と、2次元平面を複数のメッシュに分割し、当該メッシュの各々に異なる番号を付与して記憶手段に記憶させるメッシュ生成手段と、軌跡蓄積手段から2次元位置情報群を読み出すとともに、記憶手段からメッシュを読み出し、2次元位置情報群の各2次元位置情報が対応するメッシュに付与された番号を時系列順に取得することによって2次元位置情報群を1次元シンボル値に変換する1次元シンボル値算出手段と、認証対象となる動きパターンのそれぞれに対応する隠れマルコフモデルパラメータを蓄積する動きパターン蓄積手段と、1次元シンボル値に基づいて学習する動きパターンに対応する隠れマルコフモデルパラメータを動きパターン蓄積手段から読み出し、当該1次元シンボル値に基づいて当該隠れマルコフモデルパラメータを最適化して動きパターン蓄積手段に記憶させる学習手段と、動きパターン蓄積手段から最適化した隠れマルコフモデルパラメータをそれぞれ読み出し、読み出した隠れマルコフモデルパラメータ毎に、当該隠れマルコフモデルパラメータを用いて1次元シンボル値に対する尤度を算出し、当該尤度のうち最大の尤度を有する隠れマルコフモデルパラメータに対応する動きパターンを当該1次元シンボル値の識別結果とする識別手段と、を有することを特徴とする。
本発明にあっては、入力された時系列画像から移動軌跡を取得し、移動軌跡の2次元平面における2次元位置情報を記憶するとともに、移動軌跡を検出する2次元平面を複数のメッシュに分割してそれぞれのメッシュに番号を付与し、移動軌跡の2次元位置情報の各々が対応したメッシュに付与された番号を時系列順に取得して1次元シンボル値を算出することにより、動きパターンの学習・認識に時間軸方向の変動に対して強い隠れマルコフモデルに適用することができるので、動きパターンを精度よくかつ安定に学習・認識することを可能とする。
上記動きパターン認識装置において、移動軌跡を入力する軌跡入力手段を有することを特徴とする。
本発明にあっては、移動軌跡を直接入力するための移動軌跡入力手段を備えることにより、時系列画像以外から移動軌跡を取得することができるので、人の記憶している特徴的な動きパターンの学習や学習データの不足を補うことを可能とする。
上記動きパターン認識装置において、メッシュ生成手段は、三角分割法を用いて2次元平面を所定の分割数で複数のメッシュに分割することを特徴とする。
本発明にあっては、三角分割法を用いることにより、メッシュの生成を効率よく行うことを可能とする。
上記動きパターン認識装置において、メッシュの形状を加工するメッシュ加工手段を有することを特徴とする。
本発明にあっては、生成したメッシュを加工するためのメッシュ加工手段を備えることにより、必要な部分についてはメッシュを細かくし、不要な部分についてはメッシュを荒くすることができるので、移動軌跡の学習・認識の精度を確保することを可能とする。
上記動きパターン認識装置において、軌跡取得手段は、時系列画像に映された移動体の重心を算出して当該重心の軌跡を移動軌跡として取得することを特徴とする。
本発明にあっては、時系列画像に映された移動体が画像に対して大きい場合に、移動体の移動軌跡を算出するうえで望ましい。
上記動きパターン認識装置において、軌跡取得手段は、時系列画像に対してオプティカルフロー法を適用して平均速度ベクトルを算出し、当該平均速度ベクトルの始点を複数のメッシュに分割した2次元平面の中心に置いたときの終点の軌跡を移動軌跡として取得することを特徴とする。
本発明にあっては、時系列画像に対してオプティカルフロー法を適用して、動き変化を平均速度ベクトルとして捉えることにより、その平均速度ベクトルから移動軌跡を取得することを可能とする。
上記動きパターン認識装置において、軌跡取得手段は、時系列画像に対してオプティカルフロー法を適用して平均速度ベクトルを算出し、当該平均速度ベクトルが存在するメッシュの重心を算出して当該重心の軌跡を移動軌跡として取得することを特徴とする。
本発明にあっては、時系列画像に対してオプティカルフロー法を適用して、動き変化を平均速度ベクトルとして捉えることにより、その平均速度ベクトルから移動軌跡を取得することを可能とする。
上記動きパターン認識装置において、軌跡取得手段は、時系列画像に対してオプティカルフロー法を適用して動きベクトルを算出し、当該動きベクトルが検出された領域の重心を算出して当該重心の軌跡を移動軌跡として取得することを特徴とする。
本発明にあっては、時系列画像に対してオプティカルフロー法を適用して、動きベクトルを検出し、その動きベクトルが検出された領域の重心から移動軌跡を取得することを可能とする。
第2の本発明に係る動きパターン認識方法は、時系列画像を入力するステップと、時系列画像から移動軌跡を取得し、当該移動軌跡の2次元平面における時系列順の位置座標を2次元位置情報群として軌跡蓄積手段に記憶させるステップと、軌跡蓄積手段から2次元位置情報群を読み出すとともに、2次元平面を複数のメッシュに分割して当該メッシュの各々に異なる番号を付与して記憶した記憶手段からメッシュを読み出し、2次元位置情報群の各2次元位置情報が対応するメッシュに付与された番号を時系列順に取得することによって2次元位置情報群を1次元シンボル値に変換するステップと、認証対象となる動きパターンのそれぞれに対応する隠れマルコフモデルパラメータを1つ以上動きパターン蓄積手段に記憶させるステップと、1次元シンボル値に基づいて学習する動きパターンに対応する隠れマルコフモデルパラメータを動きパターン蓄積手段から読み出し、当該1次元シンボル値に基づいて当該隠れマルコフモデルパラメータを最適化して動きパターン蓄積手段に記憶させるステップと、動きパターン蓄積手段から隠れマルコフモデルパラメータをそれぞれ読み出し、読み出した隠れマルコフモデルパラメータ毎に、当該隠れマルコフモデルパラメータが1次元シンボル値を出力する尤度を算出し、算出した当該尤度のうち最大の尤度を有する隠れマルコフモデルパラメータに対応する動きパターンを当該1次元シンボル値の識別結果とするステップと、識別結果を得るステップで得られた識別結果を出力するステップと、を有することを特徴とする。
第3の本発明に係る動きパターン認識プログラムは、コンピュータを上記動きパターン認識装置が有する各手段として機能させることを特徴とする。
本発明によれば、動きパターンを精度よくかつ安定に学習・認識することができる。
また、別の本発明によれば、動きパターンの学習データの不足を補うことや、目撃情報など人の記憶している特徴的な動きパターンの学習が可能となる。
以下、本発明の実施の形態について図面を用いて説明する。
図1は、一実施の形態における動きパターン認識装置の構成を示すブロック図である。同図に示す動きパターン認識装置1は、画像入力部100、軌跡取得部110、軌跡蓄積部120、メッシュ生成部130、1次元シンボル値算出部140、動きパターン学習部150、動きパターン認識部160、動きパターン蓄積部170、出力部180およびマウス190を有する。動きパターン認識装置1は、演算処理装置、記憶装置、メモリ等を備えたコンピュータにより構成できるものであり、各部の処理はプログラムによって実行される。プログラムはコンピュータの記憶装置に記憶されており、記録媒体に記録することも、ネットワークを通して提供することも可能である。以下では、各部の処理の概略について説明する。
画像入力部100は、移動体の連続画像をカメラやセンサーなどから受け取りメモリに記憶させる。
軌跡取得部110は、画像入力部100から移動体の連続画像を受け取り移動体の移動軌跡を取得し、取得した移動軌跡の2次元平面における位置座標を時系列順に軌跡蓄積部120に記憶させる。移動体の移動軌跡の取得は、画像入力部100から取得した画像上の移動体の位置を把握したり、移動体の重心を算出することにより行う。
また、連続画像によらず、軌跡取得部110に接続されたマウス190により移動軌跡を直接取得してもよい。これにより、動きパターンの学習データの不足を補うことや、人の記憶している特徴的な動きパターンの学習が可能となる。なお、マウス190の代わりにタブレットやタッチパネルなどのポインティングデバイスを使用してもよく、画像の上をポインティングデバイスでなぞって軌跡を入力するようなGUI(Graphical User Interface)を備えていてもよい。
軌跡蓄積部120は、移動体の移動軌跡である時系列2次元位置情報を記憶する。
メッシュ生成部130は、人や車などの移動体の移動軌跡を検出する2次元平面内を分割してメッシュを生成し、各メッシュに対して番号を付与し、記憶装置などに記憶させる。メッシュの生成は、例えば、図2(a)に示すように、コンピュータグラフィクスで広く用いられている三角分割法(Triangulation 法、非特許文献4参照)を用いて、矩形領域200を事前に定義した縦横の分割数で三角形に分割することにより行う。分割して生成された各メッシュには、自動的に番号が付与される。同図に示す例では、1から40までの番号が付与されている。また、必要に応じて、マウス190によりメッシュをさらに分割して細かくしたり、メッシュを結合して粗くしたりすることができる。例えば、図2(b)に示すように、必要に応じて、障害物210を想定し、メッシュを省いたり、同図右側のメッシュのように、メッシュをさらに細かく分割することも可能である。さらに、図3(c)に示すように、移動軌跡を検出する領域が円形220の場合であっても、メッシュを生成することができる。
1次元シンボル値算出部140は、軌跡蓄積部120から読み出した2次元位置情報の各々がメッシュ生成部130において生成したどのメッシュに対応するか判断し、対応するメッシュに付与された番号を時系列順に取得することによって、移動軌跡を表す2次元位置情報から1次元時系列データである1次元シンボル値に変換する。例えば、図3(a)に示すような移動軌跡300が検出された場合、移動軌跡300は、図3(b)で示すようにマークがついたメッシュを通過しており、図2(b)で示すように各メッシュに番号が付与されていた場合、図3(c)に示す1次元シンボル値が得られる。
動きパターン学習部150は、1次元シンボル値に基づいてHMMを用いて動きパターンを学習し、学習した動きパターンを動きパターン蓄積部170に記憶させる。この具体的な学習方法については後述する。
動きパターン認識部160は、1次元シンボル値がパターン蓄積部170に蓄積されたどの動きパターンに該当するかHMMを用いて認識する。この具体的な認識方法については後述する。
出力部180は、動きパターン認識部160で認識した動きパターンの特徴とその動きパターンが表す事象を出力する。動きパターンが表す事象とは、例えば、人の顔の表情を認識する場合は喜怒哀楽などを表す言葉である。
次に、動きパターン認識装置1の動作について図4に示すフローチャートを用いて説明する。
まず、画像入力部100により、カメラやセンサなどから移動軌跡を検出するための連続画像を入力し(S1)、軌跡取得部110により、連続画像から移動軌跡を取得し、時系列2次元位置情報として軌跡蓄積部120に記憶させる(S2)。なお、移動軌跡は、軌跡取得部110に接続されたマウス190から入力されるものでもよい。
続いて、メッシュ生成部130により、移動軌跡を1次元シンボル値に変換するための番号付きメッシュを生成する(S3)。なお、番号付きメッシュは動きパターンの学習・認識の際に、毎回生成する必要はなく、記憶装置などから読み出してもよい。
その後、1次元シンボル値算出部140により、軌跡蓄積部120から2次元位置情報を読み出し、2次元位置情報が対応するメッシュの番号を時系列順に取得することによって、移動軌跡から1次元シンボル値を算出する(S4)。
取得した移動軌跡から動きパターンを学習する場合は、算出した1次元シンボル値にHMMを適用して動きパターンを学習する(S5)。具体的な学習方法については後述する。
取得した移動軌跡の動きパターンを認識する場合は、算出した1次元シンボル値にHMMを適用して動きパターンを認識し(S6)、取得した移動軌跡がどの動きパターンに該当するか出力する(S7)。なお、具体的な認識方法については後述する。
次に、動きパターンの学習・認識に用いられるHMMについて説明する。図5は、2状態25出力のHMMの例を示している。同図のs1,s2は状態を表し、a11,a12,a21,a22は、ある状態から矢印の示す状態へ遷移する状態遷移確率を表している。b11〜b125とb21〜b225は、それぞれ状態s1,s2のときに1から25のシンボルが出力されるシンボル出力確率を表している。
HMMは、パラメータとして状態遷移確率A、シンボル出力確率B、初期状態確率πを持ち、これらのパラメータを用いて、HMMをλ={A,B,π}と表現する。なお、各パラメータは、下記のように示される。
Figure 2007280219
式1のSは状態の集合であり、stは時刻tにおける状態を表している。式2のo1,o2,・・・,orは、観測されたシンボル系列を表している。式3のaijは状態iから状態jへ遷移する確率、式4のbj(ot)は、状態jにおいてotを出力する確率、式5のπiは、初期状態が状態iである確率を表している。
HMMによる学習とは、各パラメータを推定することであり、認識対象の各カテゴリーCi(動きパターン)毎に1つのモデルλiで構成される。モデルλiの推定には、Baum−Welchアルゴリズムを適用してモデルλiを最適化し、シンボル系列を出力する確率(尤度)の変化が一定範囲内に収まることでそのカテゴリーのモデルλiが推定(学習)できたと判断する。なお、HMMを学習する過程では、カテゴリー毎に収束率が異なることがある。
HMMによる認識は、認証対象のシンボル系列Oに対して各カテゴリー毎のモデルλiについてそれぞれ尤度P(O|λi)を計算し、最大尤度を有するカテゴリーCk(k=argmaxi(P(O|λi)))を認証結果として採用する。
尤度の計算は、forwardアルゴリズムによって再帰的に進められる。時刻tの時に、o1,o2,・・・,otというシンボル系列を出力して、状態iにいる確率を式6のように定義する。
Figure 2007280219
尤度P(O|λ)は、下記に示す式7のように表され、式8,9に示すαt(i)の漸化式で記述することができ、この漸化式により求めることができる。
Figure 2007280219
なお、式7のSFは、最終状態の集合を表している。このように、HMMでは、シンボル系列全体から尤度計算が行われるため、カテゴリー特有のシンボル列パターンが現れていれば、時間軸方向の多少の移動、伸縮などに対してロバストである。
図6は、顔の表情を認識するための1次元シンボル値を求める例を示す図である。顔の表情認識は、顔筋の複雑な動きにより作り出される喜怒哀楽を画像処理により識別するものである。顔の表情のような動きの変化から動作軌跡を得るために、コンピュータビジョン分野でよく用いられているオプティカルフロー法(非特許文献5参照)を適用する。オプティカルフロー法により顔の表情600から皮膚の細かい動きを検出し、複数検出された動きベクトルに基づいて平均速度ベクトル610を求める。そして、半円形メッシュ620を用いて平均速度ベクトル610が存在するメッシュの重心を出し、その重心の軌跡を移動軌跡として2次元位置情報を得る。また、平均速度ベクトルの始点を半円形メッシュ620の中心に置き、終点の軌跡を移動軌跡としてもよい。あるいは、動きベクトルの検出された領域から重心を算出し、その重心の軌跡を移動軌跡としてもよい。なお、多くの場合、顔の表情は左右対称であり、平均速度ベクトルを計算すると動きが相殺されるので、顔の半分だけから平均速度ベクトルを求める。メッシュは、三角形だけでなく、図6に示すように、半円形を扇形に分割し、分割した扇形をさらに径方向に分割した半円形メッシュ620であってもよい。
図7は、認識率に関する評価実験の結果を示すグラフである。同図の本手法が示す認識率は、本発明を実施した場合の動きパターンの認識率であり、従来法が示す認識率は、移動軌跡を一筆書きの形状パターンとみなして、形状パターンの類似性を相互相関係数により評価する方法を用いたときの動きパターンの認識率である。従来法では、個人内変動と個人差があるために、同じ動作パターンがほとんど得られなかったため、認識できるパターンを見つけることが困難な場合が多かった。一方、本手法では、個人差などの影響が吸収されるので高い認識率を得ることができた。
したがって、本実施の形態によれば、軌跡取得部110により、画像入力部100から入力された時系列画像から移動体の2次元平面における位置を取得して、軌跡蓄積部120に記憶しておき、メッシュ生成部130により、移動軌跡を検出する2次元平面を複数のメッシュに分割してそれぞれのメッシュに番号を付与し、1次元シンボル値算出部140により、取得した2次元位置情報に該当するメッシュに付与された番号を時系列順に取得して、移動軌跡を1次元シンボル値に変換することにより、動きパターン学習部150により、HMMを適用して動きパターンを学習するとともに、動きパターン認識部160により、HMMを適用して動きパターンを認識することが可能となるので、移動軌跡を精度よくかつ安定に学習・認識することができる。
本実施の形態によれば、マウス190により、軌跡取得部110に移動軌跡を入力することで、人の記憶している特徴的な動きパターンの学習や学習データの不足を補うことができる。
本実施の形態によれば、メッシュ生成部130により、三角分割法を用いることで、メッシュの生成を効率よく行うことができる。
本実施の形態によれば、マウス190により、メッシュ生成部130で生成したメッシュを必要な部分についてはメッシュを細かくし、不要な部分についてはメッシュを荒くすることで、移動軌跡の学習・認識の精度を確保することを可能とする。
本実施の形態によれば、軌跡取得部110により、顔の表情などの動き変化をオプティカルフロー法を適用して、平均速度ベクトル610として捉えることにより、その平均速度ベクトル610から移動軌跡を算出することができる。
本実施の形態によれば、軌跡取得部110により、顔の表情などの動き変化をオプティカルフロー法を適用して、平均速度ベクトル610として捉えることにより、その平均速度ベクトル610が存在するメッシュの重心から移動軌跡を算出することができる。
本実施の形態によれば、軌跡取得部110により、顔の表情などの動き変化をオプティカルフロー法を適用して、動きベクトルを検出することにより、動きベクトルの検出された領域から重心を算出することで、その移動軌跡を取得することができる。
一実施の形態における動きパターン認識装置の構成を示すブロック図である。 生成されるメッシュの例を示す図であり、同図(a)は矩形を分割したもの、同図(b)は生成したメッシュを加工したもの、同図(c)は円形を分割したものを示す。 メッシュ上に検出された移動軌跡から1次元シンボル値を算出する例を示す図であり、同図(a)はメッシュ上の移動軌跡、同図(b)は移動軌跡が検出されたメッシュ、同図(c)は算出された1次元シンボル値を示す。 一実施の形態における動きパターン認識装置の動作を示すフローチャートである。 隠れマルコフモデルの例を示す図である。 顔の表情から移動軌跡を算出する様子を示す図であり、同図(a)は検出された動きベクトル、同図(b)は算出された平均速度ベクトル、同図(c)は顔に適用する半円形メッシュを示す。 一実施の形態における動きパターン認識装置と従来の方法による認識率を比較するグラフである。
符号の説明
1…動きパターン認識装置
100…画像入力部
110…軌跡取得部
120…軌跡蓄積部
130…メッシュ生成部
140…1次元シンボル値算出部
150…動きパターン学習部
160…動きパターン認識部
170…動きパターン蓄積部
180…出力部
190…マウス
200…メッシュ
210…障害物
220…円形メッシュ
300…移動軌跡
600…顔の表情
610…平均移動ベクトル
620…半円形メッシュ

Claims (10)

  1. 時系列画像を入力する画像入力手段と、
    前記時系列画像から移動軌跡を取得し、当該移動軌跡の2次元平面における時系列順の位置座標を2次元位置情報群として軌跡蓄積手段に記憶させる軌跡取得手段と、
    前記2次元平面を複数のメッシュに分割し、当該メッシュの各々に異なる番号を付与して記憶手段に記憶させるメッシュ生成手段と、
    前記軌跡蓄積手段から前記2次元位置情報群を読み出すとともに、前記記憶手段から前記メッシュを読み出し、前記2次元位置情報群の各2次元位置情報が対応する前記メッシュに付与された番号を時系列順に取得することによって前記2次元位置情報群を1次元シンボル値に変換する1次元シンボル値算出手段と、
    認証対象となる動きパターンのそれぞれに対応する隠れマルコフモデルパラメータを蓄積する動きパターン蓄積手段と、
    前記1次元シンボル値に基づいて学習する動きパターンに対応する隠れマルコフモデルパラメータを前記動きパターン蓄積手段から読み出し、当該1次元シンボル値に基づいて当該隠れマルコフモデルパラメータを最適化して前記動きパターン蓄積手段に記憶させる学習手段と、
    前記動きパターン蓄積手段から最適化した隠れマルコフモデルパラメータをそれぞれ読み出し、読み出した前記隠れマルコフモデルパラメータ毎に、当該隠れマルコフモデルパラメータを用いて前記1次元シンボル値に対する尤度を算出し、当該尤度のうち最大の尤度を有する前記隠れマルコフモデルパラメータに対応する動きパターンを当該1次元シンボル値の識別結果とする識別手段と、
    を有することを特徴とする動きパターン認識装置。
  2. 前記移動軌跡を入力する軌跡入力手段を有することを特徴とする請求項1に記載の動きパターン認識装置。
  3. 前記メッシュ生成手段は、三角分割法を用いて前記2次元平面を所定の分割数で複数のメッシュに分割することを特徴とする請求項1又は2に記載の動きパターン認識装置。
  4. 前記メッシュの形状を加工するメッシュ加工手段を有することを特徴とする請求項1乃至3のいずれか1つに記載の動きパターン認識装置。
  5. 前記軌跡取得手段は、前記時系列画像に映された移動体の重心を算出して当該重心の軌跡を前記移動軌跡として取得することを特徴とする請求項1乃至4のいずれか1つに記載の動きパターン認識装置。
  6. 前記軌跡取得手段は、前記時系列画像に対してオプティカルフロー法を適用して平均速度ベクトルを算出し、当該平均速度ベクトルの始点を複数のメッシュに分割した前記2次元平面の中心に置いたときの当該平均速度ベクトルの終点の軌跡を前記移動軌跡として取得することを特徴とする請求項1乃至4のいずれか1つに記載の動きパターン認識装置。
  7. 前記軌跡取得手段は、前記時系列画像に対してオプティカルフロー法を適用して平均速度ベクトルを算出し、当該平均速度ベクトルが存在する前記メッシュの重心を算出して当該重心の軌跡を前記移動軌跡として取得することを特徴とする請求項1乃至4のいずれか1つに記載の動きパターン認識装置。
  8. 前記軌跡取得手段は、前記時系列画像に対してオプティカルフロー法を適用して動きベクトルを算出し、当該動きベクトルが検出された領域の重心を算出して当該重心の軌跡を前記移動軌跡として取得することを特徴とする請求項1乃至4のいずれか1つに記載の動きパターン認識装置。
  9. 時系列画像を入力するステップと、
    前記時系列画像から移動軌跡を取得し、当該移動軌跡の2次元平面における時系列順の位置座標を2次元位置情報群として軌跡蓄積手段に記憶させるステップと、
    前記軌跡蓄積手段から前記2次元位置情報群を読み出すとともに、前記2次元平面を複数のメッシュに分割して当該メッシュの各々に異なる番号を付与して記憶した記憶手段から前記メッシュを読み出し、前記2次元位置情報群の各2次元位置情報が対応する前記メッシュに付与された番号を時系列順に取得することによって前記2次元位置情報群を1次元シンボル値に変換するステップと、
    認証対象となる動きパターンのそれぞれに対応する隠れマルコフモデルパラメータを1つ以上動きパターン蓄積手段に記憶させるステップと、
    前記1次元シンボル値に基づいて学習する動きパターンに対応する隠れマルコフモデルパラメータを前記動きパターン蓄積手段から読み出し、当該1次元シンボル値に基づいて当該隠れマルコフモデルパラメータを最適化して前記動きパターン蓄積手段に記憶させるステップと、
    前記動きパターン蓄積手段から前記隠れマルコフモデルパラメータをそれぞれ読み出し、読み出した前記隠れマルコフモデルパラメータ毎に、当該隠れマルコフモデルパラメータが前記1次元シンボル値を出力する尤度を算出し、算出した当該尤度のうち最大の尤度を有する前記隠れマルコフモデルパラメータに対応する動きパターンを当該1次元シンボル値の識別結果とするステップと、
    前記識別結果を得るステップで得られた識別結果を出力するステップと、
    を有することを特徴とする動きパターン認識方法。
  10. 請求項1乃至8のいずれか1項に記載した動きパターン認識装置が有する各手段としてコンピュータを機能させるための動きパターン認識プログラム。
JP2006107910A 2006-04-10 2006-04-10 動きパターン認識装置、動きパターン認識方法及び動きパターン認識プログラム Pending JP2007280219A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006107910A JP2007280219A (ja) 2006-04-10 2006-04-10 動きパターン認識装置、動きパターン認識方法及び動きパターン認識プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006107910A JP2007280219A (ja) 2006-04-10 2006-04-10 動きパターン認識装置、動きパターン認識方法及び動きパターン認識プログラム

Publications (1)

Publication Number Publication Date
JP2007280219A true JP2007280219A (ja) 2007-10-25

Family

ID=38681586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006107910A Pending JP2007280219A (ja) 2006-04-10 2006-04-10 動きパターン認識装置、動きパターン認識方法及び動きパターン認識プログラム

Country Status (1)

Country Link
JP (1) JP2007280219A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010054373A2 (en) * 2008-11-10 2010-05-14 Google Inc. Multisensory speech detection
JP2010250647A (ja) * 2009-04-17 2010-11-04 Nippon Telegr & Teleph Corp <Ntt> 軌跡学習認識方法、軌跡学習認識装置及び軌跡学習認識プログラム
KR101017449B1 (ko) 2009-01-28 2011-02-25 서경대학교 산학협력단 은닉 마르코프 모델 기반 동작 인식 방법 및 이를 실현시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체
JP2011244214A (ja) * 2010-05-18 2011-12-01 Casio Comput Co Ltd 動画再生装置、動画再生方法及びプログラム
US8195319B2 (en) 2010-03-26 2012-06-05 Google Inc. Predictive pre-recording of audio for voice input
US8648799B1 (en) 2010-11-02 2014-02-11 Google Inc. Position and orientation determination for a mobile computing device
US8922485B1 (en) 2009-12-18 2014-12-30 Google Inc. Behavioral recognition on mobile devices
CN111325056A (zh) * 2018-12-14 2020-06-23 成都云天励飞技术有限公司 流动人口分析方法及相关产品

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8862474B2 (en) 2008-11-10 2014-10-14 Google Inc. Multisensory speech detection
WO2010054373A3 (en) * 2008-11-10 2010-08-26 Google Inc. Multisensory speech detection
US10026419B2 (en) 2008-11-10 2018-07-17 Google Llc Multisensory speech detection
US10714120B2 (en) 2008-11-10 2020-07-14 Google Llc Multisensory speech detection
WO2010054373A2 (en) * 2008-11-10 2010-05-14 Google Inc. Multisensory speech detection
US10020009B1 (en) 2008-11-10 2018-07-10 Google Llc Multisensory speech detection
US9570094B2 (en) 2008-11-10 2017-02-14 Google Inc. Multisensory speech detection
US9009053B2 (en) 2008-11-10 2015-04-14 Google Inc. Multisensory speech detection
US10720176B2 (en) 2008-11-10 2020-07-21 Google Llc Multisensory speech detection
KR101017449B1 (ko) 2009-01-28 2011-02-25 서경대학교 산학협력단 은닉 마르코프 모델 기반 동작 인식 방법 및 이를 실현시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체
JP2010250647A (ja) * 2009-04-17 2010-11-04 Nippon Telegr & Teleph Corp <Ntt> 軌跡学習認識方法、軌跡学習認識装置及び軌跡学習認識プログラム
US8922485B1 (en) 2009-12-18 2014-12-30 Google Inc. Behavioral recognition on mobile devices
US8504185B2 (en) 2010-03-26 2013-08-06 Google Inc. Predictive pre-recording of audio for voice input
US8428759B2 (en) 2010-03-26 2013-04-23 Google Inc. Predictive pre-recording of audio for voice input
US8195319B2 (en) 2010-03-26 2012-06-05 Google Inc. Predictive pre-recording of audio for voice input
JP2011244214A (ja) * 2010-05-18 2011-12-01 Casio Comput Co Ltd 動画再生装置、動画再生方法及びプログラム
US8648799B1 (en) 2010-11-02 2014-02-11 Google Inc. Position and orientation determination for a mobile computing device
CN111325056A (zh) * 2018-12-14 2020-06-23 成都云天励飞技术有限公司 流动人口分析方法及相关产品
CN111325056B (zh) * 2018-12-14 2023-06-09 成都云天励飞技术有限公司 流动人口分析方法及分析装置

Similar Documents

Publication Publication Date Title
Kumar et al. Independent Bayesian classifier combination based sign language recognition using facial expression
Li et al. Deep Fisher discriminant learning for mobile hand gesture recognition
Vishnu et al. Human fall detection in surveillance videos using fall motion vector modeling
Frolova et al. Most probable longest common subsequence for recognition of gesture character input
JP2007280219A (ja) 動きパターン認識装置、動きパターン認識方法及び動きパターン認識プログラム
JP6570786B2 (ja) 動作学習装置、技能判別装置および技能判別システム
US20160342828A1 (en) Method and apparatus for recognising expression using expression-gesture dictionary
JP2013122755A (ja) イベント検出装置及びその方法、動作認識装置及びその方法、プログラム
Beh et al. Hidden Markov model on a unit hypersphere space for gesture trajectory recognition
EP2309454B1 (en) Apparatus and method for detecting motion
US20080285807A1 (en) Apparatus for Recognizing Three-Dimensional Motion Using Linear Discriminant Analysis
Ahmad et al. Inertial sensor data to image encoding for human action recognition
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
JP2007087089A (ja) ジェスチャ認識装置、ジェスチャ認識プログラムおよびジェスチャ認識方法
Mohandes et al. Arabic sign language recognition by decisions fusion using Dempster-Shafer theory of evidence
JP2016081355A (ja) 異常検知方法、異常検知装置、及びプログラム
Bhuyan et al. Trajectory guided recognition of hand gestures having only global motions
JP6590477B2 (ja) 情報処理装置、情報処理方法、プログラム
WO2018173848A1 (ja) オブジェクト追跡システム、インテリジェント撮像装置、オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び記憶媒体
JP6384167B2 (ja) 移動体追跡装置及び移動体追跡方法、並びにコンピュータ・プログラム
Krisandria et al. Hog-based hand gesture recognition using Kinect
Li et al. Automatic affect classification of human motion capture sequences in the valence-arousal model
KR20230094448A (ko) 수신호 및 제스처의 효율적 인식을 위한 행동 인식 인공지능 네트워크 시스템 및 방법
García et al. Algorithm for the Recognition of a Silhouette of a Person from an Image
Noh et al. Movement classification based on acceleration spectrogram with dynamic time warping method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090424

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090611

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090721