JP2007213528A - 行動認識システム - Google Patents

行動認識システム Download PDF

Info

Publication number
JP2007213528A
JP2007213528A JP2006035830A JP2006035830A JP2007213528A JP 2007213528 A JP2007213528 A JP 2007213528A JP 2006035830 A JP2006035830 A JP 2006035830A JP 2006035830 A JP2006035830 A JP 2006035830A JP 2007213528 A JP2007213528 A JP 2007213528A
Authority
JP
Japan
Prior art keywords
recognition
data
action
likelihood
recognition target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006035830A
Other languages
English (en)
Inventor
Atsushi Oda
淳志 小田
Kazue Sumiya
和重 角谷
Masatsugu Kidode
正継 木戸出
Munenori Ukita
宗伯 浮田
Akihito Kodera
明仁 小寺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nara Institute of Science and Technology NUC
Sanyo Electric Co Ltd
Original Assignee
Nara Institute of Science and Technology NUC
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nara Institute of Science and Technology NUC, Sanyo Electric Co Ltd filed Critical Nara Institute of Science and Technology NUC
Priority to JP2006035830A priority Critical patent/JP2007213528A/ja
Publication of JP2007213528A publication Critical patent/JP2007213528A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】複雑で多様な人物の行動を認識するとともに、行動認識の精度の向上を図ることができる行動認識システムを提供する。
【解決手段】行動認識の対象となる人物を含む認識対象画像データを用いて、認識対象データを生成する認識対象データ生成部230と、人物の行動をモデル化したデータである複数の行動モデルデータと認識対象データ生成部230によって生成された認識対象データとを比較し、複数の行動モデルデータのそれぞれに対する認識対象データの尤度を算出する尤度算出部235と、予め生成された対象物のテンプレートデータと認識対象画像データとを比較する画像マッチング部245と、尤度算出部235による算出結果及び画像マッチング部245によるマッチング結果に基づいて、認識結果とする人物の行動を特定する認識結果判定部250とを行動認識システム200が備える。
【選択図】図2

Description

本発明は、行動認識の対象となる人物を含む画像データを用いて、人物の行動を認識する行動認識システムに関する。
従来、高齢者の異常を検知するシステムや高齢者の行動を見守るシステムなどでは、人物の行動をカメラなどで撮像して、人物の行動を認識する技術(以下、行動認識技術)が用いられていた。また、このような行動認識技術としては、以下に示す行動認識技術が知られている。
第1の行動認識技術としては、人物の各部位の行動特徴を人物の画像データから抽出し、抽出された行動特徴の組合せによって人物の行動を認識する技術が挙げられる(例えば、特許文献1)。
具体的には、行動特徴の組合せによって人物の行動を定義する定義テーブルを予め用意しておき、この定義テーブルを参照することによって、抽出された行動特徴に対応する人物の行動を特定する。
また、第2の行動認識技術としては、予め生成された行動モデルデータと行動認識の対象となるデータ(以下、認識対象データ)とを比較して、認識対象データとの尤度が最も高い行動モデルデータに対応する行動を認識結果として出力する技術が挙げられる。
具体的には、隠れマルコムモデル(HMM;Hidden Markov Model)などの統計モデル生成手法によって人物の画像データから複数の行動モデルを予め生成しておき、複数の行動モデルの中で認識対象データとの尤度が最も高い行動モデルに対応する行動が認識結果として出力される。
特開2005−258830号公報(請求項1、〔0065〕及び〔0066〕段落、図21など)
しかしながら、上述した第1の行動認識技術では、複雑で多様な人物の行動の全てを行動特徴の組合せによって定義することは非常に困難であり、限られた人物の行動しか認識することができなかった。また、上述した第2の行動認識技術では、認識対象データとの尤度が高い行動モデルが複数である場合には、人物の行動を正確に認識することが難しかった。
そこで、本発明は、上述した課題を解決するためになされたものであり、複雑で多様な人物の行動を認識するとともに、行動認識の精度の向上を図ることができる行動認識システムを提供することを目的とする。
本発明の第1の特徴は、行動認識の対象となる人物を含む画像データである認識対象画像データを用いて、認識対象データを生成する認識対象データ生成部(認識対象データ生成部230)と、人物の行動をモデル化したデータである複数の行動モデルデータと前記認識対象データ生成部によって生成された前記認識対象データとを比較し、前記複数の行動モデルデータのそれぞれに対する前記認識対象データの尤度を算出する尤度算出部(尤度算出部235)と、予め生成された対象物の画像データであるテンプレートデータと前記認識対象画像データとを比較するテンプレート比較部(画像マッチング部245)と、前記尤度算出部による算出結果及び前記テンプレート比較部による比較結果に基づいて、前記認識対象画像データに対応する人物の行動を特定し、特定された人物の行動を認識結果とする行動認識部(認識結果判定部250)とを行動認識システム(行動認識システム200)が備えることを要旨とする。
かかる特徴によれば、行動認識部は、尤度算出部による算出結果及びテンプレート比較部による比較結果に基づいて、認識対象画像データに対応する人物の行動を特定し、特定された人物の行動を認識結果とする。
すなわち、行動認識部は、尤度算出部による算出結果に基づいて、認識対象画像データに対応する人物の行動を絞り込んだ上で、尤度算出部による算出結果及びテンプレート比較部による比較結果に基づいて、認識対象画像データに対応する人物の行動を特定する。
従って、行動認識システムは、複雑で多様な人物の行動を行動特徴の組合せによって定義しなくても、認識対象画像データに対応する人物の行動を特定することができる。また、行動認識システムは、認識対象データの尤度が近接した行動モデルデータが複数である場合であっても、テンプレート比較部による比較結果を用いることによって行動認識の精度の向上を図ることができる。
換言すると、行動認識システムは、複雑で多様な人物の行動を認識するとともに、行動認識の精度の向上を図ることができる。
本発明の第2の特徴は、本発明の第1の特徴において、前記行動認識の対象となる人物を含む画像を構成するフレームの一部である複数の小領域の中から、前記テンプレート比較部によって前記テンプレートデータと比較される前記認識対象画像データに対応する前記小領域を選択する小領域選択部(尤度算出部235)を行動認識システムがさらに備えることを要旨とする。
本発明の第3の特徴は、本発明の第2の特徴において、前記認識対象画像データを用いてオプティカルフローを算出するオプティカルフロー算出部(オプティカルフロー算出部210)を行動認識システムがさらに備え、前記小領域選択部(尤度算出部235)は、前記オプティカルフロー算出部によって算出された前記オプティカルフローの和(スカラー和)が最大となる前記小領域を選択することを要旨とする。
本発明の第4の特徴は、本発明の第2の特徴において、前記認識対象画像データを用いてオプティカルフローを算出するオプティカルフロー算出部(オプティカルフロー算出部210)を行動認識システムがさらに備え、前記認識対象データ生成部が、前記オプティカルフローに基づいて前記認識対象データを前記小領域毎に生成し、前記尤度算出部が、前記認識対象データの前記尤度を前記小領域毎に算出し、前記小領域選択部が、前記小領域毎に算出された前記認識対象データの前記尤度が最大となる前記小領域を選択することを要旨とする。
本発明の第5の特徴は、本発明の第1の特徴において、前記テンプレートデータが、人物の複数の行動にそれぞれ対応付けられた前記対象物の画像データであることを要旨とする。
本発明の第6の特徴は、本発明の第1の特徴において、前記認識対象画像データを用いてオプティカルフローを算出するオプティカルフロー算出部(オプティカルフロー算出部210)を行動認識システムがさらに備え、前記認識対象データ生成部が、前記行動認識の対象となる人物を含む画像を構成するフレームの一部である小領域の中から、前記オプティカルフローの和が大きい順に所定数の前記小領域を抽出し、抽出された前記小領域に対応する前記オプティカルフローに基づいて、前記認識対象データを生成することを要旨とする。
本発明の第7の特徴は、行動認識の対象となる人物を含む画像データである認識対象画像データを用いてオプティカルフローを算出するオプティカルフロー算出部(オプティカルフロー算出部210)と、前記オプティカルフロー算出部によって算出された前記オプティカルフローに基づいて、前記行動認識の対象となる人物を含む画像を構成するフレームの一部である小領域毎に認識対象データを生成する認識対象データ生成部(認識対象データ生成部230a)と、人物の行動をモデル化したデータである複数の行動モデルデータと前記認識対象データ生成部によって生成された前記認識対象データとを比較し、前記複数の行動モデルデータのそれぞれに対する前記認識対象データの尤度を前記小領域毎に算出する尤度算出部(尤度算出部235a)と、前記小領域毎に算出された前記尤度の分散値又は前記小領域毎に算出された前記尤度の尖度を算出する分布度算出部(認識結果判定部250a)と、前記尤度算出部による算出結果及び前記分布度算出部による算出結果に基づいて、前記認識対象画像データに対応する人物の行動を特定し、特定された人物の行動を認識結果とする行動認識部(認識結果判定部250a)とを行動認識システムが備えることを要旨とする。
かかる特徴によれば、行動認識部は、尤度算出部による算出結果及び分布度算出部による算出結果に基づいて、認識対象画像データに対応する人物の行動を特定し、特定された人物の行動を認識結果とする。
すなわち、行動認識部は、尤度算出部による算出結果に基づいて、認識対象画像データに対応する人物の行動を絞り込んだ上で、分布度算出部による算出結果に基づいて、認識対象画像データに対応する人物の行動を特定する。
従って、行動認識システムは、複雑で多様な人物の行動を行動特徴の組合せによって定義しなくても、認識対象画像データに対応する人物の行動を特定することができる。また、行動認識システムは、認識対象データの尤度が近接した行動モデルデータが複数である場合であっても、分布度算出部による算出結果を用いることによって行動認識の精度の向上を図ることができる。
換言すると、行動認識システムは、複雑で多様な人物の行動を認識するとともに、行動認識の精度の向上を図ることができる。
本発明によれば、複雑で多様な人物の行動を認識するとともに、行動認識の精度の向上を図ることができる行動認識システムを提供することができる。
[第1実施形態]
(ロボットシステムの構成)
以下において、本発明の第1実施形態に係るロボットシステムの構成について、図面を参照しながら説明する。図1は、本発明の第1実施形態に係るロボットシステム100を示すブロック図である。
図1に示すように、ロボットシステム100は、詳細画像撮像部105と、広角画像撮像部110と、撮像制御部115と、データ処理部120と、通信部125と、移動機構制御部130と、移動機構部135とを有する。
詳細画像撮像部105は、行動認識の対象となる人物の一部などを撮像するカメラなどである。具体的には、詳細画像撮像部105は、人物が把持している物体や人物の手の形状などを撮像する。例えば、ロボットシステム100が2つの目(カメラ)を有している場合には、詳細画像撮像部105は、2つの目の一方を構成する。
広角画像撮像部110は、行動認識の対象となる人物や人物の背景などを撮像するカメラなどである。例えば、ロボットシステム100が2つの目(カメラ)を有している場合には、広角画像撮像部110は、2つの目の他方を構成する。
撮像制御部115は、詳細画像撮像部105及び広角画像撮像部110を制御する。具体的には、撮像制御部115は、詳細画像撮像部105及び広角画像撮像部110の向きなどを制御するとともに、詳細画像撮像部105及び広角画像撮像部110によって撮像された画像のデータ(画像データ)をデータ処理部120に入力する。なお、画像データとは、RGBやYCなどで表される画素データである。
データ処理部120は、撮像制御部115から取得した画像データを通信部125に入力する。また、データ処理部120は、後述する行動認識システム200によって認識された人物の行動を示す行動認識データを移動機構制御部130に入力する。
通信部125は、ロボットシステム100と行動認識システム200との間で通信を行う。具体的には、通信部125は、データ処理部120から取得した画像データを行動認識システム200に送信し、行動認識システム200によって認識された人物の行動を示す行動認識データを行動認識システム200から受信する。
移動機構制御部130は、データ処理部120から取得した行動認識データに応じて移動機構部135を制御する。
移動機構部135は、ロボットシステム100の手や足などであり、行動認識システム200による行動認識の結果に応じて制御される。
(行動認識システムの構成)
以下において、本発明の第1実施形態に係る行動認識システムの構成について、図面を参照しながら説明する。図2は、本発明の第1実施形態に係る行動認識システム200を示すブロック図である。
図2に示すように、行動認識システム200は、通信部205と、オプティカルフロー算出部210と、学習データ生成部215と、行動モデル生成部220と、行動モデル記憶部225と、認識対象データ生成部230と、尤度算出部235と、テンプレート記憶部240と、画像マッチング部245と、認識結果判定部250とを有する。
通信部205は、ロボットシステム100と行動認識システム200との間で通信を行う。具体的には、通信部205は、行動認識システム200によって認識された人物の行動を示す行動認識データをロボットシステム100に送信し、詳細画像撮像部105及び広角画像撮像部110によって撮像された画像データをロボットシステム100から受信する。
ここで、画像データには、人物の行動のモデル化に用いられる学習用画像データと、行動認識の対象となる人物を含む画像データである認識対象画像データとが含まれる。
具体的には、学習用画像データは、例えば、「食べる」や「書く」といったような行動毎に対応付けられた画像データであり、「食べる」や「書く」といったような行動のモデル化に用いられる。一方、認識対象画像データは、どの行動に分類されるかが未知であり、行動認識の対象となる画像データである。
オプティカルフロー算出部210は、学習用画像データ及び認識対象画像データを用いて画素単位でオプティカルフローを算出する。例えば、オプティカルフローの算出方法は、特徴照合法や勾配法などの既存の手法であり、特に限定されるものではない。
また、オプティカルフロー算出部210は、算出されたオプティカルフローを学習データ生成部215及び認識対象データ生成部230に入力する。具体的には、オプティカルフロー算出部210は、学習用画像データについてオプティカルフローを算出した場合には、算出されたオプティカルフローを学習データ生成部215に入力する。一方、オプティカルフロー算出部210は、認識対象画像データについてオプティカルフローを算出した場合には、算出されたオプティカルフローを認識対象データ生成部230に入力する。
学習データ生成部215は、オプティカルフロー算出部210から取得したオプティカルフローに基づいて学習データを生成する。具体的には、学習データ生成部215は、フレームを複数に分割した領域である小領域毎にオプティカルフローのスカラー和を算出し、算出されたオプティカルフローのスカラー和が大きい順に所定数(例えば、5つ)の小領域を抽出する。続いて、学習データ生成部215は、抽出された小領域毎にオプティカルフローのベクトル和を算出し、抽出された小領域の番号、ベクトル和の大きさ及びベクトル和の角度を含む学習データを生成する。
行動モデル生成部220は、学習データ生成部215によって生成された学習データに基づいて行動モデルデータを生成する。具体的には、行動モデル生成部220は、隠れマルコフモデル(HMM;Hidden Markov Model)などの統計モデル生成手法によって、「食べる」や「書く」といったような行動毎に行動モデルデータを生成する。
例えば、上述した隠れマルコフモデルでは、行動モデル生成部220は、状態の数を決定する。なお、状態とは、観測者が観測できないものであり、出力記号とは、観測者が観測可能なデータであり、小領域の番号、ベクトル和の大きさ及びベクトル和の角度の組合せである。
続いて、行動モデル生成部220は、Baum−Welchアルゴリズムに従って、「食べる」や「書く」といったような行動毎に隠れマルコフモデルのパラメータを推定する。なお、隠れマルコフモデルのパラメータとは、一の状態から他の状態に遷移する確率(遷移確率)や一の状態から一の出力記号が出力される確率などである。また、行動モデル生成部220は、「食べる」や「書く」といったような行動毎に推定された隠れマルコフモデルのパラメータを行動モデルデータとして行動モデル記憶部225に記憶する。
行動モデル記憶部225は、行動モデル生成部220によって生成された行動モデルデータを、「食べる」や「書く」といったような行動毎に記憶する。すなわち、行動モデル記憶部225は、人物の行動毎に複数の行動モデルデータを記憶する。
認識対象データ生成部230は、オプティカルフロー算出部210から取得したオプティカルフローに基づいて認識対象データを生成する。具体的には、認識対象データ生成部230は、フレームを複数に分割した領域である小領域毎にオプティカルフローのスカラー和を算出し、算出されたオプティカルフローのスカラー和が大きい順に所定数(例えば、5つ)の小領域を抽出する。続いて、認識対象データ生成部230は、抽出された小領域毎にオプティカルフローのベクトル和を算出し、抽出された小領域の番号、ベクトル和の大きさ及びベクトル和の角度を含む認識対象データを生成する。
また、認識対象データ生成部230は、生成した認識対象データを尤度算出部235に入力する。また、認識対象データ生成部230は、オプティカルフローのスカラー和が最も大きい小領域の番号を画像マッチング部245に入力する。
尤度算出部235は、行動モデル記憶部225に記憶された複数の行動モデルデータに対する認識対象データの尤度を算出する。また、尤度算出部235は、認識対象データの尤度が所定の閾値以上である行動モデルデータを特定し、特定された行動モデルデータに対する認識対象データの尤度を認識結果判定部250に入力する。さらに、尤度算出部235は、認識対象データの尤度が所定の閾値以上である行動モデルデータが複数である場合には、認識対象データの尤度が所定の閾値以上である行動モデルデータに対応する行動を示す行動データを画像マッチング部245に入力する。
以下において、統計モデル生成手法として、隠れマルコフモデルを用いた場合を例に挙げて、行動モデルデータの作成方法について説明する。
例えば、上述した隠れマルコフモデルでは、尤度算出部235は、小領域の番号、ベクトル和の大きさ及びベクトル和の角度を含む認識対象データに基づいて、その認識対象データに対応する出力記号列を取得する。続いて、尤度算出部235は、取得された出力記号列が各隠れマルコフモデルに従って出力される確率(尤度)を算出する。
具体的には、尤度算出部235は、以下の式に従って、各隠れマルコフモデル(行動モデルデータ)に対する認識対象データの尤度(Pλ)を算出する。
Figure 2007213528
但し、O1,O2,・・・Otは、行動モデルデータ(隠れマルコフモデル)の出力記号であり、ok(1), ok(2)・・・ok(t)は、認識対象データの出力記号であり、Nは、状態の数である。また、πjは、初期状態が状態(j)である確率であり、ai,jは、状態(i)から状態(j)に遷移する遷移確率であり、bj,k(t)は、時刻tにおいて状態(j)から出力記号(ok(t))が出力される確率である。
テンプレート記憶部240は、対象物の画像データであるテンプレートデータを人物の複数の行動にそれぞれ対応付けて記憶する。ここで、対象物は、例えば、人物が把持している物体や物体を把持する人物の手の形状などである。また、テンプレートデータは、例えば、人物が把持している物体の画像データや物体を把持する人物の手の形状の画像データなどである。
なお、テンプレート記憶部240は、人物の行動とテンプレートデータとを対応付けるクラスタリングテーブルを管理することによって、テンプレートデータを人物の行動に対応付けて記憶する。なお、テンプレート記憶部240に管理されるクラスタリングテーブルの詳細については後述する(図3を参照)。
画像マッチング部245は、通信部205が受信した認識対象画像データとテンプレート記憶部240に記憶されたテンプレートデータとを画像マッチングして、認識対象画像データとテンプレートデータとの一致度を示すマッチングスコアを算出する。
具体的には、画像マッチング部245は、認識対象データ生成部230から取得した小領域の番号に基づいて、オプティカルフローのスカラー和が最も大きい小領域を特定する。また、画像マッチング部245は、尤度算出部235から取得した行動データに基づいて、画像マッチングの対象となる行動を特定する。
続いて、画像マッチング部245は、特定された行動に対応付けられたテンプレートデータをテンプレート記憶部240から読み出して、読み出されたテンプレートデータとオプティカルフローのスカラー和が最も大きい小領域の画像データ(認識対象画像データ)とを画像マッチングする。また、画像マッチング部245は、テンプレートデータと小領域の画像データとの一致度を示すマッチングスコアを算出し、算出されたマッチングスコアを認識結果判定部250に入力する。
認識結果判定部250は、尤度算出部235から取得した認識対象データの尤度に基づいて認識結果とする人物の行動を特定する。具体的には、認識結果判定部250は、尤度算出部235から取得した行動データに基づいて、認識対象データの尤度が所定の閾値以上である行動モデルデータを特定し、特定した行動モデルデータに対応する人物の行動を特定する。ここで、認識結果判定部250は、特定された行動が1つである場合には、その行動を認識結果とする。
また、認識結果判定部250は、特定された行動が複数である場合には、特定された複数の行動に対応する行動モデルデータに対する認識対象データの尤度差を算出する。例えば、認識結果判定部250は、認識対象データの尤度が所定の閾値以上である行動モデルデータについて、最も高い認識対象データの尤度と2番目に高い認識対象データの尤度との差を尤度差として算出してもよく、最も高い認識対象データの尤度と3番目に高い認識対象データの尤度との差を尤度差として算出してもよい。また、認識結果判定部250は、認識対象データの尤度が所定の閾値以上である行動モデルデータについて、最も高い認識対象データの尤度と最も低い認識対象データの尤度との差を尤度差として算出してもよい。
ここで、認識結果判定部250は、算出された尤度差が所定の尤度差閾値以上である場合には、認識対象データの尤度が高い行動モデルデータに対応する行動を認識結果とする。
一方、認識結果判定部250は、算出された尤度差が所定の尤度差閾値未満である場合には、尤度算出部235から取得した認識対象データの尤度と画像マッチング部245から取得したマッチングスコアとを用いて人物の行動を特定し、特定された人物の行動を認識結果とする。例えば、認識結果判定部250は、認識対象データの尤度とマッチングスコアとを積算して、積算結果が最大となる行動を認識結果とする。
(クラスタリングテーブルの構成)
以下において、本発明の第1実施形態に係るクラスタリングテーブルの一例について、図面を参照しながら説明する。図3は、本発明の第1実施形態に係るクラスタリングテーブルの一例を示す図である。
図3(a)に示すように、クラスタリングテーブルでは、人物の行動(例えば、「食べる」や「書く」など)とテンプレートデータ(箸やペンの画像データ)とが対応付けられている。同様に、図3(b)に示すように、クラスタリングテーブルでは、人物の行動(例えば、「食べる」や「書く」など)とテンプレートデータ(箸を持つ手の形状やペンを持つ手の形状の画像データ)とが対応付けられていてもよい。
このように、テンプレートデータが人物の行動毎に対応付けられているため、画像マッチングの対象となるテンプレートデータが絞り込まれ、画像マッチング部245の処理負荷が軽減する。
(行動認識の一例)
以下において、上述した小領域の抽出方法について、図面を参照しながら説明する。図4は、本発明の第1実施形態に係る小領域の抽出方法を説明するための図である。
図4に示すように、行動認識の対象となる人物を含む画像の1フレームは、複数の小領域(小領域1−1〜小領域6−8)によって構成されている。上述したように、認識対象データ生成部230は、オプティカルフローのスカラー和を小領域毎に算出し、算出されたオプティカルフローのスカラー和が大きい順に所定数(例えば、5つ)の小領域を抽出する。例えば、図4では、小領域4−4、小領域4−2、小領域2−4、小領域3−3及び小領域3−5が抽出される。
続いて、上述したように、認識対象データ生成部230は、抽出された小領域毎にオプティカルフローのベクトル和を算出し、抽出された小領域の番号、ベクトル和の大きさ及びベクトル和の角度を含む認識対象データを取得する。
なお、学習データ生成部215についても、認識対象データ生成部230と同様の手順で小領域を抽出し、抽出された小領域の番号、ベクトル和の大きさ及びベクトル和の角度を含む学習データを取得する。
次に、認識対象データの尤度が所定の閾値以上である行動モデルデータが複数である場合における行動認識方法について、図面を参照しながら説明する。図5は、本発明の第1実施形態に係る行動認識方法を説明するための図である。なお、図5では、横軸はフレーム数を示しており、縦軸はn番目のフレームまでの認識対象データに基づいて算出された尤度を示している。
図5に示すように、k番目のフレームにおいて、複数の行動モデルデータ(「食べる」、「書く」、「飲む」及び「読む」の行動モデルデータ)に対する認識対象データの尤度は、「書く」に対する認識対象データの尤度が最も高く、「食べる」に対する認識対象データの尤度が2番目に高い。また、「書く」及び「食べる」に対する認識対象データの尤度が所定の閾値以上となっている。
上述したように、画像マッチング部245は、「書く」及び「食べる」に対応付けられたテンプレートデータをテンプレート記憶部240から読み出して、読み出されたテンプレートデータとオプティカルフローのスカラー和が最も大きい小領域の画像データとを画像マッチングする。また、画像マッチング部245は、テンプレートデータと小領域の画像データとの一致度を示すマッチングスコアを算出する。
続いて、上述したように、認識結果判定部250は、「書く」及び「食べる」に対する認識対象データの尤度と「書く」及び「食べる」に対応するマッチングスコアとを用いて人物の行動を特定する。
例えば、図5では、認識結果判定部250は、「書く」に対する認識対象データの尤度(0.089)と「書く」に対応するマッチングスコア(0.032)とを積算して、「書く」に対応する判定値(0.028)を算出する。同様に、認識結果判定部250は、「食べる」に対する認識対象データの尤度(0.074)と「書く」に対応するマッチングスコア(0.085)とを積算して、「書く」に対応する判定値(0.063)を算出する。従って、k番目のフレームにおける「書く」に対する尤度は「食べる」に対する尤度よりも高いものの、「食べる」に対応する判定値が「書く」に対応する判定値よりも高いため、認識結果判定部250は「食べる」を認識結果とする。
(行動認識システムの動作)
以下において、本発明の第1実施形態に係る行動認識システムの動作について、図面を参照しながら説明する。
まず、本発明の第1実施形態に係る行動モデル生成方法について、図面を参照しながら説明する。図6は、本発明の第1実施形態に係る行動モデル生成方法を示すフロー図である。
図6に示すように、ステップ10において、行動認識システム200は、学習用画像データをロボットシステム100から取得する。
ステップ11において、行動認識システム200は、学習用画像データに含まれる画素単位でオプティカルフローを算出する。
ステップ12において、行動認識システム200は、ステップ11で算出されたオプティカルフローのスカラー和を小領域毎に算出する。
ステップ13において、行動認識システム200は、ステップ12で小領域毎に算出されたオプティカルフローのスカラー和が大きい順に所定数(例えば、5つ)の小領域を抽出する。
ステップ14において、行動認識システム200は、ステップ13で抽出された小領域のオプティカルフローのベクトル和をステップ13で抽出された小領域毎に算出する。
ステップ15において、行動認識システム200は、ステップ14で算出されたオプティカルフローのベクトル和の大きさ及びステップ14で算出されたオプティカルフローのベクトル和の角度を算出する。
ステップ16において、行動認識システム200は、ステップ13で抽出された小領域の番号、ステップ14で算出されたベクトル和の大きさ及びベクトル和の角度を含む学習データを生成する。
ここで、行動認識システム200は、ステップ10〜ステップ16の処理を人物の行動毎にそれぞれ繰り返すことによって、人物の行動をモデル化するのに十分な学習データを人物の行動毎に準備する。
ステップ17において、行動認識システム200は、ステップ16で生成された学習データに基づいて、隠れマルコフモデル(HMM;Hidden Markov Model)などの統計モデル生成手法によって行動モデルデータを生成する。なお、行動モデルデータは、行動認識システム200の行動モデル記憶部225に記憶される。
次に、本発明の第1実施形態に係るテンプレート生成方法について、図面を参照しながら説明する。図7は、本発明の第1実施形態に係るテンプレート生成方法を示すフロー図である。
図7に示すように、ステップ30において、行動認識システム200は、人物が把持する物体や人物が物体を把持する手などの対象物の画像データを取得する。なお、対象物の画像データは、ロボットシステム100の詳細画像撮像部105が対象物を撮像することによって、ロボットシステム100から取得することができる。また、対象物の画像データは、他の方法によって行動認識システム200に入力されてもよい。
ステップ31において、行動認識システム200は、人物の複数の行動に対象物の画像データをそれぞれ対応付ける。
ステップ32において、行動認識システム200は、人物の行動と物体の画像データ(テンプレートデータ)とを対応付けるクラスタリングテーブルを生成する。なお、クラスタリングテーブルは、行動認識システム200のテンプレート記憶部240に記憶される。
次に、本発明の第1実施形態に係る行動認識方法について、図面を参照しながら説明する。図8及び図9は、本発明の第1実施形態に係る行動認識方法を示すフロー図である。
図8に示すように、ステップ50において、行動認識システム200は、認識対象画像データをロボットシステム100から取得する。
ステップ51において、行動認識システム200は、認識対象画像データに含まれる画素単位でオプティカルフローを算出する。
ステップ52において、行動認識システム200は、ステップ51で算出されたオプティカルフローのスカラー和を小領域毎に算出する。
ステップ53において、行動認識システム200は、ステップ52で小領域毎に算出されたオプティカルフローのスカラー和が大きい順に所定数(例えば、5つ)の小領域を抽出する。
ステップ54において、行動認識システム200は、ステップ53で抽出された小領域のオプティカルフローのベクトル和をステップ53で抽出された小領域毎に算出する。
ステップ55において、行動認識システム200は、ステップ54で算出されたオプティカルフローのベクトル和の大きさ及びステップ54で算出されたオプティカルフローのベクトル和の角度を算出する。
ステップ56において、行動認識システム200は、ステップ53で抽出された小領域の番号、ステップ54で算出されたベクトル和の大きさ及びベクトル和の角度を含む認識対象データを生成する。
続いて、図9に示すように、ステップ57において、行動認識システム200は、行動モデル記憶部225に記憶された複数の行動モデルデータのそれぞれに対する認識対象データの尤度を算出する。
ステップ58において、行動認識システム200は、ステップ57で算出された認識対象データの尤度が所定の閾値以上である行動モデルデータがあるか否かを判定する。また、行動認識システム200は、認識対象データの尤度が所定の閾値以上である行動モデルデータがある場合には、ステップ60の処理に移り、認識対象データの尤度が所定の閾値以上である行動モデルデータがない場合には、ステップ59の処理に移る。
ステップ59において、行動認識システム200は、認識結果とする行動がないと判定する。すなわち、行動認識システム200は、行動認識ができなかったと判定する。
ステップ60において、行動認識システム200は、ステップ57で算出された認識対象データの尤度が所定の閾値以上である行動モデルデータが複数であるか否かを判定する。また、行動認識システム200は、認識対象データの尤度が所定の閾値以上である行動モデルデータが複数である場合には、特定された複数の行動モデルデータに対する認識対象データの尤度差が所定の尤度差閾値以上であるか否かを判定する。上述したように、例えば、行動認識システム200は、認識対象データの尤度が所定の閾値以上である行動モデルデータについて、最も高い認識対象データの尤度と2番目に高い認識対象データの尤度との差を尤度差として算出してもよく、最も高い認識対象データの尤度と3番目に高い認識対象データの尤度との差を尤度差として算出してもよい。また、行動認識システム200は、認識対象データの尤度が所定の閾値以上である行動モデルデータについて、最も高い認識対象データの尤度と最も低い認識対象データの尤度との差を尤度差として算出してもよい。
また、行動認識システム200は、認識対象データの尤度が所定の閾値以上である行動モデルデータが1つである場合、又は、複数の行動モデルデータに対する認識対象データの尤度差が所定の尤度差閾値以上である場合には、ステップ61の処理に移る。一方、行動認識システム200は、複数の行動モデルデータに対する認識対象データの尤度差が所定の尤度差閾値未満である場合には、ステップ62の処理に移る。
ステップ61において、行動認識システム200は、認識結果とする行動を特定する。具体的には、行動認識システム200は、認識対象データの尤度が最も大きい行動モデルデータを特定し、特定された行動モデルデータに対応する行動を認識結果とする。
ステップ62において、行動認識システム200は、ステップ52で小領域毎に算出されたオプティカルフローのスカラー和が最も大きい小領域を選択する。
ステップ63において、行動認識システム200は、ステップ62で選択された小領域の画像データとテンプレート記憶部240に記憶されたテンプレートデータとを画像マッチングする。具体的には、行動認識システム200は、ステップ60で特定された複数の行動モデルデータ(行動)に対応するテンプレートデータを読み出すとともに、読み出されたテンプレートデータと小領域の画像データとを画像マッチングする。
ステップ64において、行動認識システム200は、ステップ60で特定された複数の行動モデルデータに対応する行動について、テンプレートデータと小領域の画像データとの一致度を示すマッチングスコアを算出する。
ステップ65において、行動認識システム200は、ステップ57で算出された行動モデルデータに対する認識対象データの尤度とステップ64で算出されたマッチングスコアとを用いて、認識結果とする行動を特定する。
例えば、行動認識システム200は、認識対象データの尤度とマッチングスコアとを積算して、ステップ60で特定された複数の行動モデルデータに対応する行動毎に判定値を算出する。続いて、行動認識システム200は、判定値が最大となる行動を認識結果とする。
(作用及び効果)
本発明の第1実施形態に係る行動認識システム200によれば、認識結果判定部250は、尤度算出部235によって算出された認識対象データの尤度に基づいて、認識対象画像データに対応する人物の行動を絞り込む。また、画像マッチング部245は、認識対象データの尤度が所定の閾値以上である行動モデルデータについて、人物の行動毎にクラスタリングされたテンプレートデータと認識対象画像データとの一致度を算出する。
さらに、認識結果判定部250は、認識対象データの尤度が所定の閾値以上である行動モデルデータに対応する行動の中から、尤度算出部235によって算出される認識対象データの尤度及び画像マッチング部245によって算出されるマッチングスコアに基づいて、認識結果とする人物の行動を特定する。
従って、行動認識システム200は、複雑で多様な人物の行動を行動特徴の組合せによって定義しなくても、認識対象画像データに対応する人物の行動を特定することができる。また、行動認識システム200は、認識対象データの尤度が近接した行動モデルデータが複数である場合であっても、尤度算出部235によって算出される認識対象データの尤度に加えて、認識対象画像データとテンプレートデータの一致度(マッチングスコア)を用いて、認識結果とする行動を特定することによって、行動認識の精度の向上を図ることができる。
換言すると、行動認識システムは、複雑で多様な人物の行動を認識するとともに、行動認識の精度の向上を図ることができる。
また、本発明の第1実施形態に係る行動認識システム200によれば、尤度算出部235は、テンプレートデータと比較される認識対象画像データに対応する小領域として、オプティカルフローのスカラー和が最大となる小領域を選択する。また、画像マッチング部245は、オプティカルフローのスカラー和が最大となる小領域の画像データ(認識対象画像データ)とテンプレートデータとの一致度を算出する。
すなわち、行動認識システム200は、オプティカルフローのスカラー和が大きい小領域、すなわち、動き量が大きい小領域に着目して、認識対象画像データとテンプレートデータとの一致度を算出することによって、画像マッチングに係る処理負荷の軽減を図るとともに、行動認識の精度の向上を図ることができる。
さらに、本発明の第1実施形態に係る行動認識システム200によれば、クラスタリングテーブルにおいて、人物の行動とテンプレートデータとが対応付けられている。
従って、行動認識システム200は、認識対象画像データとテンプレートデータとを比較する際に、テンプレートデータを容易に特定することができ、画像マッチングに係る処理負荷の軽減を図ることができる。
また、本発明の第1実施形態に係る行動認識システム200によれば、認識対象データ生成部230は、オプティカルフローのスカラー和が大きい順に所定数の小領域を抽出し、抽出された小領域毎にオプティカルフローのベクトル和を算出する。また、認識対象データ生成部230は、算出されたベクトル和の大きさ及びベクトル和の角度を含む認識対象データを生成する。
すなわち、行動認識システム200は、オプティカルフローのスカラー和が大きい小領域、すなわち、動き量が大きい小領域に着目して、認識対象データを生成することによって、認識対象データの生成に係る処理負荷の軽減を図るとともに、効率的に認識対象データを生成することができる。
[第2実施形態]
以下において、本発明の第2実施形態に係る行動認識システムについて、図面を参照しながら説明する。なお、以下においては、上述した第1実施形態と第2実施形態との差異について主として説明する。
具体的には、上述した第1実施形態では、認識対象データの尤度が所定の閾値以上である行動モデルデータが複数である場合に、認識対象画像データとテンプレートデータとの画像マッチングによって認識結果とする人物の行動を特定していた。
これに対して、第2実施形態では、認識対象データの尤度が所定の閾値以上である行動モデルデータが複数である場合に、小領域毎に算出された認識対象データの尤度の分散又は小領域毎に算出された認識対象データの尤度の尖度によって認識結果とする人物の行動を特定する。
これに伴って、第2実施形態では、学習データ(すなわち、行動モデルデータ)及び認識対象データは、フレームを構成する複数の小領域毎に生成される。また、行動モデルデータに対する認識対象データの尤度として、小領域毎に算出された認識対象データの尤度の和が用いられる。
(行動認識システムの構成)
以下において、本発明の第2実施形態に係る行動認識システムの構成について、図面を参照しながら説明する。図10は、本発明の第2実施形態に係る行動認識システム200を示すブロック図である。なお、図10では、図2に示した行動認識システム200と同様の構成については同様の符号を付している。
図10に示すように、行動認識システム200は、通信部205と、オプティカルフロー算出部210と、学習データ生成部215aと、行動モデル生成部220aと、行動モデル記憶部225と、認識対象データ生成部230aと、尤度算出部235aと、認識結果判定部250aとを有する。
学習データ生成部215aは、オプティカルフロー算出部210から取得したオプティカルフローに基づいて学習データを小領域毎に生成する。具体的には、学習データ生成部215aは、オプティカルフローのベクトル和を小領域毎に算出し、ベクトル和の大きさ及びベクトル和の角度を含む学習データを小領域毎に生成する。
行動モデル生成部220aは、学習データ生成部215aによって生成された学習データに基づいて行動モデルデータを小領域毎に生成する。具体的には、行動モデル生成部220aは、隠れマルコフモデル(HMM;Hidden Markov Model)などの統計モデル生成手法によって、「食べる」や「書く」といったような行動について行動モデルデータを小領域毎に生成する。
以下において、統計モデル生成手法として、隠れマルコフモデルを用いた場合を例に挙げて、行動モデルデータの作成方法について説明する。
例えば、上述した隠れマルコフモデルでは、第1実施形態と同様に、行動モデル生成部220aは、小領域毎に状態の数を決定する。なお、状態とは、上述したように、観測者が観測できないものであり、出力記号とは、観測者が観測可能なデータであり、小領域毎に算出されたベクトル和の大きさ及びベクトル和の角度の組合せである。
続いて、行動モデル生成部220aは、Baum−Welchアルゴリズムに従って、「食べる」や「書く」といったような行動毎に隠れマルコフモデルのパラメータを小領域毎に推定する。また、行動モデル生成部220aは、「食べる」や「書く」といったような行動について小領域毎に推定された隠れマルコフモデルのパラメータを行動モデルデータとして行動モデル記憶部225に記憶する。
認識対象データ生成部230aは、オプティカルフロー算出部210から取得したオプティカルフローに基づいて認識対象データを小領域毎に生成する。具体的には、認識対象データ生成部230aは、オプティカルフローのベクトル和を小領域毎に算出し、ベクトル和の大きさ及びベクトル和の角度を含む認識対象データを小領域毎に生成する。
尤度算出部235aは、行動モデル記憶部225に記憶された複数の行動モデルデータに対する認識対象データの尤度を小領域毎に算出する。また、尤度算出部235aは、小領域毎に算出された認識対象データの尤度を認識結果判定部250aに入力する。
例えば、上述した隠れマルコフモデルでは、上述した第1実施形態と同様に、尤度算出部235aは、ベクトル和の大きさ及びベクトル和の角度を含む認識対象データに基づいて、その認識対象データに対応する出力記号列を小領域毎に取得する。続いて、尤度算出部235aは、小領域毎に取得された出力記号列が各隠れマルコフモデルに従って出力される確率(尤度)を小領域毎に算出する。
具体的には、尤度算出部235は、以下の式に従って、各隠れマルコフモデル(行動モデルデータ)に対する認識対象データの尤度(Pλ)を小領域毎に算出する。
Figure 2007213528
但し、O1,O2,・・・Otは、行動モデルデータ(隠れマルコフモデル)の出力記号であり、ok(1), ok(2)・・・ok(t)は、認識対象データの出力記号であり、Nは、状態の数である。また、πjは、初期状態が状態(j)である確率であり、ai,jは、状態(i)から状態(j)に遷移する遷移確率であり、bj,k(t)は、時刻tにおいて状態(j)から出力記号(ok(t))が出力される確率である。
認識結果判定部250aは、尤度算出部235aから取得した認識対象データの尤度に基づいて認識結果とする行動を特定する。具体的には、認識結果判定部250aは、小領域毎に算出された認識対象データの尤度和を行動モデルデータ毎に算出する。また、認識結果判定部250aは、行動モデルデータ毎に算出された認識対象データの尤度和が所定の尤度和閾値以上である行動モデルデータを特定し、特定された行動モデルデータに対応する行動を特定する。
ここで、認識結果判定部250aは、特定された行動が1つである場合には、その行動を認識結果とする。
また、認識結果判定部250aは、特定された行動が複数である場合には、特定された複数の行動に対応する行動モデルデータに対する認識対象データの尤度和の差を算出する。例えば、認識結果判定部250aは、認識対象データの尤度和が所定の尤度和閾値以上である行動モデルデータについて、最も高い認識対象データの尤度和と2番目に高い認識対象データの尤度和との差を尤度和の差として算出してもよく、最も高い認識対象データの尤度和と3番目に高い認識対象データの尤度和との差を尤度和の差として算出してもよい。また、認識結果判定部250aは、認識対象データの尤度和が所定の閾値以上である行動モデルデータについて、最も高い認識対象データの尤度和と最も低い認識対象データの尤度和との差を尤度和の差として算出してもよい。
ここで、認識結果判定部250aは、算出された尤度和の差が所定の尤度差閾値以上である場合には、認識対象データの尤度和が高い行動モデルデータに対応する行動を認識結果とする。
一方、認識結果判定部250aは、算出された尤度和の差が所定の尤度差閾値未満である場合には、小領域毎に算出された認識対象データの尤度の分散値又は尖度を算出する。また、認識結果判定部250aは、尤度の分散値又は尖度が大きい行動モデルデータに対応する行動を認識結果とする。
なお、第2実施形態において、尖度は、小領域毎に算出された尤度の分布の両裾の厚みを調べるために用いられており、“0”を基準として算出されている。すなわち、“0”よりも大きい尖度は、尤度の分布の両裾の厚みが厚く、尤度の分布が緩やかであることを示しており、“0”よりも小さい尖度は、尤度の分布の両裾の厚みが薄く、尤度の分布が急峻であることを示している。
(行動認識の一例)
以下において、認識対象データの尤度和が所定の尤度和閾値以上である行動モデルデータが複数である場合における行動認識方法について、図面を参照しながら説明する。図11(a)及び図11(b)は、本発明の第2実施形態に係る行動認識方法を説明するための図である。
図11(a)及び図11(b)に示すように、行動認識の対象となる人物を含む画像の1フレームは、複数の小領域(縦3×横3)によって構成されており、認識対象データの尤度が小領域毎に算出されている。
なお、図11(a)は、行動モデルデータ(例えば、「食べる」)に対する認識対象データの尤度を示す図であり、図11(b)は、行動モデルデータ(例えば、「書く」)に対する認識対象データの尤度を示す図である。
図11(a)及び図11(b)に示すように、各行動モデルデータに対する認識対象データの尤度和は、それぞれ、−199.7及び−199.0である。一方、小領域毎に算出された認識対象データの尤度の分散値は、それぞれ、12.959及び3.659である。また、小領域毎に算出された認識対象データの尤度の尖度は、それぞれ、0.0119及び−1.072である。
このように、認識対象データの尤度和が近接した行動モデルデータが複数である場合には、上述したように、認識結果判定部250aは、尤度の分散値又は尖度が大きい行動モデルデータに対応する行動を認識結果とする。すなわち、第2実施形態では、認識結果判定部250aは、図11(a)に示す行動モデルデータに対応する行動(例えば、「食べる」)を認識結果とする。
(行動認識システムの動作)
以下において、本発明の第2実施形態に係る行動認識システムの動作について、図面を参照しながら説明する。
まず、本発明の第2実施形態に係る行動モデル生成方法について、図面を参照しながら説明する。図12は、本発明の第2実施形態に係る行動モデル生成方法を示すフロー図である。
図12に示すように、ステップ70において、行動認識システム200は、学習用画像データをロボットシステム100から取得する。
ステップ71において、行動認識システム200は、学習用画像データに含まれる画素単位でオプティカルフローを算出する。
ステップ72において、行動認識システム200は、全ての小領域のそれぞれについて、ステップ71で算出されたオプティカルフローを用いてオプティカルフローのベクトル和を算出する。
ステップ73において、行動認識システム200は、全ての小領域のそれぞれについて、ステップ72で算出されたオプティカルフローのベクトル和の大きさ及びステップ72で算出されたオプティカルフローのベクトル和の角度を算出する。
ステップ74において、行動認識システム200は、ステップ73で算出されたオプティカルフローのベクトル和の大きさ及びステップ73で算出されたオプティカルフローのベクトル和の角度を含む学習データを小領域毎に生成する。
ここで、行動認識システム200は、ステップ70〜ステップ74の処理を人物の行動毎にそれぞれ繰り返すことによって、人物の行動をモデル化するのに十分な学習データを人物の行動毎に準備する。
ステップ75において、行動認識システム200は、ステップ74で生成された学習データに基づいて、隠れマルコフモデル(HMM;Hidden Markov Model)などの統計モデル生成手法によって行動モデルデータを生成する。なお、行動モデルデータは、行動認識システム200の行動モデル記憶部225に記憶される。
次に、本発明の第2実施形態に係る行動認識方法について、図面を参照しながら説明する。図13及び図14は、本発明の第2実施形態に係る行動認識方法を示すフロー図である。
図13に示すように、ステップ80において、行動認識システム200は、認識対象画像データをロボットシステム100から取得する。
ステップ81において、行動認識システム200は、認識対象画像データに含まれる画素単位でオプティカルフローを算出する。
ステップ82において、行動認識システム200は、全ての小領域のそれぞれについて、ステップ81で算出されたオプティカルフローを用いてオプティカルフローのベクトル和を算出する。
ステップ83において、行動認識システム200は、全ての小領域のそれぞれについて、ステップ82で算出されたオプティカルフローのベクトル和の大きさ及びステップ82で算出されたオプティカルフローのベクトル和の角度を算出する。
ステップ84において、行動認識システム200は、ステップ83で算出されたオプティカルフローのベクトル和の大きさ及びステップ83で算出されたオプティカルフローのベクトル和の角度を含む認識対象データを小領域毎に生成する。
続いて、図14に示すように、ステップ85において、行動認識システム200は、行動モデル記憶部225に記憶された複数の行動モデルデータのそれぞれに対する認識対象データの尤度を小領域単位で算出する。
ステップ86において、行動認識システム200は、複数の行動モデルデータのそれぞれについて、ステップ85で小領域毎に算出された尤度の和である尤度和を算出する。
ステップ87において、行動認識システム200は、ステップ86で算出された尤度和が所定の尤度和閾値以上である行動モデルデータがあるか否かを算出する。また、行動認識システム200は、尤度和が所定の尤度和閾値以上である行動モデルデータがある場合には、ステップ89の処理に移り、尤度和が所定の尤度和閾値以上である行動モデルデータがない場合には、ステップ88の処理に移る。
ステップ88において、行動認識システム200は、認識結果とする行動がないと判定する。すなわち、行動認識システム200は、行動認識ができなかったと判定する。
ステップ89において、行動認識システム200は、ステップ86で算出された尤度和が所定の尤度和閾値以上である行動モデルデータが複数であるか否かを判定する。また、行動認識システム200は、尤度和が所定の尤度和閾値以上である行動モデルデータが複数である場合には、特定された複数の行動モデルデータに対する認識対象データの尤度和の差が所定の尤度差閾値以上であるか否かを判定する。
また、行動認識システム200は、尤度和が所定の閾値以上である行動モデルデータが1つである場合、又は、複数の行動モデルデータに対する認識対象データの尤度和の差が所定の尤度差閾値以上である場合には、ステップ90の処理に移る。一方、行動認識システム200は、複数の行動モデルデータに対する認識対象データの尤度和の差が所定の尤度差閾値未満である場合には、ステップ91の処理に移る。
ステップ90において、行動認識システム200は、認識結果とする行動を特定する。具体的には、行動認識システム200は、認識対象データの尤度和が最も大きい行動モデルデータを特定し、特定された行動モデルデータに対応する行動を認識結果とする。
ステップ91において、行動認識システム200は、ステップ85で小領域毎に算出された尤度を用いて、尤度の分散値又は尤度の尖度を算出する。
ステップ92において、行動認識システム200は、認識結果とする行動を特定する。具体的には、行動認識システム200は、尤度の分散値が最も大きい行動モデルデータ又は尤度の尖度が最も大きい行動モデルデータを特定し、特定された行動モデルデータに対応する行動を認識結果とする。
すなわち、行動認識システム200は、最も尤度が大きい小領域がある行動モデルデータを特定し、特定された行動モデルデータに対応する行動を認識結果とする。これによって、複数の行動モデルデータに対する認識対象データの尤度和が近接している場合であっても、行動認識システム200は、人物の行動を従来よりも正確に認識できる。
(作用及び効果)
本発明の第2実施形態に係る行動認識システム200によれば、認識結果判定部250aは、尤度算出部235によって算出された認識対象データの尤度に基づいて、認識対象画像データに対応する人物の行動を絞り込む。また、認識結果判定部250aは、認識対象データの尤度が所定の閾値以上である行動モデルデータについて、小領域毎に算出された認識対象データの尤度の分散値又は尖度を算出する。
さらに、認識結果判定部250aは、認識対象データの尤度が所定の閾値以上である行動モデルデータに対応する行動の中から、分散値又は尖度が最も大きい行動モデルデータに対応する行動を特定し、特定された行動を認識結果とする。
従って、行動認識システム200は、複雑で多様な人物の行動を行動特徴の組合せによって定義しなくても、認識対象画像データに対応する人物の行動を特定することができる。また、行動認識システム200は、認識対象データの尤度が近接した行動モデルデータが複数である場合であっても、尤度算出部235aによって算出された認識対象データの尤度に加えて、小領域毎に算出された認識対象データの尤度の分散値又は尖度を用いて、認識結果とする行動を特定することによって、行動認識の精度の向上を図ることができる。
換言すると、行動認識システムは、複雑で多様な人物の行動を認識するとともに、行動認識の精度の向上を図ることができる。
[その他の実施形態]
上述した第1実施形態及び第2実施形態によって本発明について説明したが、この開示の一部をなす記述及び図面は、この発明を限定するものであると理解すべきではない。当業者には、様々な代替実施形態、実施例及び運用技術がこの開示から明らかとなるであろう。
例えば、上述した第1実施形態では、テンプレートデータと比較される認識対象画像データに対応する小領域として、オプティカルフローのスカラー和が最も大きい小領域が選択されるが(上述したステップ62)、これに限定されるものではない。
具体的には、テンプレートデータと比較される認識対象画像データに対応する小領域として、小領域毎に算出された認識対象データの尤度和が最も大きい小領域が選択されてもよい。
このような場合には、上述した第2実施形態と同様に、認識対象データ生成部230は、ベクトル和の大きさ及びベクトル和の角度を含む認識対象データを小領域毎に算出し、尤度算出部235は、行動モデルデータに対する認識対象データの尤度を小領域毎に算出する。
また、上述した第1実施形態では、認識対象データ生成部230は、オプティカルフローのスカラー和が大きい順に抽出された小領域についてのみ、認識対象データを生成するが、これに限定されるものではない。
具体的には、認識対象データ生成部230は、小領域を抽出せずに、全ての小領域について認識対象データを生成してもよい。
さらに、上述した第2実施形態では、認識結果判定部250aは、小領域毎に算出された認識対象データの尤度和に基づいて、行動モデルデータ(認識結果とする行動)を絞り込むが、これに限定されるものではない。
具体的には、認識結果判定部250aは、上述した第1実施形態と同様の手法によって、行動モデルデータ(認識結果とする行動)を絞り込んでもよい。
また、上述した第1実施形態及び第2実施形態では、行動モデルデータの生成方法として、隠れマルコフモデルを用いた方法を例示したが、これに限定されるものではなく、他の統計モデル生成手法によって行動モデルデータを生成してもよい。
なお、上述した第1実施形態及び第2実施形態では、認識対象となる人物の画像データを取得するシステムとして、ロボットシステム100を例に挙げて説明したが、これに限定されるものではない。例えば、認識対象となる人物の画像データを取得するシステムは、撮像部のみを有するカメラシステムであってもよい。
本発明の第1実施形態に係るロボットシステム100を示すブロック図である。 本発明の第1実施形態に係る行動認識システム200を示すブロック図である。 本発明の第1実施形態に係るクラスタリングテーブルの一例を示す図である。 本発明の第1実施形態に係る小領域の抽出方法を説明するための図である。 本発明の第1実施形態に係る行動認識方法を説明するための図である。 本発明の第1実施形態に係る行動モデル生成方法を示すフロー図である。 本発明の第1実施形態に係るテンプレート生成方法を示すフロー図である。 本発明の第1実施形態に係る行動認識方法を示すフロー図である(その1)。 本発明の第1実施形態に係る行動認識方法を示すフロー図である(その2)。 本発明の第2実施形態に係る行動認識システム200を示すブロック図である。 本発明の第2実施形態に係る行動認識方法を説明するための図である。 本発明の第2実施形態に係る行動モデル生成方法を示すフロー図である。 本発明の第2実施形態に係る行動認識方法を示すフロー図である(その1)。 本発明の第2実施形態に係る行動認識方法を示すフロー図である(その2)。
符号の説明
100・・・ロボットシステム、105・・・詳細画像撮像部、110・・・広角画像撮像部、115・・・撮像制御部、120・・・データ処理部、125・・・通信部、130・・・移動機構制御部、135・・・移動機構部、200・・・行動認識システム、205・・・通信部、210・・・オプティカルフロー算出部、215・・・学習データ生成部、220・・・行動モデル生成部、225・・・行動モデル記憶部、230・・・認識対象データ生成部、235・・・尤度算出部、240・・・テンプレート記憶部、245・・・画像マッチング部、250・・・認識結果判定部

Claims (7)

  1. 行動認識の対象となる人物を含む画像データである認識対象画像データを用いて、認識対象データを生成する認識対象データ生成部と、
    人物の行動をモデル化したデータである複数の行動モデルデータと前記認識対象データ生成部によって生成された前記認識対象データとを比較し、前記複数の行動モデルデータのそれぞれに対する前記認識対象データの尤度を算出する尤度算出部と、
    予め生成された対象物の画像データであるテンプレートデータと前記認識対象画像データとを比較するテンプレート比較部と、
    前記尤度算出部による算出結果及び前記テンプレート比較部による比較結果に基づいて、前記認識対象画像データに対応する人物の行動を特定し、特定された人物の行動を認識結果とする行動認識部とを備えることを特徴とする行動認識システム。
  2. 前記行動認識の対象となる人物を含む画像を構成するフレームの一部である複数の小領域の中から、前記テンプレート比較部によって前記テンプレートデータと比較される前記認識対象画像データに対応する前記小領域を選択する小領域選択部をさらに備えることを特徴とする請求項1に記載の行動認識システム。
  3. 前記認識対象画像データを用いてオプティカルフローを算出するオプティカルフロー算出部をさらに備え、
    前記小領域選択部は、前記オプティカルフロー算出部によって算出された前記オプティカルフローの和が最大となる前記小領域を選択することを特徴とする請求項2に記載の行動認識システム。
  4. 前記認識対象画像データを用いてオプティカルフローを算出するオプティカルフロー算出部をさらに備え、
    前記認識対象データ生成部は、前記オプティカルフローに基づいて前記認識対象データを前記小領域毎に生成し、
    前記尤度算出部は、前記認識対象データの前記尤度を前記小領域毎に算出し、
    前記小領域選択部は、前記小領域毎に算出された前記認識対象データの前記尤度が最大となる前記小領域を選択することを特徴とする請求項2に記載の行動認識システム。
  5. 前記テンプレートデータは、人物の複数の行動にそれぞれ対応付けられた前記対象物の画像データであることを特徴とする請求項1に記載の行動認識システム。
  6. 前記認識対象画像データを用いてオプティカルフローを算出するオプティカルフロー算出部をさらに備え、
    前記認識対象データ生成部は、前記行動認識の対象となる人物を含む画像を構成するフレームの一部である小領域の中から、前記オプティカルフローの和が大きい順に所定数の前記小領域を抽出し、抽出された前記小領域に対応する前記オプティカルフローに基づいて、前記認識対象データを生成することを特徴とする請求項1に記載の行動認識システム。
  7. 行動認識の対象となる人物を含む画像データである認識対象画像データを用いてオプティカルフローを算出するオプティカルフロー算出部と、
    前記オプティカルフロー算出部によって算出された前記オプティカルフローに基づいて、前記行動認識の対象となる人物を含む画像を構成するフレームの一部である小領域毎に認識対象データを生成する認識対象データ生成部と、
    人物の行動をモデル化したデータである複数の行動モデルデータと前記認識対象データ生成部によって生成された前記認識対象データとを比較し、前記複数の行動モデルデータのそれぞれに対する前記認識対象データの尤度を前記小領域毎に算出する尤度算出部と、
    前記小領域毎に算出された前記尤度の分散値又は前記小領域毎に算出された前記尤度の尖度を算出する分布度算出部と、
    前記尤度算出部による算出結果及び前記分布度算出部による算出結果に基づいて、前記認識対象画像データに対応する人物の行動を特定し、特定された人物の行動を認識結果とする行動認識部とを備えることを特徴とする行動認識システム。
JP2006035830A 2006-02-13 2006-02-13 行動認識システム Withdrawn JP2007213528A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006035830A JP2007213528A (ja) 2006-02-13 2006-02-13 行動認識システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006035830A JP2007213528A (ja) 2006-02-13 2006-02-13 行動認識システム

Publications (1)

Publication Number Publication Date
JP2007213528A true JP2007213528A (ja) 2007-08-23

Family

ID=38491870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006035830A Withdrawn JP2007213528A (ja) 2006-02-13 2006-02-13 行動認識システム

Country Status (1)

Country Link
JP (1) JP2007213528A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010004719A1 (ja) * 2008-07-08 2010-01-14 パナソニック株式会社 物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム
JP2017228100A (ja) * 2016-06-23 2017-12-28 コニカミノルタ株式会社 行動認識装置及び行動認識プログラム
JP2018049484A (ja) * 2016-09-21 2018-03-29 パナソニックIpマネジメント株式会社 気質推定システム、気質推定方法及び気質推定処理プログラム
WO2018211696A1 (ja) * 2017-05-19 2018-11-22 三菱電機株式会社 動体追跡装置
WO2018235628A1 (ja) * 2017-06-23 2018-12-27 オムロン株式会社 見守り支援システム及びその制御方法、及びプログラム
WO2019003859A1 (ja) * 2017-06-27 2019-01-03 オムロン株式会社 見守り支援システム及びその制御方法、及びプログラム
JP2019016268A (ja) * 2017-07-10 2019-01-31 コニカミノルタ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2020071665A (ja) * 2018-10-31 2020-05-07 富士通株式会社 行動認識方法、行動認識プログラムおよび行動認識装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010004719A1 (ja) * 2008-07-08 2010-01-14 パナソニック株式会社 物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム
US8436897B2 (en) 2008-07-08 2013-05-07 Panasonic Corporation Article estimating apparatus and article position estimating apparatus, article estimating method as well as article estimating program
JP2017228100A (ja) * 2016-06-23 2017-12-28 コニカミノルタ株式会社 行動認識装置及び行動認識プログラム
JP2018049484A (ja) * 2016-09-21 2018-03-29 パナソニックIpマネジメント株式会社 気質推定システム、気質推定方法及び気質推定処理プログラム
WO2018211696A1 (ja) * 2017-05-19 2018-11-22 三菱電機株式会社 動体追跡装置
WO2018235628A1 (ja) * 2017-06-23 2018-12-27 オムロン株式会社 見守り支援システム及びその制御方法、及びプログラム
JP2019008515A (ja) * 2017-06-23 2019-01-17 オムロン株式会社 見守り支援システム及びその制御方法
WO2019003859A1 (ja) * 2017-06-27 2019-01-03 オムロン株式会社 見守り支援システム及びその制御方法、及びプログラム
JP2019008638A (ja) * 2017-06-27 2019-01-17 オムロン株式会社 見守り支援システム及びその制御方法
JP2019016268A (ja) * 2017-07-10 2019-01-31 コニカミノルタ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2020071665A (ja) * 2018-10-31 2020-05-07 富士通株式会社 行動認識方法、行動認識プログラムおよび行動認識装置
JP7119912B2 (ja) 2018-10-31 2022-08-17 富士通株式会社 行動認識方法、行動認識プログラムおよび行動認識装置

Similar Documents

Publication Publication Date Title
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
US10380414B2 (en) Method and system of facial expression recognition using linear relationships within landmark subsets
CN105005777B (zh) 一种基于人脸的音视频推荐方法及系统
JP5010905B2 (ja) 顔認証装置
JP5675229B2 (ja) 画像処理装置及び画像処理方法
US8306282B2 (en) Hierarchical face recognition training method and hierarchical face recognition method thereof
JP2007213528A (ja) 行動認識システム
KR20160096460A (ko) 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법
KR101563297B1 (ko) 영상에서 행동을 인식하는 방법 및 장치
JP2007317062A (ja) 人物認識装置及びその方法
JP2007072620A (ja) 画像認識装置及びその方法
JP2011134114A (ja) パターン認識方法およびパターン認識装置
JP5087037B2 (ja) 画像処理装置、方法及びプログラム
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
KR101558547B1 (ko) 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템
EP2717223A1 (en) Information processing device, information processing method, and information processing program
KR100988326B1 (ko) 사용자 맞춤형 표정 인식 방법 및 장치
JP2017228224A (ja) 情報処理装置、情報処理方法及びプログラム
JP2007048172A (ja) 情報分類装置
KR101515308B1 (ko) 얼굴 자세 추정 장치 및 그 방법
JP2006293720A (ja) 顔検出装置、顔検出方法、及び顔検出プログラム
Appenrodt et al. Multi stereo camera data fusion for fingertip detection in gesture recognition systems
KR101621304B1 (ko) 마우스맵을 이용한 능동형태모델 기반 입술 형태 추정 방법 및 시스템
JP2017033556A (ja) 画像処理方法及び電子機器

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090512