JP2009009413A - 動作検知装置及び動作検知プログラム、並びに動作基本モデル生成装置及び動作基本モデル生成プログラム - Google Patents
動作検知装置及び動作検知プログラム、並びに動作基本モデル生成装置及び動作基本モデル生成プログラム Download PDFInfo
- Publication number
- JP2009009413A JP2009009413A JP2007171011A JP2007171011A JP2009009413A JP 2009009413 A JP2009009413 A JP 2009009413A JP 2007171011 A JP2007171011 A JP 2007171011A JP 2007171011 A JP2007171011 A JP 2007171011A JP 2009009413 A JP2009009413 A JP 2009009413A
- Authority
- JP
- Japan
- Prior art keywords
- person
- time
- motion
- model
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】被観察者の動作を検知する際の検出精度を向上する。
【解決手段】動作検知装置10は、被観察者の撮像画像データを取得し、3次元の人物領域の情報を抽出し、時系列データを作成し、時系列データを所定の時系列区分で切り出す。動作検知装置10は、時系列区分毎に切り出した時系列データと、時系列区分に用意された動作基本モデルとをマッチングする。動作検知装置10は、所定の時系列区分毎に動作基本モデルと時系列データとの類似度を算出し、これらを合わせて総合的に類似度を判定し、被観察者の動作を検知する。
【選択図】図11
【解決手段】動作検知装置10は、被観察者の撮像画像データを取得し、3次元の人物領域の情報を抽出し、時系列データを作成し、時系列データを所定の時系列区分で切り出す。動作検知装置10は、時系列区分毎に切り出した時系列データと、時系列区分に用意された動作基本モデルとをマッチングする。動作検知装置10は、所定の時系列区分毎に動作基本モデルと時系列データとの類似度を算出し、これらを合わせて総合的に類似度を判定し、被観察者の動作を検知する。
【選択図】図11
Description
本発明は、被観察者の動作を検知する動作検知装置に関する。
被観察者の転倒を検知する装置として、被観察者をカメラで撮像し、撮像画像から被観察者の動作ベクトルを検出し、検出した動作ベクトルと予め記憶している被観察者の転倒ベクトルとを比較することにより、被観察者が転倒したか否かを判別する技術が既に開発されている(特許文献1参照)。
また、被観察者の転倒を検知する装置として、被観察者をカメラで撮像し、撮像画像と被観察者が存在しないときに撮像された参照画像との差分領域を抽出し、差分領域の面積に基づいて被観察者が転倒したか否かを判別する技術が開発されている(特許文献2参照)。
また、被観察者の動作特徴が格納されているデータベースを参照して、被観察者の部位、行動の特徴、動作の判定を行う技術が開発されている(特許文献3参照)。
特開2002−232870号公報
特開2000−207664号公報
特開2005−258830号公報
ところが、特許文献1乃至3の技術では、転倒の検出精度が低かった。そこで本発明は、被観察者の「前方転倒」、「後方転倒(しりもち)」、「座る」、「寝転び」などの動作を検知する際の検出精度の向上を図ることを可能とする動作検知装置を提供することを目的とする。
上記目的を達成するために、本発明の特徴は、被観察者を撮像する撮像部と、人物の所定動作の3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つの時系列データから抽出された動作基本モデルが所定の時系列区分毎に格納された動作基本モデル格納部と、前記撮像部で撮像された前記被観察者の撮像画像を用いて、前記動作基本モデル格納部に格納された前記動作基本モデルを参照して被観察者の動作を判定する動作判定部とを備え、前記動作判定部は、前記被観察者の撮像画像を用いて複数の3次元の人物領域の情報を抽出する人物領域情報抽出部と、前記複数の3次元の人物領域の情報から3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つを算出し、算出した値の時系列データを抽出する時系列データ抽出部と、前記動作基本モデルと前記時系列データ抽出部で抽出された時系列データの前記所定の時系列区分毎における類似度を算出する類似度算出部と、算出された前記類似度の組合せに基づいて総合類似度を算出し、前記総合類似度を用いて被観察者の動作を判定する動作算出部とを有する動作検知装置であることを要旨とする。
ここで、「動作」とは、ある時間長をもった姿勢の遷移のひと纏まりのことを意味する。また、「姿勢」とは、「立位」、「臥位」、「座位」等、人物の高さ方向に違いのある体勢や格好を意味する。なお、人物の一般的な動き全般を記す必要があるときは、「振る舞い」という。例えば、前方への転倒(前方転倒という)、後方への転倒(しりもちともいう)、座る、寝転び等は、人物の振る舞いの中の特定の「動作」ということができる。
かかる特徴によれば、動作基本モデルが所定の時系列区分毎に格納されており、被観察者の撮像画像を用いて複数の3次元の人物領域の情報が抽出され、複数の3次元の人物領域の情報から3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つが算出され、算出された値から時系列データが抽出される。抽出された時系列データは、所定の時系列区分に分けられて、時系列区分毎に動作基本モデルとの類似度が算出され、算出された類似度の組合せに基づいて総合類似度が算出され、総合類似度を用いて被観察者の動作が判定される。
したがって、かかる特徴によれば、一連の「動き」に関する情報を、特徴が判別可能な程度にまで分割して、分割した個々に対して類似度を算出し、算出された類似度から算出される総合類似度を用いて動作を判定するので、一連の「動き」全体の検出精度を向上させることができる。これにより、被観察者の「前方転倒」、「後方転倒(しりもち)」、「座る」、「寝転び」などの動作を検知する際の検出精度を向上することができる。
上記の特徴に係る動作検知装置において、時系列データ抽出部は、複数の3次元の人物領域の情報から3次元の人物領域の高さ、幅及び奥行きの時系列データ、高さと幅の比、高さと奥行きの比、幅と奥行きの比のうち少なくとも1つの値の時系列データを抽出することが好ましい。
かかる特徴によれば、抽出された3次元の人物領域の高さ、幅、奥行き、時間、またこれらパラメータの相関関係等を適宜組み合わせて使用することにより、判定に使用する時系列データに特徴量をもたせることができ、検出精度を向上させることができる。
また、上記の特徴に係る動作検知装置において、時系列データ抽出部は、複数の3次元の人物領域の情報から3次元の人物領域の重心座標の時系列データを抽出することが好ましい。
かかる特徴によれば、抽出された3次元の人物領域の高さ、幅、奥行き、時間、またこれらパラメータの相関関係等を適宜組み合わせて使用することにより、判定に使用する時系列データに特徴量をもたせることができ、検出精度を向上させることができる。
また、上記の特徴に係る動作検知装置において、時系列データ抽出部は、3次元の人物領域の高さと撮像間隔の比、3次元の人物領域の幅と撮像間隔の比、3次元の人物領域の奥行きと撮像間隔の比、3次元の人物領域の高さ方向の中心座標と撮像間隔の比、3次元の人物領域の幅方向の中心座標と撮像間隔の比、3次元の人物領域の奥行き方向の中心座標と撮像間隔の比のうちの少なくとも1つの値の時系列データを抽出することが好ましい。
かかる特徴によれば、抽出された3次元の人物領域の高さ、幅、奥行き、時間、またこれらパラメータの相関関係等を適宜組み合わせて使用することにより、判定に使用する時系列データに特徴量をもたせることができ、検出精度を向上させることができる。時系列データを算出するための撮像画像データは、取得間隔が不定である。したがって、撮像間隔との比をとり、時間で正規化することにより、抽出される時系列データの信頼度を向上させることができる。
また、本発明の特徴は、人物の撮像画像を取得する画像データ取得部と、前記撮像画像に基づいて複数の3次元の人物領域の情報を抽出する人物領域情報抽出部と、前記複数の3次元の人物領域情報から3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つを算出し、算出した値の時系列モデルデータを抽出する時系列モデルデータ抽出部と、前記時系列モデルデータ抽出部において抽出した時系列モデルデータを所定の時系列区分毎に分類する時系列モデルデータ分類部と、前記分類された時系列モデルデータから前記所定の時系列区分毎の人物の動作基本モデルを作成する動作基本モデル作成部と、前記動作基本モデルが時系列区分毎に格納される動作基本モデル格納部とを備える動作基本モデル生成装置であることを要旨とする。
かかる特徴によれば、人物の撮像画像は取得されて、取得された撮像画像に基づいて複数の3次元の人物領域の情報が抽出され、複数の3次元の人物領域情報から3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つが算出され、算出された値の時系列データが抽出される。抽出された時系列データは、所定の時系列区分毎に分類され、分類された時系列データから所定の時系列区分毎の人物の動作基本モデルが作成され、作成された動作基本モデルが時系列区分毎に格納される。
したがって、かかる特徴によれば、動作基本モデルを所定の時系列区分毎に用意することができるので、動作基本モデルと比較対象となるデータとの類似度を比較する際の比較精度の向上を図ることができる。
上記の特徴に係る動作基本モデル生成装置において、動作基本モデル作成部は、3次元の人物領域の高さ、幅及び奥行きの時系列モデルデータ、高さと幅の比、高さと奥行きの比、幅と奥行きの比のうち少なくとも1つの値の時系列モデルデータに関して、人物の動作基本モデルを作成することが好ましい。
また、本発明の特徴は、被観察者の撮像画像を用いて、メモリに格納された人物の所定動作における3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つの時系列データから抽出された動作基本モデルを参照して被観察者の動作を検知する動作検知装置として機能するコンピュータに、被観察者の撮像画像を取得する工程(A)と、取得した前記撮像画像を用いて複数の3次元の人物領域の情報を抽出する工程(B)と、前記複数の3次元の人物領域の情報から3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つを算出し、算出した値の時系列データを抽出する工程(C)と、前記動作基本モデルと抽出された前記時系列データの前記所定の時系列区分毎における類似度を算出する工程(D)と、算出された前記類似度の組合せに基づいて総合類似度を算出し、前記総合類似度を用いて被観察者の動作を判定する工程(E)とを実行させる動作検知プログラムであることを要旨とする。
かかる特徴によれば、動作基本モデルが所定の時系列区分毎に格納されており、被観察者の撮像画像を用いて複数の3次元の人物領域の情報が抽出され、複数の3次元の人物領域の情報から3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つが算出され、算出された値から時系列データが抽出される。抽出された時系列データは、所定の時系列区分に分けられて、時系列区分毎に動作基本モデルとの類似度が算出され、算出された類似度の組合せに基づいて総合類似度が算出され、総合類似度を用いて被観察者の動作が判定される。
したがって、かかる特徴によれば、一連の「動き」に関する情報を、特徴が判別可能な程度にまで分割して、分割した個々に対して類似度を算出し、算出された類似度から算出される総合類似度を用いて動作を判定するので、一連の「動き」全体の検出精度を向上させることができる。これにより、被観察者の「前方転倒」、「後方転倒(しりもち)」、「座る」、「寝転び」などの動作を検知する際の検出精度を向上することができる。
更にまた、本発明の特徴は、人物の撮像画像を用いて、人物の所定動作における3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つの時系列データから抽出された動作基本モデルを作成する動作モデル生成装置として機能するコンピュータに、人物の撮像画像を取得する工程(a)と、取得した前記撮像画像を用いて複数の3次元の人物領域の情報を抽出する工程(b)と、前記複数の3次元の人物領域情報から3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つを算出し、算出した値の時系列モデルデータを抽出する工程(c)と、抽出した前記時系列モデルデータを所定の時系列区分毎に分類する工程(d)と、分類された前記時系列モデルデータから前記所定の時系列区分毎の人物の動作基本モデルを作成する工程(e)と、作成した前記動作基本モデルを時系列区分毎にメモリに格納する工程(f)とを実行させる動作基本モデル生成プログラムであることを要旨とする。
かかる特徴によれば、取得した撮像画像に基づいて複数の3次元の人物領域の情報を抽出し、複数の3次元の人物領域情報から3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つを算出し、算出した値の時系列モデルデータを抽出し、抽出した時系列モデルデータを所定の時系列区分毎に分類し、分類された時系列モデルデータから所定の時系列区分毎の人物の動作基本モデルを作成し、作成した動作基本モデルを時系列区分毎にメモリに格納する。
したがって、かかる特徴によれば、動作基本モデルを所定の時系列区分毎に用意することができるので、動作基本モデルと比較対象となるデータとの類似度を比較する際の比較精度の向上を図ることができる。
本発明によれば、被観察者の「前方転倒」、「後方転倒(しりもち)」、「座る」、「寝転び」などの動作を検知する際の検出精度の向上を図ることを可能とする動作検知装置を提供することを目的とする。
以下において、本発明の実施形態に係る動作検知システム及び動作検知装置について、図面を参照して説明する。なお、以下の図面の記載において、同一又は類似の部分には、同一又は類似の符号を付している。但し、図面は模式的なものであり、各寸法の比率などは現実のものとは異なることに留意すべきである。したがって、具体的な寸法などは以下の説明を参酌して判断すべきである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。
(1)動作検知システムの全体的な構成
図1に、本発明の実施形態にかかる動作検知システムの構成を説明する。動作検知システムは、人物の動作を撮像し、撮像した撮像画像データから動作に関する時系列データを抽出し、抽出した時系列データをメモリ等に用意した動作基本モデルと比較して類似度を算出し、類似度に基づいて被観察者の動作を判定する動作検知システムである。
図1に、本発明の実施形態にかかる動作検知システムの構成を説明する。動作検知システムは、人物の動作を撮像し、撮像した撮像画像データから動作に関する時系列データを抽出し、抽出した時系列データをメモリ等に用意した動作基本モデルと比較して類似度を算出し、類似度に基づいて被観察者の動作を判定する動作検知システムである。
ここで、「動作」とは、ある時間長をもった姿勢の遷移のひと纏まりのことを意味する。また、「姿勢」とは、「立位」、「臥位」、「座位」等、人物の高さ方向に違いのある体勢や格好を意味する。なお、人物の一般的な動き全般を記す必要があるときは、「振る舞い」という。例えば、前方への転倒(前方転倒という)、後方への転倒(しりもちともいう)、座る、寝転び等は、人物の振る舞いの中の特定の「動作」ということができる。
図1に示す動作検知システムは、被観察者の居室50内を撮像するステレオカメラ11、12を備えた動作検知装置10、動作検知装置10にネットワーク40を介して接続された監視装置20及び動作検知装置10にネットワーク40を介して接続された移動通信端末30を備えている。
動作検知装置10は、被観察者の動作を検知する。ネットワーク40には、複数の被観察者の居室50に対応して設けられた複数の動作検知装置10が接続されている。監視装置20は監視者が詰めている監視センタに設置されている。
監視装置20及び移動通信端末30では、各被観察者の居室50を識別可能に表す居室画面が表示されており、動作検知装置10によって検出された動作が、例えば、転倒の場合には、そのことが監視装置20及び移動通信端末30に通知され、監視装置20及び移動通信端末30はアラームなどを発生させるとともに、居室画面上においてどの居室で転倒が検知されたかを表示する。監視者は、この表示を見て、転倒が検知された居室表示を選択すると、監視装置20及び移動通信端末30は、転倒を検知した動作検知装置10から当該居室の現在の画像を受信して監視装置20及び移動通信端末30に表示する。
なお、動作検知装置10によって検知された動作は、監視装置20及び移動通信端末30に送られる。監視装置20及び移動通信端末30は、検出された動作が、例えば、転倒であったときには、転倒が検知された日時、被観察者名(居室番号)、転倒、ケア履歴等からなる情報をケア履歴データベースとして記憶する。データベースとして記憶された情報は、監視者によって閲覧できるようになっている。
(動作検知装置の構成)
図2に、本発明の実施形態にかかる動作検知装置10の構成を説明する。動作検知装置10は、被観察者の画像データを撮像する撮像部2(図1、ステレオカメラ11、12に相当する)と、人物の所定動作における動作基本モデルが格納された動作基本モデル格納部3と、被観察者の撮像画像データに基づいて、動作基本モデル格納部3に格納された時系列データを参照して被観察者の動作を判定する制御を実行する制御部4とを備えている。
図2に、本発明の実施形態にかかる動作検知装置10の構成を説明する。動作検知装置10は、被観察者の画像データを撮像する撮像部2(図1、ステレオカメラ11、12に相当する)と、人物の所定動作における動作基本モデルが格納された動作基本モデル格納部3と、被観察者の撮像画像データに基づいて、動作基本モデル格納部3に格納された時系列データを参照して被観察者の動作を判定する制御を実行する制御部4とを備えている。
動作検知装置10は、通信部5を備え、ネットワーク40を介して、監視装置20、移動通信端末30等と通信可能に接続されている。或いは無線又は有線を介して、通信可能に接続されていてもよい。動作検知装置10は、検知結果を監視装置20、移動通信端末30に通知することができる。
撮像部2は、ステレオ画像(3次元画像データ)が撮像可能なステレオカメラ11,12を備えている。ステレオカメラ11,12は、被観察者の居室等に設けられており、被観察者を撮像して画像データを制御部4に供給している。
動作基本モデル格納部3は、ハードディスク、追記録可能なCD、DVD等をはじめとする汎用の各種記憶媒体と、当該記憶媒体の読取及び書込装置を備えており、画像データに基づいて検出される被観察者の動作を評価するためのデータ(動作基本モデル)が記憶されている。評価データについての詳細は後述する。
制御部4は、図示しないが、各部を統括しているCPU、CPUを起動させるプログラム等が書き込まれたROM、CPUの作業領域としてのRAM等を備えている。
入力部6は、動作検知装置10の使用者から、必要に応じて、各種設定、操作入力等を受け付ける。
(動作検知装置の機能構成)
次に、制御部4の機能構成を説明する。図3には、動作検知装置10の制御部4の機能構成が示されている。制御部4は、画像データを取得する画像データ取得部21と、画像データから人物が存在する領域の情報を抽出する人物領域情報抽出部22と、被観察者の姿勢に関する時系列データを抽出する時系列データ抽出部23と、動作基本モデル格納部3に格納された動作基本モデルと抽出した時系列データの所定の時系列区分毎における類似度を算出する類似度算出部24と、算出された類似度の組合せに基づいて総合類似度を算出し、総合類似度を用いて被観察者の動作を判定する動作算出部25とを有する。すなわち、人物領域情報抽出部22と、時系列データ抽出部23と、類似度算出部24と、動作算出部25は、撮像部2で撮像された被観察者の撮像画像を用いて、動作基本モデル格納部3に格納された動作基本モデルを参照して被観察者の動作を判定する動作判定部26として機能している。
次に、制御部4の機能構成を説明する。図3には、動作検知装置10の制御部4の機能構成が示されている。制御部4は、画像データを取得する画像データ取得部21と、画像データから人物が存在する領域の情報を抽出する人物領域情報抽出部22と、被観察者の姿勢に関する時系列データを抽出する時系列データ抽出部23と、動作基本モデル格納部3に格納された動作基本モデルと抽出した時系列データの所定の時系列区分毎における類似度を算出する類似度算出部24と、算出された類似度の組合せに基づいて総合類似度を算出し、総合類似度を用いて被観察者の動作を判定する動作算出部25とを有する。すなわち、人物領域情報抽出部22と、時系列データ抽出部23と、類似度算出部24と、動作算出部25は、撮像部2で撮像された被観察者の撮像画像を用いて、動作基本モデル格納部3に格納された動作基本モデルを参照して被観察者の動作を判定する動作判定部26として機能している。
また、動作検知装置10は、制御部4の機能構成として、時系列データ抽出部23において抽出した時系列データを所定の時系列区分毎に分類する時系列モデルデータ分類部28と、分類された時系列モデルデータから所定の時系列区分毎の人物の動作基本モデルを作成する動作基本モデル作成部29とを備える。これらの構成は、動作基本モデルを生成する際に使用される機能である。動作検知装置10のもつ動作基本モデル生成装置としての機能については、後述する。
画像データ取得部21は、ステレオカメラ11、12から左右の撮像画像データを取得する。撮像画像データは、所定間隔で取得されている。この所定間隔を撮像間隔(又はフレーム間隔)という。撮像間隔は、一例として、200msec程度である。
人物領域情報抽出部22は、画像データ取得部21で取得された被観察者の撮像画像データに基づいて複数時点の各々における3次元の人物領域の情報を抽出する。また、時系列データ抽出部23は、人物領域情報抽出部22において抽出された3次元の人物領域の情報から3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つ情報を算出し、算出した値の時系列データを抽出する。
また、動作基本モデル格納部3には、人物の動作に応じた時系列データから抽出された動作基本モデル(以下、動作基本モデルという)が時系列区分A31、時系列区分B32、時系列区分C33、…と示すように、所定の時系列区分毎に格納されている。例えば、動作基本モデルは、動作検知装置10の出荷時に時系列区分毎にプリインストールされている。
類似度算出部24は、所定の時系列区分毎の動作基本モデルと、時系列データ抽出部23で抽出された3次元の人物領域の高さ、幅及び奥行きの時系列データの所定の時系列区分毎における類似度を算出する。
動作算出部25は、類似度算出部24で算出された類似度の組合せに基づいて総合類似度を算出し、総合類似度を用いて被観察者の動作を判定する。
具体的には、類似度算出部24は、時系列データ抽出部23において抽出された時系列データを所定の時系列区分に区切る。そして、時系列区分Aの区間に該当する時系列データと、時系列区分Aの区間に該当する動作基本モデルとを比較し、類似度を算出する。また、類似度算出部24は、時系列区分Bの区間に該当する時系列データと、時系列区分Bの区間に該当する動作基本モデルとを比較し、類似度を算出する。また、類似度算出部24は、時系列区分Cの区間に該当する時系列データと、時系列区分Cの区間に該当する動作基本モデルとを比較し、類似度を算出する。その結果を受けて、動作算出部25は、時系列区分毎に算出された類似度の組合せに基づいて算出される総合類似度を用いて被観察者の動作を判定する。判定の結果、検出された被観察者の動作に関する情報は、出力部27を介して、通信部5に出力される。類似度算出部24によるマッチング処理、動作算出部25による動作判定処理についての詳細は、後述する。
抽出された時系列データを所定の時系列区分に分割して、時系列区分毎に個別に動作基本モデルとの類似度を算出する意義は、時間的長さをもった一連の「動作」が、動作の種類に応じて時系列区分毎に明確な特徴を有するからである。例えば、「転倒」を挙げる。転倒という一連の動作を、例えば、それぞれ特徴を有する3つの時系列区分A,B,Cに分割したとき、時系列区分Aにおいては、「立位」若しくは「立位」に近い姿勢から床に臥せる姿勢(臥位)への遷移、また、時系列区分Bにおいては、臥位の連続、そして、時系列区分Cにおいては、臥位から「座位」或いは「立位」若しくはこれらに近い姿勢への遷移、という特徴的な動作に分けることができる。このように、一連の「動き」に関する情報を、特徴が判別可能な程度にまで分割して、分割した個々に対して類似度を算出し、算出された類似度を総合して評価することによって、一連の「動き」全体の判定精度を向上させることができる。
例えば、「転倒」は、時系列区分Aにおいて最も明確な特徴を有し、次いで時系列区分B、最後に時系列区分Cである。したがって、時系列区分毎に類似度の組合せに基づいて総合類似度を算出する際、時系列区分Aにおける時系列データに対してα、時系列区分Bにおける時系列データに対してβ、時系列区分Cにおける時系列データに対してγの重み付け(但し、α>β>γ)を行うと、判定精度をより向上させることができる。総合類似度を算出する総合判定についての詳細は、後述する。
ここで、類似度算出部24で動作基本モデルとのマッチングに用いる評価データとしては、3次元の人物領域の高さ、幅及び奥行きの時系列データのほか、高さと幅の比、高さと奥行きの比、幅と奥行きの比を用いることもできる。また、マッチングに用いる評価データとしては、3次元の人物領域の重心座標の時系列データを用いることもできる。
また、マッチングに用いる時系列データは、3次元の人物領域の高さと撮像間隔の比、3次元の人物領域の幅と撮像間隔の比、3次元の人物領域の奥行きと撮像間隔の比、3次元の人物領域の高さ方向の中心座標と撮像間隔の比、3次元の人物領域の幅方向の中心座標と撮像間隔の比、3次元の人物領域の奥行き方向の中心座標と撮像間隔の比であってもよい。ここで撮像間隔とは、ステレオカメラ11,12によって取得される画像の撮像間隔(フレーム間隔をいう)。時系列データを算出するための3次元画像データを取得する間隔が不定であるため、撮像間隔との比をとると、時間で正規化することができ、時系列データの信頼度が向上するという利点がある。評価データについては、後述する。
(動作検知に使用するための評価データ)
本実施形態にかかる動作検知装置10において、動作の検知に使用するための評価データについて説明する。動作検知装置10は、撮像部2によって取得された3次元画像データから、被観察者の3次元の人物領域の情報を抽出することができる。図4は、動作検知装置10の制御部4における人物領域情報抽出部22で抽出される3次元の人物領域の情報を説明する模式図である。人物領域情報抽出部22において抽出される、図4に示す人物領域情報から、被観察者の幅、奥行き、高さを検出することができる。
本実施形態にかかる動作検知装置10において、動作の検知に使用するための評価データについて説明する。動作検知装置10は、撮像部2によって取得された3次元画像データから、被観察者の3次元の人物領域の情報を抽出することができる。図4は、動作検知装置10の制御部4における人物領域情報抽出部22で抽出される3次元の人物領域の情報を説明する模式図である。人物領域情報抽出部22において抽出される、図4に示す人物領域情報から、被観察者の幅、奥行き、高さを検出することができる。
3次元の人物領域の情報は、最初に3次元の絶対座標(X,Y,Z)に関する上限値、下限値が抽出される。すなわち、X座標上の最大値(Xmax)と最小値(Xmin)、Y座標上の最大値(Ymax)と最小値(Ymin)、Z軸上の最大値(Zmax)と最小値(Zmin)が抽出される。次に、これら最大値及び最小値から、人物領域の高さ、幅、奥行きが算出される。
人物領域の高さ=Ymax−Ymin
人物領域の幅=Xmax−Xmin
人物領域の奥行き=Zmax−Zmin
また、人物領域の重心座標は、最大値及び最小値から、以下のようにして算出される。
人物領域の幅=Xmax−Xmin
人物領域の奥行き=Zmax−Zmin
また、人物領域の重心座標は、最大値及び最小値から、以下のようにして算出される。
重心X=(Xmax+Xmin)/2
重心Y=(Ymax+Ymin)/2
重心Z=(Zmax+Zmin)/2
例えば、被観察者が転倒し、しばらくした後、起き上がるという一連の動作について考える。このとき、人物領域情報抽出部22において抽出された3次元画像データにおける人物領域の情報から検出される被観察者の高さの値の時間変化を検出すると、図5(a)のようになる。すなわち、時間経過とともに頭部の位置が下がり、再び元の高さ付近まで回復するという挙動である。
重心Y=(Ymax+Ymin)/2
重心Z=(Zmax+Zmin)/2
例えば、被観察者が転倒し、しばらくした後、起き上がるという一連の動作について考える。このとき、人物領域情報抽出部22において抽出された3次元画像データにおける人物領域の情報から検出される被観察者の高さの値の時間変化を検出すると、図5(a)のようになる。すなわち、時間経過とともに頭部の位置が下がり、再び元の高さ付近まで回復するという挙動である。
また、例えば、人物領域情報抽出部22において抽出された3次元画像データにおける人物領域情報から検出される被観察者の幅方向の値の時間変化を検出すると、図5(b)のようになる。すなわち、転倒時には体幹部が傾くので、人物領域は幅方向に極大をもち、時間経過とともに再び元の幅程度まで回復するという挙動を示す。同様に奥行き方向の値の時間変化は、例えば、図5(c)のようになる。値の変化は、被観察者が撮像部2の撮像方向に対してどちらの方向に転倒したかによって異なる。
一例として、被観察者の高さ方向の値の変化に着目した場合、被観察者の転倒〜起き上がりという一連の動作は、図6に示す時系列データとして取得することができる。縦軸は、居室の床面に垂直方向の人物領域のサイズであり、横軸は時間である。したがって、閾値Th1,Th2を設定すれば、高さ方向の時系列データから「立位」、「座位」、「臥位」などの姿勢を判定することができる。高さ方向の値に着目した場合には、閾値Th2以上であれば、「立位」、閾値Th1以下であれば「臥位」、閾値Th1〜Th2であれば「座位」と判定することができる。同様に、幅方向、奥行き方向の時系列データからも、「立位」、「座位」、「臥位」などの姿勢を判定することができる。この時系列データを、動作を評価するための評価データとして使用する。
本実施形態では、ステレオカメラ11,12で取得した3次元画像データから抽出された被観察者の一連の動作を表す時系列データの比較基準となる動作基本モデルが所定の時系列区分毎に格納されている。3次元画像データから抽出された時系列データと、所定の時系列区分毎に用意された動作基本モデルとをマッチングして、時系列区分毎に類似度を算出し、算出した類似度の組合せに基づいて総合類似度を算出し、総合類似度を用いて被観察者の動作を判定することを特徴としている。
動作基本モデルは、例えば、人物の動作における時系列データを集めて、HMM(隠れマルコフモデル)法、DPマッチング法等の統計モデル生成手法を用いて作成することができる。類似度算出部24は、一例として、HMM又はDPマッチング等を用いて、人物領域情報抽出部22によって抽出された人物領域情報から抽出される時系列データと、動作基本モデルとのマッチングを行って、例えば、「前方転倒」、「後方転倒(しりもち)」、「座る」、「寝転び」などの動作を検知することができる。
(動作検知処理の概略)
図7は、動作検知処理の概略を説明するフローチャートである。
図7は、動作検知処理の概略を説明するフローチャートである。
動作検知装置10は、ステレオカメラ11、12から画像(左右画像)を取得する(ステップS11)。画像を取得する時間間隔は、ステップS11に戻るタイミングによって異なるが、一例として、200msec程度である。取得した左右画像に基づいて、3次元の人物領域の抽出処理を行う(ステップS12)。これにより、カメラ座標系での3次元の人物領域の情報(3次元空間での人物領域プロット群)が得られる。次に、得られた3次元の人物領域の情報に基づいて、姿勢推定処理を行う(ステップS13)。つまり、被観察者の現在の姿勢(立位、座位、臥位)を推定する。
次に、今回取得したフレームに関するデータ群を第1バッファに保存する(ステップS14)。データ群は、時刻情報、入力画像データ、3次元の人物領域の情報、姿勢推定処理で得られる被観察者の幅、高さ、奥行き情報及び姿勢推定結果からなる。第1バッファは、数フレーム分のデータ群を記憶することができるバッファである。所定フレーム分のデータ群が蓄積されている場合には、時間的に最も古い1フレーム分のデータ群が消去されて、新たな1フレーム分のデータ群が蓄積される。
次に、フラグFがセットされているか否かを判別する(ステップS15)。フラグFは、動作を判定するためのデータを蓄積する期間であることを記憶する指標として用いられ、初期設定では、フラグFはリセット(F=0)されている。
フラグFがセットされていないときには(ステップS15:No)、姿勢推定結果の履歴データ等に基づいて、動作を判定するためのデータを蓄積する期間の開始点であるか否かを判別する(ステップS16)。この判別処理の詳細については、後述する。開始点ではないと判別した場合には、ステップS11に戻る。
上記ステップS16において、動作を判定するためのデータを蓄積する期間の開始点であると判別した場合には、フラグFをセットした後(ステップS17)、今回取得したフレームに関するデータ群を第2バッファに蓄積する(ステップS18)。この場合には、データ群として、開始点からの経過時間情報(開始点からのフレーム数で表される)が追加される。そして、動作を判定するためのデータを蓄積する期間の終了点であるか否かを判別する(ステップS19)。この判別処理の詳細については、後述する。動作を判定するためのデータを蓄積する期間の終了点ではないと判別した場合には、ステップS11に戻る。
ステップS19からS11に戻った場合には、次のステップS15では、F=1となっているので、ステップS15からステップS18に移行し、第1バッファだけでなく、第2バッファにもデータ群が蓄積される。
上記ステップS19において、動作を判定するためのデータを蓄積する期間の終了点であると判別した場合には、フラグFをリセットした後(ステップS20)、第2バッファに蓄積されたデータ群に基づいて、動作判定処理を行う(ステップS21)。
動作判定処理の結果に基づいて、例えば、前方転倒、後方転倒(しりもち)、座る、寝転び等の動作を監視装置20、移動通信端末30等に通知する。
また、動作判定処理では、動作の種別を検知してもよい。図7に示すフローチャートでは、ステップS22において、動作のうち「転倒」を判定する。転倒ではないと判定された場合には(ステップS22:No)、ステップS11に戻る。動作判定処理の結果、転倒が検知された場合には(ステップS22:Yes)、転倒が発生したことを監視装置20、移動通信端末30等に通知する(ステップS23)。
(3次元画像データから人物領域を抽出する処理)
本実施形態にかかる動作検知装置10において、撮像部2によって取得された3次元画像データから被観察者の3次元の人物領域の情報を抽出する処理について詳細に説明する。
本実施形態にかかる動作検知装置10において、撮像部2によって取得された3次元画像データから被観察者の3次元の人物領域の情報を抽出する処理について詳細に説明する。
図8は、図7のステップS12の3次元の人物領域の抽出処理の詳細な手順を示している。
事前処理として、居室50に被観察者が存在していない状態で、ステレオカメラ11、12のうちの一方のカメラ11によって居室内を撮像した画像を取得し、取得した画像をグレイスケール化する。そして、得られた画像を背景画像として、動作検知装置10の記憶装置に記憶しておく。
3次元画像データから人物領域を抽出する処理では、ステレオカメラ11、12から取得した左右画像のうち、背景画像を撮像したカメラ11から今回取得した画像と、背景画像とを用いて、背景差分法により、2次元人物領域を抽出する。また、ステレオカメラ11、12から取得した2枚の画像から、3次元測量手法により、ピクセル毎に奥行き情報を算出し、3次元空間にプロットできる座標情報(3次元位置情報)を取得する。そして、2次元人物領域情報と3次元位置情報とを重ね合わせることで、3次元空間内での人物領域に相当するデータ(3次元の人物領域情報)を抽出する。
具体的には、背景画像を撮像したカメラ11から今回取得した画像を、グレイスケール化する(ステップS31)。
ステップS31で得られた画像と予め記憶されている背景画像の対応する画素毎に、画素値の差の絶対値を算出することにより、両画像の差分画像を作成する(ステップS32)。得られた差分画像を2値化することにより、2次元人物領域情報を抽出する(ステップS33)。
一方、ステレオカメラ11、12から今回取得した左右画像から、周知のステレオ法を用いて、3次元位置情報を算出する(ステップS34)。上記ステップS33で抽出した2次元人物領域情報と、上記ステップS34で算出した3次元位置情報とに基づいて、3次元の人物領域の情報を抽出する(ステップS35)。
図9は、3次元の人物領域の情報によって表される3次元の人物領域画像の一例を示している。図9において、直方体101は、X−Y平面、Y−Z平面及びZ−X平面それぞれに平行な面を有し、且つ3次元の人物領域に外接する直方体である。直方体101の上側の図(符号102)は、直方体101の上から3次元の人物領域を見た平面図であり、直方体101の右側の図(符号103)は、直方体101の右から3次元の人物領域を見た側面図である。
(姿勢推定処理)
図10は、図7のステップS13の姿勢推定処理の詳細な手順を示している。3次元人物領域抽出処理によって得られた3次元の人物領域の情報に基づいて、図9に示すように、X−Y平面、Y−Z平面及びZ−X平面それぞれに平行な面を有しかつ3次元の人物領域に外接する直方体101の幅lx、高さly及び奥行きlz(被観察者の幅、高さ及び奥行き)を算出する(ステップS41)。lxは3次元の人物領域のx座標の最大値と最小値との差の絶対値を算出することにより、lyは3次元の人物領域のy座標の最大値と最小値との差の絶対値を算出することにより、lzは3次元の人物領域のz座標の最大値と最小値との差の絶対値を算出することにより、それぞれ求められる。
図10は、図7のステップS13の姿勢推定処理の詳細な手順を示している。3次元人物領域抽出処理によって得られた3次元の人物領域の情報に基づいて、図9に示すように、X−Y平面、Y−Z平面及びZ−X平面それぞれに平行な面を有しかつ3次元の人物領域に外接する直方体101の幅lx、高さly及び奥行きlz(被観察者の幅、高さ及び奥行き)を算出する(ステップS41)。lxは3次元の人物領域のx座標の最大値と最小値との差の絶対値を算出することにより、lyは3次元の人物領域のy座標の最大値と最小値との差の絶対値を算出することにより、lzは3次元の人物領域のz座標の最大値と最小値との差の絶対値を算出することにより、それぞれ求められる。
次に、アトペクト比lx/ly及びlz/lyを算出する(ステップS42)。そして、算出したアトペクト比lx/ly及びlz/lyと、予め定められた規則とに基づいて、被観察者の姿勢を推定する(ステップS43)。
具体的には、次のような規則に基づいて、被観察者の姿勢を推定する。
(a)lx/ly<0.4又はlz/ly<0.4であれば、観察者の姿勢を「立位」と推定する。
(b)lx/ly>1.5又はlz/ly>1.5であれば、観察者の姿勢を「臥位」と推定する。
(c)それ以外であれば、観察者の姿勢を「座位」と推定する。
(開始点又は終了点判別処理)
図7のステップS16の開始点判別処理においては、一例として、『アスペクト比lx/ly及びlz/lyのうちの少なくとも一方が0.7以上である状態が1秒(約5フレームに相当)以上継続していること』という開始点条件を満たしているか否かを判別し、開始点条件を満たしている場合には今回取得されたフレームが動作を判定するためのデータを蓄積する期間の開始点であると判別する。
図7のステップS16の開始点判別処理においては、一例として、『アスペクト比lx/ly及びlz/lyのうちの少なくとも一方が0.7以上である状態が1秒(約5フレームに相当)以上継続していること』という開始点条件を満たしているか否かを判別し、開始点条件を満たしている場合には今回取得されたフレームが動作を判定するためのデータを蓄積する期間の開始点であると判別する。
図7のステップS19の終了点判別処理においては、一例として『「アスペクト比lx/ly及びlz/lyのうちの少なくとも一方が0.7以下である状態が1.4秒(約7フレームに相当)以上継続していること」又は「第2バッファに蓄積されているデータ群が所定フレーム数分以上となっていること」又は「開始点からの経過時間が、所定時間以上に達していること」』という終了点条件を満たしているか否かを判別し、終了点条件を満たしている場合には、今回取得されたフレームが動作を判定するためのデータを蓄積する期間の終了点であると判別する。
(動作判定処理)
上述した3次元人物領域抽出処理及び姿勢推定処理により求められた3次元の人物領域に外接する直方体101の幅lxの時間変位、高さlyの時間変位、及び奥行きlzの時間変位の時系列データを所定の時系列区分に分割し、所定の時系列区分毎に用意された動作基本モデルとマッチングして、時系列区分毎の類似度を算出する。そして、所定の時系列区分毎における類似度の組合せに基づいて算出される総合類似度を用いて被観察者の動作を判定する。動作判定処理では、マッチング方法として、HMM、DPマッチング等を用いることができる。
上述した3次元人物領域抽出処理及び姿勢推定処理により求められた3次元の人物領域に外接する直方体101の幅lxの時間変位、高さlyの時間変位、及び奥行きlzの時間変位の時系列データを所定の時系列区分に分割し、所定の時系列区分毎に用意された動作基本モデルとマッチングして、時系列区分毎の類似度を算出する。そして、所定の時系列区分毎における類似度の組合せに基づいて算出される総合類似度を用いて被観察者の動作を判定する。動作判定処理では、マッチング方法として、HMM、DPマッチング等を用いることができる。
この例では、「前方転倒」、「後方転倒(しりもち)」、「寝転び」及び「座る」に対する動作基本モデルを用意する。ここでは、動作基本モデルとして、隠れマルコフモデル(HMM)を用いる。各時系列区分の動作基本モデルは、その時系列区分に対応した学習データに基づいて作成される。例えば、「前方転倒」は、「前方転倒」動作の学習データに基づいて作成される。なお、学習データとしては、経過時間情報(開始点からのフレーム数で表される)、及び上述した姿勢推定処理で算出された被観察者の幅、高さ、奥行き情報(lx,ly,lz)に関する時系列データが用いられる。
第2バッファに蓄積されているデータ群のうち、経過時間情報(開始点からのフレーム数で表される)及び被観察者の幅、高さ、奥行き情報(lx,ly,lz)を時系列データとし、上記時系列データが再現できる確率(尤度)を、動作基本モデルである「前方転倒モデル」、「後方転倒モデル」、「座るモデル」、「寝転びモデル」の各々に対して計算する。そして、最も尤度が高いモデルを求める。最も尤度が高いモデルに対応する挙動が、被観察者の挙動となる。例えば、最も尤度が高いモデルが前方転倒モデルであれば、被観察者が前方転倒したと判定することができる。また、最も尤度が高いモデルが後方転倒モデルである場合には、後方転倒したと判定することができる。
図11乃至図13は、本実施形態にかかる動作検知装置10の動作基本モデル格納部3に格納される動作基本モデルを説明する模式図である。図11には、時系列区分A31に格納された動作基本モデルの一例が示されている。時系列区分A31には、立位から臥位を表す指標(図6の閾値Th1,Th2)が含まれる期間t1〜t2間に用いる「前方転倒モデル」、「後方転倒モデル」、「座るモデル」、「寝転びモデル」が格納されている。
図12には、時系列区分B32に格納された動作基本モデルの一例が示されている。時系列区分B32には、寝転びを表す指標(閾値Th1以下)が含まれる期間t2〜t3間に用いる「前方転倒モデル」、「後方転倒モデル」、「座るモデル」、「寝転びモデル」が格納されている。
図13には、時系列区分C33に格納された動作基本モデルの一例が示されている。時系列区分C33には、寝転びから立位への変化を表す指標(閾値Th1,Th2)が含まれる期間t3〜t4間に用いる「前方転倒モデル」、「後方転倒モデル」、「座るモデル」、「寝転びモデル」が格納されている。
なお、動作基本モデルとは、基本となる時系列データのパターンそのものではなく、複数の時系列データから抽出した動作基本モデルの各種パラメータである。例えば、HMMであれば、初期状態、終了状態、状態遷移行列、出力行列、状態数などである。この動作基本モデルと、被観察者の時系列データとを比較する。
(動作検知処理の詳細)
以下では、本実施形態にかかる動作検知装置10による動作検知処理について、動作の判定処理の詳細とともに説明する。図14は、動作検知装置10による動作検知処理を説明するフローチャートである。
以下では、本実施形態にかかる動作検知装置10による動作検知処理について、動作の判定処理の詳細とともに説明する。図14は、動作検知装置10による動作検知処理を説明するフローチャートである。
ステップS201において、動作検知装置10は、被観察者の画像データを取得する。ステップS202において、3次元画像データから人物領域を抽出する処理(図8参照)と、姿勢推定処理(図10参照)とを行い、時系列データを抽出する。
続いて、ステップS203において、フラグFが1にセットされているか判定する。フラグFがセットされていなければ(すなわち、初期設定F=0)、閾値Th2以下であるか判定する。閾値Th2以下でない場合には、ステップS201に戻る。ステップS204において、閾値Th2以下であれば、ステップS205において、フラグFを1にセットした後、ステップS206において、時系列データを一時的に保存する。
ステップS207において、閾値Th2以上であるか判定する。閾値Th2以下であれば、ステップS201に戻る。閾値Th2以上のとき、ステップS208において、フラグFを0にし、データ蓄積を終了する。
次に、動作検知装置10は、ステップS209において、蓄積した時系列データを閾値によって分けられる時系列区分A(期間t1〜t2)、時系列区分B(期間t2〜t3)、時系列区分C(期間t3〜t4)の3区間で切り出す。
動作検知装置10は、ステップS210において、期間t1〜t2における時系列データをこの期間に対応して用意された動作基本モデル(図11参照)とマッチングする。また、ステップS211において、期間t2〜t3における時系列データをこの期間に対応して用意された動作基本モデル(図12参照)とマッチングする。また、ステップS212において、期間t3〜t4における時系列データをこの期間に対応して用意された動作基本モデル(図13参照)とマッチングする。
具体的に、動作検知装置10の制御部4における類似度算出部24は、図11乃至図13に示した動作基本モデルと、人物領域情報から抽出された所定の時系列区分毎の時系列データとをHMMにより比較する。HMMを用いた場合、マッチング結果(類似度)は、尤度で表される。
図15には、期間t1〜t2(時系列区分Aという)におけるマッチング結果Aと、期間t2〜t3(時系列区分Bという)におけるマッチング結果Bと、期間t3〜t4(時系列区分Cという)におけるマッチング結果Cが示されている。
図15に示す結果では、人物領域情報から抽出された時系列区分Aにおける時系列データを前方転倒モデルにマッチングさせた結果である尤度は、−1.32であり、同じく後方転倒モデルにマッチングさせた結果である尤度は、−4.69であり、座るモデルにマッチングさせた結果である尤度は、−2.60であり、寝転びモデルにマッチングさせた結果である尤度は、−5.74である。したがって、時系列区分Aでは、前方転倒モデルにマッチングさせた結果である尤度が最も大きい。
また、人物領域情報から抽出された時系列区分Bにおける時系列データを前方転倒モデルにマッチングさせた結果である尤度は、−4.72であり、同じく後方転倒モデルにマッチングさせた結果である尤度は、−5.29であり、座るモデルにマッチングさせた結果である尤度は、−4.63であり、寝転びモデルにマッチングさせた結果である尤度は、−5.44である。したがって、時系列区分Bでは、座るモデルにマッチングさせた結果である尤度が最も大きい。
また、人物領域情報から抽出された時系列区分Cにおける時系列データを前方転倒モデルにマッチングさせた結果である尤度は、−3.32であり、後方転倒モデルにマッチングさせた結果である尤度は、−3.69であり、座るモデルにマッチングさせた結果である尤度は、−2.60であり、寝転びモデルにマッチングさせた結果である尤度は、−3.74である。したがって、時系列区分Cでは、座るモデルにマッチングさせた結果である尤度が最も大きい。
ステップS213において、動作検知装置10は、各時系列区分のマッチング結果を総合して、被観察者の動作が、「前方転倒」であるか、「後方転倒」であるか、「寝転び」であるか、「座る」であるかを判定する。
具体的には、それぞれの時系列区分に対して、適切に重み付けを行った後、各マッチング結果の和をとり、マッチング結果Dを算出する。マッチング結果Dにおいて尤度の最も高いモデルを判定結果とする。マッチング結果Dを総合類似度という。
図15では、総合判定において、マッチング結果Aに対して、一例として、重み係数α=0.5を乗じ、マッチング結果Bに対して、重み係数β=0.3を乗じ、マッチング結果Cに対して、重み係数γ=0.1を乗じて総和をとっている。この結果、前方転倒モデルに対する尤度が−2.41、後方転倒モデルに対する尤度が−4.31、座るモデルに対する尤度が−2.95、寝転びモデルに対する尤度が−4.87であるマッチング結果Dが得られる。総合類似度において、前方転倒モデルの尤度が最も大きいので、被観察者の動作は、前方転倒であると判定される。
動作判定の結果は、監視装置20、移動通信端末30等に通知される。また、総合判定において、動作の種別を検知してもよい。例えば、ステップS214において、動作のうち「転倒」を判定する。転倒ではないと判定された場合には(ステップS214:No)、ステップS201に戻る。転倒が検知された場合には(ステップS214:Yes)、転倒が発生したことを監視装置20、移動通信端末30等に通知する(ステップS215)。
以上説明したように、本実施形態にかかる動作検知装置10は、時系列データを所定の時系列区分に分割して、所定の時系列区分毎に用意した動作基本モデルでマッチングし、更にマッチング結果から総合類似度を算出することにより、時系列データ全体をマッチングする手法と比べて動作の判定結果の精度をより向上させることができる。
なお、本実施形態にかかる動作検知装置10では、各時系列区分の結果を加えて、動作毎の尤度の和が大きいものを、この場合の被観察者の動作であると判定してもよい。また、実施形態では、動作の判定に用いるデータは、人物領域情報抽出部22で抽出された3次元の人物領域の高さ、幅及び奥行きの時系列データであるとしたが、3次元の人物領域の情報から得られる他の変位量の時系列データであっても使用することができる。
このように、動作の判定に、人物領域情報抽出部22で抽出された3次元の人物領域の高さ、幅、奥行き、時間、またこれらパラメータの相関関係等を適宜組み合わせて使用すると、判定に用いるデータ(時系列データ)に特徴量をもたせることができ、より厳密なマッチングが行える場合がある。なお、この場合には、当然のことながら、後述する動作基本モデル生成処理でも、同様の時系列データに基づいて動作基本モデルを生成する。
(作用・効果)
本発明の実施形態にかかる動作検知装置10は、動作基本モデル格納部3に、被観察者の動作に応じた時系列データから抽出された動作基本モデルが所定の時系列区分毎に格納されており、所定の時系列区分毎の動作基本モデルと、抽出された時系列データとの、所定の時系列区分毎における類似度を算出し、算出した類似度の組合せに基づいて総合類似度を算出し、総合類似度を用いて被観察者の動作を判定することができる。したがって、動作検知装置10によれば、被観察者の「前方転倒」、「後方転倒(しりもち)」、「座る」、「寝転び」などの動作を判定する際の検出精度を向上することができる。検出されたデータは、所定の時系列区分毎に動作基本モデルと類似度が検証され、これらを合わせて総合的に類似度を判定するので、動作の検出精度を向上することができる。
本発明の実施形態にかかる動作検知装置10は、動作基本モデル格納部3に、被観察者の動作に応じた時系列データから抽出された動作基本モデルが所定の時系列区分毎に格納されており、所定の時系列区分毎の動作基本モデルと、抽出された時系列データとの、所定の時系列区分毎における類似度を算出し、算出した類似度の組合せに基づいて総合類似度を算出し、総合類似度を用いて被観察者の動作を判定することができる。したがって、動作検知装置10によれば、被観察者の「前方転倒」、「後方転倒(しりもち)」、「座る」、「寝転び」などの動作を判定する際の検出精度を向上することができる。検出されたデータは、所定の時系列区分毎に動作基本モデルと類似度が検証され、これらを合わせて総合的に類似度を判定するので、動作の検出精度を向上することができる。
(動作基本モデル生成処理)
本実施形態にかかる動作検知装置10は、被観察者の動作の判定処理に先立って、判定の基準となる動作基本モデルを生成処理が行われる。すなわち、動作検知装置10は、動作基本モデル生成装置として機能する。
本実施形態にかかる動作検知装置10は、被観察者の動作の判定処理に先立って、判定の基準となる動作基本モデルを生成処理が行われる。すなわち、動作検知装置10は、動作基本モデル生成装置として機能する。
この場合、動作検知装置10は、制御部4の機能構成として、人物の撮像画像を取得する画像データ取得部21と、撮像画像に基づいて複数の3次元の人物領域の情報を抽出する人物領域情報抽出部22と、複数の3次元の人物領域情報から3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つを算出し、算出した値の時系列モデルデータを抽出する時系列モデルデータ抽出部と、時系列モデルデータ抽出部において抽出した時系列データを所定の時系列区分毎に分類する時系列モデルデータ分類部28と、分類された時系列モデルデータから所定の時系列区分毎の人物の動作基本モデルを作成する動作基本モデル作成部29とを備えている。なお、動作基本モデル生成装置の構成は、図3に示す時系列データ抽出部23としての機能を、時系列モデルデータを抽出する時系列モデルデータ抽出部としての機能に置き換えることで説明できる。
図16は、動作検知装置10による動作基本モデル生成処理を説明するフローチャートである。
ステップS221において、動作検知装置10は、被観察者の画像を取得する。ステップS222において、動作検知装置10は、複数時点での被観察者の撮像画像データに基づいて複数時点の各々における3次元の人物領域の情報を抽出する。
ステップS223において、各時点における3次元の人物領域の情報から3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つを算出し、算出した値の時系列モデルデータを抽出する。
ステップS224において、動作検知装置10は、抽出した時系列モデルデータを所定の時系列区分(期間t1〜t2、期間t2〜t3、期間t3〜t4)毎に分類する。
ステップS225において、動作検知装置10は、分類された時系列モデルデータから時系列区分毎の被観察者の動作の動作基本モデルを作成する。
ステップS226において、動作検知装置10は、作成した時系列区分毎の動作基本モデルを動作基本モデル格納部3に格納する。すなわち、期間t1〜t2における動作基本モデルを時系列区分A31に、期間t2〜t3における動作基本モデルを時系列区分B32に、期間t3〜t4における動作基本モデルを時系列区分C33に格納する。
以上の処理により、動作検知装置10は、被観察者の一連の動作にかかる時系列モデルデータを所定の時系列区分に分割し、時系列区分毎に動作基本モデルを作成することができるので、動作基本モデルと比較対象となるデータとの類似度を比較する際の比較精度の向上を図ることができる。
なお、動作基本モデル生成処理は、動作検知装置10でない別の装置において行われてもよい。この場合には、動作検知装置10は、別の装置で生成された動作基本モデルをインストールして使用する。或いは動作検知装置10によって読取可能な記憶媒体等に記憶して提供されたものを使用する。
[姿勢推定処理の変形例]
上述した実施形態では、被観察者の幅、高さ及び奥行きから求められたアスペクト比lx/ly及びlz/lyに基づいて、被観察者の姿勢を推定しているが、被観察者の背筋の向きに相当するベクトル(人物主軸)の向きに基づいて、被観察者の姿勢を推定するようにしてもよい。
上述した実施形態では、被観察者の幅、高さ及び奥行きから求められたアスペクト比lx/ly及びlz/lyに基づいて、被観察者の姿勢を推定しているが、被観察者の背筋の向きに相当するベクトル(人物主軸)の向きに基づいて、被観察者の姿勢を推定するようにしてもよい。
つまり、図17に示すように、人物主軸QのX−Z平面となす角γ(人物主軸の向き)を求め、次のような規則に基づいて、被観察者の姿勢を推定する。
(a)γ>π/2×0.6であれば、観察者の姿勢を「立位」と推定する。
(b)γ<π/2×0.3であれば、観察者の姿勢を「臥位」と推定する。
(c)それ以外であれば、観察者の姿勢を「座る」と推定する。
図18は、人物主軸Qの向きと姿勢推定結果の例を示し、図18(a)は「立位」と推定される例を、図18(b)は「座位」と推定される例を、図18(c)は「臥位」と推定される例を、それぞれ示している。
以下、人物主軸の向きの求め方について説明する。人物主軸の向きの求め方には第1方法と第2方法とがある。
まず、第1方法について説明する。第1方法は、主成分分析を用いて、人物主軸の向きを求める方法である。
図19は、人物主軸の向きの算出方法(第1方法)の手順を示している。
3次元の人物領域の情報(人物領域の3次元空間でのプロット群)を、X−Y平面に射影することにより、X軸をU軸、Y軸をV軸とするUV座標系の第1の射影画像を得るとともに、3次元の人物領域の情報を、Y−Z平面に射影することにより、Z軸をU軸、Y軸をV軸とするUV座標系の第2の射影画像を得る(ステップS51)。次に、射影画像毎に、重心を算出する(ステップS52)。そして、各射影画像の全座標値を、重心を原点とする座標値に修正する(ステップS53)。
次に、座標値修正後の第1の射影画像から主成分分析を用いて固有ベクトル(第1主成分の傾きを表すベクトル)を算出するとともに、座標値修正後の第2の射影画像から主成分分析を用いて固有ベクトル(第1主成分の傾きを表すベクトル)を算出する(ステップS54)。そして、ステップS54で算出された2つの固有ベクトルを合成することにより、人物主軸の向きを示すベクトルを求める(ステップS55)。そして、人物主軸の向きを示すベクトルから人物主軸の向きγを求める(ステップS56)。
固有ベクトルの算出方法について説明する。各固有ベクトルの算出方法は同様であるので、第1の固有ベクトルの算出方法について説明する。まず、座標値修正後の第1の射影画像に基づいて、変量uの分散su、変量vの分散sv、及び変量u,vの共分散suvを算出する。そして、分散su、sv及び共分散suvを用いて、固有値λを算出する。分散su、sv及び共分散suvを用いて固有値λを算出する方法は、主成分分析においてよく知られているのでその詳細を省略する。次に、固有値λを用いて固有ベクトルを算出する。固有値λを用いて固有ベクトルを算出する方法は、主成分分析においてよく知られているのでその詳細を省略する。
図20は、人物主軸の向きの算出方法(第2方法)の手順を示している。
3次元の人物領域の情報(人物領域の3次元空間でのプロット群)を、X−Y平面に射影することにより、第1の射影画像を得るとともに、3次元の人物領域の情報を、Y−Z平面に射影することにより、第2の射影画像を得る(ステップS61)。次に、射影画像毎に、重心を算出する(ステップS62)。そして、各射影画像の全座標値を、重心を原点とする座標値に修正する(ステップS63)。
次に、座標値修正後の第1の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第1の線分の傾きを求めるとともに、座標値修正後の第2の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第2の線分の傾きを求める(ステップS64)。そして、ステップS64で求められた2つの線分の傾きに基づいて、人物主軸の向きγを求める(ステップS65)。
図21に示すように、第1の射影画像から得られた第1の線分の傾きをα、第2の射影画像から得られた第2の線分の傾きをβとすると、各線分の向きを示す単位ベクトルv1、v2は、次式(1)で表される。
v1=(cosα,sinα)
v2=(cosβ,sinβ) …(1)
次式(2)に基づいて、v1、v2を合成すると、人物主軸の向きを示すベクトルVが得られる。
v2=(cosβ,sinβ) …(1)
次式(2)に基づいて、v1、v2を合成すると、人物主軸の向きを示すベクトルVが得られる。
V=(cosα,sinα+sinβ,cosβ) …(2)
人物主軸の向きαは、次式(3)に基づいて、求められる。
人物主軸の向きαは、次式(3)に基づいて、求められる。
tanγ=(sinα+sinβ)/(cosα2+cosβ2)1/2 …(3)
第1の線分及び第2の線分の求め方について説明する。各線分の求め方は同様であるので、第1の線分の求め方について説明する。
第1の線分及び第2の線分の求め方について説明する。各線分の求め方は同様であるので、第1の線分の求め方について説明する。
図22は、第1の線分の求め方を示している。
まず、ステップS61で得られた第1の射影画像を、図23に示すように、一定間隔を有するY軸に平行な複数の分割線により、射影画像をX軸方向に複数の領域に分割する(ステップS71)。分割領域毎に人物領域のy座標の最大値と最小値に対応する点を輪郭点Piとして特定する(ステップS72)。
輪郭点のうちx座標が最も大きくかつy座標が0に最も近い輪郭点を点Aとし、点Aを含む分割領域を注目領域とする(ステップS73)。図23の例では、点P1が点Aとして特定される。点A以外の輪郭点のうち、点Aと原点を結ぶ直線に最も近い輪郭点を求め、点Bとする(ステップS74)。図23の例では、点Aが点P1である場合には、点P7が点Bとされる。点Aと点Bを結ぶ線分の距離(A−B間距離)を算出して保持する(ステップS75)。
次に、注目領域が、輪郭点のうちx座標が最も小さい輪郭点を含む分割領域(最終処理領域)であるか否かを判別する(ステップS76)。現在の注目領域が最終処理領域でなければ、注目領域を、現在の注目領域に対してx座標が小さくなる方向に隣接する分割領域に更新する(ステップS77)。そして、更新された注目領域内において、y座標が最も大きい輪郭点を点Aとする(ステップS78)。そして、ステップS74に戻り、ステップS74以降の処理を再度行う。
上記ステップS76において、現在の注目領域が最終処理領域であると判別された場合には、A−B間の距離が最大である線分を第1の線分として特定する(ステップS79)。図23の例では、点P3と点P9とを結ぶ線分が第1の線分として特定される。
[動作の判定処理の変形例]
既に述べた実施形態では、図7のステップS21の動作判定処理は、HMMを利用している。ここでは、DPマッチングを利用する場合について説明する。この例では、「前方転倒」、「後方転倒(しりもち)」、「寝転び」及び「座る」に対する動作基本モデルを用意する。各時系列区分の動作基本モデルは、その時系列区分に対応した学習データに基づいて作成される。例えば、「前方転倒」は、「前方転倒」動作の学習データに基づいて作成される。なお、学習データとしては、経過時間情報(開始点からのフレーム数で表される)、及び上述した姿勢推定処理で算出された被観察者の幅、高さ、奥行き情報(lx,ly,lz)からなる時系列データが用いられる。学習データに基づいて、複数時点での被観察者の動き量の程度(多、中、少)からなる学習モデルが作成される。
既に述べた実施形態では、図7のステップS21の動作判定処理は、HMMを利用している。ここでは、DPマッチングを利用する場合について説明する。この例では、「前方転倒」、「後方転倒(しりもち)」、「寝転び」及び「座る」に対する動作基本モデルを用意する。各時系列区分の動作基本モデルは、その時系列区分に対応した学習データに基づいて作成される。例えば、「前方転倒」は、「前方転倒」動作の学習データに基づいて作成される。なお、学習データとしては、経過時間情報(開始点からのフレーム数で表される)、及び上述した姿勢推定処理で算出された被観察者の幅、高さ、奥行き情報(lx,ly,lz)からなる時系列データが用いられる。学習データに基づいて、複数時点での被観察者の動き量の程度(多、中、少)からなる学習モデルが作成される。
図24は、動作の判定処理の手順を示している。図25は、動作の判定処理の手順を模式図で表している。
まず、第2バッファに保存されている複数フレーム分の被観察者の幅、高さ、奥行き情報(lx,ly,lz)及び時刻情報(図25に時系列データ201で示す)に基づいて、複数時点での単位時間当たりの動き量データ(dlx/dt,dly/dt,dlz/dt)を求める(ステップS111)。
時系列データ201における各隣合うフレーム間のlx,ly,lzの差分dlx、dly、dlzを、それらのフレーム間の時間差で除算することにより、複数時点での単位時間当たりの動き量データが得られる。
次に、各時点での3種類の動き量データのうちの最大値と、予め設定した2つの閾値に基づいて、各時点での動き量を3種類(多、中、少)にシンボル化する(ステップS112)。これにより、図25に示すような複数時点でのシンボル化データからなるパターン202が得られる。
得られたパターン202と挙動毎の学習モデル(図25に211〜214で示す)との距離(類似度)をDPマッチングにより算出する(ステップS113)。
DPマッチングを用いる場合も同様に、被観察者の一連の動作を表す時系列データの比較基準となる動作基本モデルが所定の時系列区分毎に格納されている。そして、時系列区分毎に動作基本モデルとのDPマッチングを行う。
すなわち、動作検知装置10は、蓄積した時系列データを時系列区分A(期間t1〜t2)、時系列区分B(期間t2〜t3)、時系列区分C(期間t3〜t4)の3区間で切り出し、期間t1〜t2における時系列データをこの期間に対応して用意された動作基本モデルとマッチングする。また、動作検知装置10は、期間t2〜t3における時系列データをこの期間に対応して用意された動作基本モデルとマッチングする。更に、期間t3〜t4における時系列データをこの期間に対応して用意された動作基本モデルとマッチングする。
そして、動作検知装置10は、期間毎のマッチングにより、パターン間の距離が最も短い学習モデル(動作基本モデル)に対応する動作を被観察者の動作であるとし、更に、マッチング結果から総合的に被観察者の動作、すなわち、「前方転倒」、「後方転倒」、「寝転び」、「座る」を判定する(ステップS114)。
具体的には、それぞれの時系列区分に対して、適切に重み付けを行った後、各マッチング結果の総和である総合類似度を算出する。総合類似度において尤度の最も高いモデルを判定結果とする。
例えば、図15に示す例と同様に、総合判定において、それぞれの動作基本モデルに対するマッチング結果に適宜重み係数を乗じて、総和をとる。総合類似度において尤度が最も大きいモデルを被観察者の動作であると判定する。
以上説明したように、本実施形態にかかる動作検知装置10は、時系列データを所定の時系列区分に分割して、所定の時系列区分毎に用意した動作基本モデルでマッチングし、更にマッチング結果から総合類似度を算出することにより、時系列データ全体をマッチングする手法と比べて動作の判定結果の精度をより向上させることができる。
[その他の実施形態]
本発明は上述した実施形態によって説明したが、この開示の一部をなす論述及び図面は、この発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
本発明は上述した実施形態によって説明したが、この開示の一部をなす論述及び図面は、この発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
2…撮像部、3…動作基本モデル格納部、4…制御部、10…動作検知装置、11,12…ステレオカメラ、20…監視装置、21…画像データ取得部、22…人物領域情報抽出部、23…時系列データ抽出部、24…類似度算出部、25…動作算出部、26…動作判定部、27…出力部、28…時系列モデルデータ分類部、29…動作基本モデル作成部、30…移動通信端末、40…ネットワーク
Claims (8)
- 被観察者を撮像する撮像部と、
人物の所定動作の3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つの時系列データから抽出された動作基本モデルが所定の時系列区分毎に格納された動作基本モデル格納部と、
前記撮像部で撮像された前記被観察者の撮像画像を用いて、前記動作基本モデル格納部に格納された前記動作基本モデルを参照して前記被観察者の動作を判定する動作判定部と
を備え、
前記動作判定部は、
前記被観察者の撮像画像を用いて複数の3次元の人物領域の情報を抽出する人物領域情報抽出部と、
前記複数の3次元の人物領域の情報から3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つを算出し、算出した値の時系列データを抽出する時系列データ抽出部と、
前記動作基本モデルと前記時系列データ抽出部で抽出された時系列データの前記所定の時系列区分毎における類似度を算出する類似度算出部と、
算出された前記類似度の組合せに基づいて総合類似度を算出し、前記総合類似度を用いて前記被観察者の動作を判定する動作算出部と
を有することを特徴とする動作検知装置。 - 前記時系列データ抽出部は、前記複数の3次元の人物領域の情報から前記3次元の人物領域の高さ、幅及び奥行きの時系列データ、高さと幅の比、高さと奥行きの比、幅と奥行きの比のうち少なくとも1つの値の時系列データを抽出することを特徴とする請求項1に記載の動作検知装置。
- 前記時系列データ抽出部は、前記複数の3次元の人物領域の情報から前記3次元の人物領域の重心座標の時系列データを抽出することを特徴とする請求項1に記載の動作検知装置。
- 前記時系列データ抽出部は、前記3次元の人物領域の高さと撮像間隔の比、前記3次元の人物領域の幅と撮像間隔の比、前記3次元の人物領域の奥行きと撮像間隔の比、前記3次元の人物領域の高さ方向の中心座標と撮像間隔の比、前記3次元の人物領域の幅方向の中心座標と撮像間隔の比、前記3次元の人物領域の奥行き方向の中心座標と撮像間隔の比のうちの少なくとも1つの値の時系列データを抽出することを特徴とする請求項1乃至3のいずれか1項に記載の動作検知装置。
- 人物の撮像画像を取得する画像データ取得部と、
前記撮像画像に基づいて複数の3次元の人物領域の情報を抽出する人物領域情報抽出部と、
前記複数の3次元の人物領域情報から3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つを算出し、算出した値の時系列モデルデータを抽出する時系列モデルデータ抽出部と、
前記時系列モデルデータ抽出部において抽出した時系列モデルデータを所定の時系列区分毎に分類する時系列モデルデータ分類部と、
前記分類された時系列モデルデータから前記所定の時系列区分毎の人物の動作基本モデルを作成する動作基本モデル作成部と、
前記動作基本モデルが時系列区分毎に格納される動作基本モデル格納部と
を備えることを特徴とする動作基本モデル生成装置。 - 前記動作基本モデル作成部は、前記3次元の人物領域の高さ、幅及び奥行きの時系列モデルデータ、高さと幅の比、高さと奥行きの比、幅と奥行きの比のうち少なくとも1つの値の時系列モデルデータに関して、人物の動作基本モデルを作成することを特徴とする請求項5に記載の動作基本モデル生成装置。
- 被観察者の撮像画像を用いて、メモリに格納された人物の所定動作における3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つの時系列データから抽出された動作基本モデルを参照して被観察者の動作を検知する動作検知装置として機能するコンピュータに、
被観察者の撮像画像を取得する工程(A)と、
取得した前記撮像画像を用いて複数の3次元の人物領域の情報を抽出する工程(B)と、
前記複数の3次元の人物領域の情報から3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つを算出し、算出した値の時系列データを抽出する工程(C)と、
前記動作基本モデルと抽出された前記時系列データの前記所定の時系列区分毎における類似度を算出する工程(D)と、
算出された前記類似度の組合せに基づいて総合類似度を算出し、前記総合類似度を用いて前記被観察者の動作を判定する工程(E)と、
を実行させることを特徴とする動作検知プログラム。 - 人物の撮像画像を用いて、人物の所定動作における3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つの時系列データから抽出された動作基本モデルを作成する動作モデル生成装置として機能するコンピュータに、
人物の撮像画像を取得する工程(a)と、
取得した前記撮像画像を用いて複数の3次元の人物領域の情報を抽出する工程(b)と、
前記複数の3次元の人物領域情報から3次元の人物領域の高さ、幅及び奥行きのうちの少なくとも1つを算出し、算出した値の時系列モデルデータを抽出する工程(c)と、
抽出した前記時系列モデルデータを所定の時系列区分毎に分類する工程(d)と、
分類された前記時系列モデルデータから前記所定の時系列区分毎の人物の動作基本モデルを作成する工程(e)と、
作成した前記動作基本モデルを時系列区分毎にメモリに格納する工程(f)と
を実行させることを特徴とする動作基本モデル生成プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007171011A JP2009009413A (ja) | 2007-06-28 | 2007-06-28 | 動作検知装置及び動作検知プログラム、並びに動作基本モデル生成装置及び動作基本モデル生成プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007171011A JP2009009413A (ja) | 2007-06-28 | 2007-06-28 | 動作検知装置及び動作検知プログラム、並びに動作基本モデル生成装置及び動作基本モデル生成プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009009413A true JP2009009413A (ja) | 2009-01-15 |
Family
ID=40324419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007171011A Withdrawn JP2009009413A (ja) | 2007-06-28 | 2007-06-28 | 動作検知装置及び動作検知プログラム、並びに動作基本モデル生成装置及び動作基本モデル生成プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009009413A (ja) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011258130A (ja) * | 2010-06-11 | 2011-12-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
JP2012094151A (ja) * | 2010-10-28 | 2012-05-17 | Hon Hai Precision Industry Co Ltd | 手振り識別装置及び識別方法 |
JP2015191471A (ja) * | 2014-03-28 | 2015-11-02 | Kddi株式会社 | 感情情報推定装置、方法及びプログラム |
JP2016001506A (ja) * | 2015-09-18 | 2016-01-07 | 株式会社ニコン | 電子機器 |
JP2016028333A (ja) * | 2015-09-18 | 2016-02-25 | 株式会社ニコン | 電子機器 |
JP2016066308A (ja) * | 2014-09-25 | 2016-04-28 | 富士通株式会社 | 人物の動作モニタ方法、動作判定方法、人物の動作モニタプログラム、動作判定プログラムおよび情報処理装置 |
JP2016179149A (ja) * | 2015-03-25 | 2016-10-13 | 株式会社Jvcケンウッド | 着席判定装置、着席判定方法、及びプログラム |
US20160335861A1 (en) * | 2013-12-17 | 2016-11-17 | Sharp Kabushiki Kaisha | Recognition data transmission device |
WO2016199504A1 (ja) * | 2015-06-09 | 2016-12-15 | コニカミノルタ株式会社 | 行動検知装置および行動検知方法ならびに被監視者監視装置 |
JP2017091249A (ja) * | 2015-11-11 | 2017-05-25 | 株式会社東芝 | 分析装置および分析方法 |
JP2018187455A (ja) * | 2018-08-10 | 2018-11-29 | 株式会社Jvcケンウッド | 着席領域設定装置、着席領域設定方法、及びプログラム |
US10255491B2 (en) | 2010-11-19 | 2019-04-09 | Nikon Corporation | Guidance system, detection device, and position assessment device |
WO2019235350A1 (ja) * | 2018-06-06 | 2019-12-12 | 日本電気株式会社 | 情報処理システム、情報処理方法及び記憶媒体 |
WO2022091304A1 (en) * | 2020-10-29 | 2022-05-05 | Nec Corporation | Categorization apparatus, control device, categorization method, control method and computer readable medium |
WO2023089691A1 (ja) * | 2021-11-17 | 2023-05-25 | 日本電気株式会社 | 行動分類装置、行動分類方法、およびプログラム |
JP7485217B2 (ja) | 2020-10-29 | 2024-05-16 | 日本電気株式会社 | 分類装置、分類方法及びプログラム |
-
2007
- 2007-06-28 JP JP2007171011A patent/JP2009009413A/ja not_active Withdrawn
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011258130A (ja) * | 2010-06-11 | 2011-12-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
JP2012094151A (ja) * | 2010-10-28 | 2012-05-17 | Hon Hai Precision Industry Co Ltd | 手振り識別装置及び識別方法 |
US10255491B2 (en) | 2010-11-19 | 2019-04-09 | Nikon Corporation | Guidance system, detection device, and position assessment device |
US20160335861A1 (en) * | 2013-12-17 | 2016-11-17 | Sharp Kabushiki Kaisha | Recognition data transmission device |
US10699541B2 (en) | 2013-12-17 | 2020-06-30 | Sharp Kabushiki Kaisha | Recognition data transmission device |
JPWO2015093330A1 (ja) * | 2013-12-17 | 2017-03-16 | シャープ株式会社 | 認識データ伝送装置、認識データ記録装置及び認識データ記録方法 |
JP2015191471A (ja) * | 2014-03-28 | 2015-11-02 | Kddi株式会社 | 感情情報推定装置、方法及びプログラム |
JP2016066308A (ja) * | 2014-09-25 | 2016-04-28 | 富士通株式会社 | 人物の動作モニタ方法、動作判定方法、人物の動作モニタプログラム、動作判定プログラムおよび情報処理装置 |
JP2016179149A (ja) * | 2015-03-25 | 2016-10-13 | 株式会社Jvcケンウッド | 着席判定装置、着席判定方法、及びプログラム |
WO2016199504A1 (ja) * | 2015-06-09 | 2016-12-15 | コニカミノルタ株式会社 | 行動検知装置および行動検知方法ならびに被監視者監視装置 |
JP6048630B1 (ja) * | 2015-06-09 | 2016-12-21 | コニカミノルタ株式会社 | 行動検知装置および行動検知方法ならびに被監視者監視装置 |
JP2017091552A (ja) * | 2015-06-09 | 2017-05-25 | コニカミノルタ株式会社 | 行動検知装置および行動検知方法ならびに被監視者監視装置 |
JP2016028333A (ja) * | 2015-09-18 | 2016-02-25 | 株式会社ニコン | 電子機器 |
JP2016001506A (ja) * | 2015-09-18 | 2016-01-07 | 株式会社ニコン | 電子機器 |
JP2017091249A (ja) * | 2015-11-11 | 2017-05-25 | 株式会社東芝 | 分析装置および分析方法 |
WO2019235350A1 (ja) * | 2018-06-06 | 2019-12-12 | 日本電気株式会社 | 情報処理システム、情報処理方法及び記憶媒体 |
JPWO2019235350A1 (ja) * | 2018-06-06 | 2021-02-12 | 日本電気株式会社 | 情報処理システム、情報処理方法及び記憶媒体 |
JP2018187455A (ja) * | 2018-08-10 | 2018-11-29 | 株式会社Jvcケンウッド | 着席領域設定装置、着席領域設定方法、及びプログラム |
WO2022091304A1 (en) * | 2020-10-29 | 2022-05-05 | Nec Corporation | Categorization apparatus, control device, categorization method, control method and computer readable medium |
JP7485217B2 (ja) | 2020-10-29 | 2024-05-16 | 日本電気株式会社 | 分類装置、分類方法及びプログラム |
WO2023089691A1 (ja) * | 2021-11-17 | 2023-05-25 | 日本電気株式会社 | 行動分類装置、行動分類方法、およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009009413A (ja) | 動作検知装置及び動作検知プログラム、並びに動作基本モデル生成装置及び動作基本モデル生成プログラム | |
JP6204199B2 (ja) | 画像品質の評価 | |
US8340357B2 (en) | Moving object detection method and moving object detection apparatus | |
KR101283262B1 (ko) | 영상 처리 방법 및 장치 | |
JP4469275B2 (ja) | ポーズ角度を推定するためのシステムおよび方法 | |
Bobick et al. | The recognition of human movement using temporal templates | |
US9092662B2 (en) | Pattern recognition method and pattern recognition apparatus | |
JP5001260B2 (ja) | オブジェクト追跡方法及びオブジェクト追跡装置 | |
JP4774818B2 (ja) | 画像処理装置及び画像処理方法 | |
US20220383653A1 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium storing image processing program | |
JP2011198161A (ja) | 対象物認識システム及び該システムを利用する監視システム、見守りシステム | |
JP2020123239A (ja) | 姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法 | |
JP2008146583A (ja) | 姿勢検知装置および挙動検知装置 | |
Mastorakis et al. | Fall detection without people: A simulation approach tackling video data scarcity | |
JP2008148237A (ja) | 姿勢検知装置 | |
JP3732757B2 (ja) | 画像認識方法および画像認識装置 | |
CN111448589B (zh) | 用于检测患者的身体移动的设备、系统和方法 | |
JP2011198244A (ja) | 対象物認識システム及び該システムを利用する監視システム、見守りシステム | |
Maldonado et al. | Feature selection to detect fallen pose using depth images | |
WO2020261404A1 (ja) | 人物状態検出装置、人物状態検出方法及びプログラムが格納された非一時的なコンピュータ可読媒体 | |
JP2009289210A (ja) | 重要物体認識装置および重要物体認識方法ならびにそのプログラム | |
US20220395193A1 (en) | Height estimation apparatus, height estimation method, and non-transitory computer readable medium storing program | |
JP6336935B2 (ja) | 移動物体追跡装置 | |
JP2008152717A (ja) | 転倒状況検知装置 | |
JP7396364B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100907 |