JP2008152717A - 転倒状況検知装置 - Google Patents

転倒状況検知装置 Download PDF

Info

Publication number
JP2008152717A
JP2008152717A JP2006342654A JP2006342654A JP2008152717A JP 2008152717 A JP2008152717 A JP 2008152717A JP 2006342654 A JP2006342654 A JP 2006342654A JP 2006342654 A JP2006342654 A JP 2006342654A JP 2008152717 A JP2008152717 A JP 2008152717A
Authority
JP
Japan
Prior art keywords
fall
time
data
person area
series data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006342654A
Other languages
English (en)
Inventor
Atsushi Oda
淳志 小田
Yoshitaro Yamanaka
義太郎 山中
Naoto Tojo
直人 東條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2006342654A priority Critical patent/JP2008152717A/ja
Publication of JP2008152717A publication Critical patent/JP2008152717A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】この発明は、被観察者が転倒した場合に、その転倒状況を検知することができる転倒状況検知装置を提供することを目的とする。
【解決手段】被観察者の撮影画像に基づいて、被観察者が転倒したか否かを判定する転倒検知手段、および被観察者が転倒したと判定された場合には、被観察者の撮影画像に基づいて、転倒発生時に観察者の動きが少ないか多いかを判定する転倒状況検知手段を備えており、転倒状況検知手段は、撮像画像から、転倒発生時における人物領域のX,Y,Zそれぞれの方向の幅データの時系列データを抽出する抽出手段、および抽出手段によって抽出された時系列データ内のデータ間の類似度合いに基づいて、転倒発生時に観察者の動きが少ないか多いかを判定する判定手段を備えている。
【選択図】図1

Description

この発明は、被観察者が転倒した場合に、その転倒状況を検知する転倒状況検知装置に関する。
被観察者の転倒を検知する装置として、被観察者をカメラで撮影し、撮影画像から被観察者の動作ベクトルを検出し、検出した動作ベクトルと予め記憶している被観察者の転倒ベクトルとを比較することにより、被観察者が転倒したか否かを判別するものが既に開発されている(特開2002−232870号公報参照)。
また、被観察者の転倒を検知する装置として、被観察者をカメラで撮影し、撮影画像と被観察者が存在しないときに撮影された参照画像との差分領域を抽出し、差分領域の面積に基づいて被観察者が転倒したか否かを判別するものが既に開発されている(特開2000−207664号公報参照)。特開2000−207664号公報には、さらに、被観察者の移動方向および移動速度を考慮して、被観察者が勢いよく転倒したか否か等の転倒の危険度も検知できることが開示されている。
しかしながら、転倒発生時または転倒後の動作から転倒の状況を判定する手法は未だ開発されていない。
特開2002−232870号公報 特開2000−207664号公報
この発明は、被観察者が転倒した場合に、その転倒状況を検知することができる転倒状況検知装置を提供することを目的とする。
請求項1に記載の発明は、被観察者の撮影画像に基づいて、被観察者が転倒したか否かを判定する転倒検知手段、および被観察者が転倒したと判定された場合には、被観察者の撮影画像に基づいて、転倒発生時に観察者の動きが少ないか多いかを判定する転倒状況検知手段を備えており、転倒状況検知手段は、転倒発生時における複数時点での被観察者の撮影画像に基づいて、複数時点での3次元人物領域情報を抽出する人物領域情報抽出手段、各時点での3次元人物領域情報それぞれから3次元人物領域の高さ、幅および奥行き情報を算出することにより、転倒発生時における3次元人物領域の高さ、幅および奥行きの時系列データを抽出する抽出手段、および抽出手段によって抽出された時系列データ内のデータ間の類似度合いに基づいて、転倒発生時に観察者の動きが少ないか多いかを判定する判定手段を備えていることを特徴とする。
請求項2に記載の発明は、被観察者の撮影画像に基づいて、被観察者が転倒したか否かを判定する転倒検知手段、および被観察者が転倒したと判定された場合には、被観察者の撮影画像に基づいて、転倒後に観察者の動きが少ないか多いかを判定する転倒状況検知手段を備えており、転倒状況検知手段は、転倒後における複数時点での被観察者の撮影画像に基づいて、複数時点での3次元人物領域情報を抽出する人物領域情報抽出手段、各時点での3次元人物領域情報それぞれから3次元人物領域の高さ、幅および奥行き情報を算出することにより、転倒後における3次元人物領域の高さ、幅および奥行きの時系列データを抽出する抽出手段、および抽出手段によって抽出された時系列データ内のデータ間の類似度合いに基づいて、転倒後に観察者の動きが少ないか多いかを判定する判定手段を備えていることを特徴とする。
請求項3に記載の発明は、被観察者の撮影画像に基づいて、被観察者が転倒したか否かを判定する転倒検知手段、被観察者が転倒したと判定された場合には、被観察者の撮影画像に基づいて、転倒発生時に観察者の動きが少ないか多いかを判定する第1の転倒状況検知手段および被観察者が転倒したと判定された場合には、被観察者の撮影画像に基づいて、転倒後に観察者の動きが少ないか多いかを判定する第2の転倒状況検知手段を備えており、第1の転倒状況検知手段は、転倒発生時における複数時点での被観察者の撮影画像に基づいて、複数時点での3次元人物領域情報を抽出する第1の人物領域情報抽出手段、各時点での3次元人物領域情報それぞれから3次元人物領域の高さ、幅および奥行き情報を算出することにより、転倒発生時における3次元人物領域の高さ、幅および奥行きの時系列データを抽出する第1の抽出手段、および第1の抽出手段によって抽出された時系列データ内のデータ間の類似度合いに基づいて、転倒発生時に観察者の動きが少ないか多いかを判定する第1の判定手段を備えており、第2の転倒状況検知手段は、転倒後における複数時点での被観察者の撮影画像に基づいて、複数時点での3次元人物領域情報を抽出する第1の人物領域情報抽出手段、各時点での3次元人物領域情報それぞれから3次元人物領域の高さ、幅および奥行き情報を算出することにより、転倒後における3次元人物領域の高さ、幅および奥行きの時系列データを抽出する第2の抽出手段、および第2の抽出手段によって抽出された時系列データ内のデータ間の類似度合いに基づいて、転倒後に観察者の動きが少ないか多いかを判定する第2の判定手段を備えていることを特徴とする。
請求項4に記載の発明は、請求項1または請求項3に記載の発明において、請求項1に記載の判定手段または請求項3に記載の第1の判定手段は、転倒発生時の学習用データから作成されかつ状態数が異なる複数種類のHMMモデル、転倒発生時における3次元人物領域の高さ、幅および奥行きの時系列データと各HMMモデルとの間の尤度を算出する手段、および尤度が最も大きいHMMモデルの状態数に基づいて、転倒後の動きが少ないか多いかを判定する手段を備えていることを特徴とする。
請求項5に記載の発明は、請求項2または請求項3に記載の発明において、請求項2に記載の判定手段または請求項3に記載の第2の判定手段は、転倒後の学習用データから作成されかつ状態数が異なる複数種類のHMMモデル、転倒後における3次元人物領域の高さ、幅および奥行きの時系列データと各HMMモデルとの間の尤度を算出する手段、および尤度が最も大きいHMMモデルの状態数に基づいて、転倒後の動きが少ないか多いかを判定する手段を備えていることを特徴とする。
請求項6に記載の発明は、請求項1または請求項3に記載の発明において、請求項1に記載の判定手段または請求項3に記載の第1の判定手段は、転倒発生時の学習用データから作成されかつフレーム数が異なる複数種類のDPマッチング用モデル、転倒発生時における3次元人物領域の高さ、幅および奥行きの時系列データから、被観察者の動き量の大きさをシンボル化したデータの時系列データを生成する手段、被観察者の動き量の大きさをシンボル化したデータの時系列データと各DPマッチング用モデルとの間の距離をDPマッチングにより算出する手段、および距離が最も小さいDPマッチング用モデルのフレーム数に基づいて、転倒発生時の動きが少ないか多いかを判定する手段を備えていることを特徴とする。
請求項7に記載の発明は、請求項2または請求項3に記載の発明において、請求項2に記載の判定手段または請求項3に記載の第2の判定手段は、転倒後の学習用データから作成されかつフレーム数が異なる複数種類のDPマッチング用モデル、転倒後における3次元人物領域の高さ、幅および奥行きの時系列データから、被観察者の動き量の大きさをシンボル化したデータの時系列データを生成する手段、被観察者の動き量の大きさをシンボル化したデータの時系列データと各DPマッチング用モデルとの間の距離をDPマッチングにより算出する手段、および距離が最も小さいDPマッチング用モデルのフレーム数に基づいて、転倒後の動きが多いか少ないかを判定する手段を備えていることを特徴とする。
この発明によれば、被観察者が転倒した場合に、その転倒状況を検知することができるようになる。
以下、図面を参照して、この発明の実施例について説明する。
〔1〕転倒および転倒状況検知システムの全体的な構成
図1は、転倒および転倒状況検知システムの全体的な構成を示している。
転倒および転倒状況検知システムは、被観察者の居室50内を撮影するステレオカメラ11、12を備えた転倒および転倒状況検知装置10、転倒および転倒状況検知装置10にネットワーク40を介して接続された監視装置20および転倒および転倒状況検知装置10にネットワーク40を介して接続された移動通信端末30を備えている。
転倒および転倒状況検知装置10は、被観察者の転倒の発生を検知するとともに転倒状況を検知する。ネットワーク40には、複数の被観察者の居室50に対応して設けられた複数の転倒および転倒状況検知装置10が接続されている。監視装置20は監視者が詰めている監視センタに設置されている。
監視装置20および移動通信端末30では、各被観察者の居室50を識別可能に表す居室画面が表示されており、転倒および転倒状況検知装置10によって転倒が検知された場合には、そのことが監視装置20および移動通信端末30に通知され、監視装置20および移動通信端末30はアラームなどを発生させるとともに、居室画面上においてどの居室で転倒が検知されたかを表示する。監視者は、この表示を見て、転倒が検知された居室表示を選択すると、監視装置20および移動通信端末30は、転倒を検知した上記転倒および転倒状況検知装置10から当該居室の現在の画像を受信して監視装置20および移動通信端末30に表示する。
なお、転倒および転倒状況検知装置10によって転倒状況が検知された場合には、検知された転倒状況が監視装置20および移動通信端末30に送られる。監視装置20および移動通信端末30は、転倒が検知された日時、被観察者名(居室番号)、転倒状況、ケア履歴等からなる情報をケア履歴データベースとして記憶する。データベースとして記憶された情報は、監視者によって閲覧できるようになっている。
〔2〕転倒および転倒状況検知処理手順
図2は、転倒および転倒状況検知装置10によって実行される転倒および転倒状況検知検知処理手順を示している。
まず、ステレオカメラ11、12によって撮影された左右画像に基づいて、転倒検知処理が行なわれる(ステップS1)。転倒検知処理において、転倒が検知された場合には(ステップS2)、転倒状況検知処理を行なう(ステップS3)。
〔3〕転倒検知処理手順
〔3−1〕転倒検知処理の全体的な処理手順
図3は、図2のステップS1の転倒検知処理の詳細な手順を示している。
初期設定において、転倒判定用データ蓄積期間であることを記憶するフラグFはリセット(F=0)されているものとする。
まず、ステレオカメラ11、12から画像(左右画像)を取り込む(ステップS11)。画像を取り込む時間間隔は、ステップS11に戻るタイミングによって異なるが、約200msec程度となる。取得した左右画像に基づいて、3次元の人物領域抽出処理を行なう(ステップS12)。これにより、カメラ座標系での3次元人物領域情報(3次元空間での人物領域プロット群)が得られる。次に、得られた3次元人物領域情報に基づいて、姿勢推定処理を行なう(ステップS13)。つまり、被観察者の現在の姿勢(立位、座位、臥位)を推定する。
この後、今回読み込んだフレームに関するデータ群を第1バッファに保存する(ステップS14)。データ群は、時刻情報、入力画像データ、3次元人物領域情報、姿勢推定処理で得られる被観察者の幅、高さ、奥行き情報および姿勢推定結果からなる。第1バッファは、数フレーム分のデータ群を記憶するためのバッファであり、所定フレーム分のデータ群が蓄積されている場合には、1フレーム分の最も古いデータ群が消去されて、新たな1フレーム分のデータ群が蓄積される。
次に、フラグFがセットされているか否かを判別する(ステップS15)。フラグFがセットされていないときには、姿勢推定結果の履歴データ等に基づいて転倒判定用データ蓄積期間の開始点であるか否かを判別する(ステップS16)。この判別処理の詳細については、後述する。転倒判定用データ蓄積期間の開始点ではないと判別した場合には、ステップS11に戻る。
上記ステップS16において、転倒判定用データ蓄積期間の開始点であると判別した場合には、フラグFをセットした後(ステップS17)、今回取得したフレームに関するデータ群を第2バッファに蓄積する(ステップS18)。この場合には、データ群として、開始点からの経過時間情報(開始点からのフレーム数で表される)が追加される。そして、転倒判定用データ蓄積期間の終了点であるか否かを判別する(ステップS19)。この判別処理の詳細については、後述する。転倒判定用データ蓄積期間の終了点ではないと判別した場合には、ステップS11に戻る。
ステップS19からS11に戻った場合には、次のステップS15では、F=1となっているので、ステップS15からステップS18に移行し、第1バッファだけでなく、第2バッファにもデータ群が蓄積される。
上記ステップS19において、転倒判定用データ蓄積期間の終了点であると判別した場合には、フラグFをリセットした後(ステップS20)、第2バッファに蓄積されたデータ群に基づいて、転倒判定処理を行なう(ステップS21)。転倒判定処理の結果、転倒ではないと判定された場合には(ステップS22)、ステップS11に戻る。転倒判定処理の結果、転倒であると判定された場合には(ステップS22)、転倒が発生したことを監視装置20等に通知する(ステップS23)。そして、図1のステップS3に移行する。
〔3−2〕3次元の人物領域抽出処理
図4は、図3のステップS12の3次元人物領域抽出処理の詳細な手順を示している。
事前処理として、居室50に被観察者が存在していない状態で、ステレオカメラ11、12のうちの一方のカメラ11によって居室内を撮影した画像を取得し、取得した画像をグレースケール化する。そして、得られた画像を背景画像として、転倒および転倒状況検知装置10の記憶装置に記憶しておく。
3次元の人物領域抽出処理では、ステレオカメラ11、12から取得した左右画像のうち、背景画像を撮影したカメラ11から今回取得した画像と、背景画像とを用いて、背景差分法により、2次元人物領域を抽出する。また、ステレオカメラ11、12から取得した2枚の画像から、3次元測量手法により、ピクセル毎に奥行き情報を算出し、3次元空間にプロットできる座標情報(3次元位置情報)を取得する。そして、2次元人物領域情報と3次元位置情報とを重ね合わせることで、3次元空間内での人物領域に相当するデータ(3次元の人物領域情報)を抽出する。
具体的には、背景画像を撮影したカメラ11から今回取得した画像を、グレイスケール化する(ステップS31)。
ステップS31で得られた画像と予め記憶されている背景画像の対応する画素毎に、画素値の差の絶対値を算出することにより、両画像の差分画像を作成する(ステップS32)。得られた差分画像を2値化することにより、2次元人物領域情報を抽出する(ステップS33)。
一方、ステレオカメラ11、12から今回取得した左右画像から、周知のステレオ法を用いて、3次元位置情報を算出する(ステップS34)。上記ステップS33で抽出した2次元人物領域情報と、上記ステップS34で算出した3次元位置情報とに基づいて、3次元人物領域情報を抽出する(ステップS35)。
図5は、3次元人物領域情報によって表される3次元の人物領域画像の一例を示している。図5において、直方体101は、X−Y平面、Y−Z平面およびZ−X平面それぞれに平行な面を有しかつ3次元の人物領域に外接する直方体である。直方体101の上側の図(符号102)は、直方体101の上から3次元の人物領域を見た平面図であり、直方体101の右側の図(符号103)は、直方体101の右から3次元の人物領域を見た側面図である。
〔3−3〕図3のステップS13の姿勢推定処理
図6は、図3のステップS13の姿勢推定処理の詳細な手順を示している。
3次元人物領域抽出処理によって得られた3次元人物領域情報に基づいて、図5に示すように、X−Y平面、Y−Z平面およびZ−X平面それぞれに平行な面を有しかつ3次元の人物領域に外接する直方体101の幅lx 、高さlyおよび奥行きlz(被観察者の幅、高さおよび奥行き)を算出する(ステップS41)。lx は3次元の人物領域のx座標の最大値と最小値との差の絶対値を算出することにより、lyは3次元の人物領域のy座標の最大値と最小値との差の絶対値を算出することにより、lzは3次元の人物領域のz座標の最大値と最小値との差の絶対値を算出することにより、それぞれ求められる。
次に、アトペクト比lx /lyおよびlz/lyを算出する(ステップS42)。そして、算出したアトペクト比lx /lyおよびlz/lyと、予め定められた規則とに基づいて、被観察者の姿勢を推定する(ステップS43)。
具体的には、次のような規則に基づいて、被観察者の姿勢を推定する。
(a) lx /ly<0.4またはlz/ly<0.4であれば、観察者の姿勢を「立位」と推定する。
(b) lx /ly>1.5またはlz/ly>1.5であれば、観察者の姿勢を「臥位」と推定する。
(c)それ以外であれば、観察者の姿勢を「座位」と推定する。
〔3−4〕図3のステップS16およびステップS19の開始点または終了点判別処理
図3のステップS16の開始点判別処理においては、『アスペクト比lx /lyおよびlz/lyのうちの少なくとも一方が0.7以上である状態が1秒(約5フレームに相当)以上継続していること』という開始点条件を満たしているか否かを判別し、開始点条件を満たしている場合には今回取り込まれたフレームが転倒判定用データ蓄積期間の開始点であると判別する。
図3のステップS19の終了点判別処理においては、『「アスペクト比lx /lyおよびlz/lyのうちの少なくとも一方が0.7以下である状態が1.4秒(約7フレームに相当)以上継続していること」または「第2バッファに蓄積されているデータ群が所定フレーム数分以上となっていること」または「開始点からの経過時間が、所定時間以上に達していること」』という終了点条件を満たしているか否かを判別し、終了点条件を満たしている場合には今回取り込まれたフレームが転倒判定用データ蓄積期間の終了点であると判別する。
〔3−5〕図3のステップS21の転倒判定処理
各種の挙動毎に、事前にモデルを用意しておく。挙動の種類には、この例では、「前向きの転倒」、「しりもち」、「寝転び」および「座る」がある。ここでは、モデルとしては、隠れマルコフモデル(HMM)が用いられている。各挙動毎のモデルは、その挙動に対応した学習データに基づいて作成される。例えば、「前向きの転倒」は、「前向きの転倒」動作の学習データに基づいて作成される。なお、学習データとしては、経過時間情報(開始点からのフレーム数で表される)および被観察者の幅、高さ、奥行き情報(lx,ly,lz)からなる時系列データが用いられる。「前向きの転倒」、「しりもち」、「寝転び」および「座る」の挙動のうち、「前向きの転倒」および「しりもち」が転倒動作に該当する。
第2バッファに蓄積されているデータ群のうち、経過時間情報(開始点からのフレーム数で表される)および被観察者の幅、高さ、奥行き情報(lx,ly,lz)を時系列データとし、上記時系列データが再現できる確率(尤度)を、各モデル毎に計算する。そして、最も尤度が高いモデルを求める。最も尤度が高いモデルに対応する挙動が、観察者の挙動となる。この実施例では、転倒を検知したいので、最も尤度が高いモデルが「前向きの転倒」または「しりもち」のモデルである場合には、被観察者が転倒したと判定する。
〔3−6〕姿勢推定処理の変形例
上記実施例では、被観察者の幅、高さおよび奥行きから求められたアスペクト比lx /lyおよびlz/lyに基づいて、被観察者の姿勢を推定しているが、被観察者の背筋の向きに相当するベクトル(人物主軸)の向きに基づいて、被観察者の姿勢を推定するようにしてもよい。
つまり、図7に示すように、人物主軸QのX−Z平面となす角γ(人物主軸の向き)を求め、次のような規則に基づいて、被観察者の姿勢を推定する。
(a)γ>π/2×0.6であれば、観察者の姿勢を「立位」と推定する。
(b)γ<π/2×0.3であれば、観察者の姿勢を「臥位」と推定する。
(c)それ以外であれば、観察者の姿勢を「座位」と推定する。
図8は、人物主軸Qの向きと姿勢推定結果の例を示し、図8(a)は「立位」と推定される例を、図8(b)は「座位」と推定される例を、図8(c)は「臥位」と推定される例を、それぞれ示している。
以下、人物主軸の向きの求め方について説明する。人物主軸の向きの求め方には第1方法と第2方法とがある。
まず、第1方法について説明する。第1方法は、主成分分析を用いて、人物主軸の向きを求める方法である。
図9は、人物主軸の向きの算出方法(第1方法)の手順を示している。
3次元人物領域情報(人物領域の3次元空間でのプロット群)を、X−Y平面に射影することにより、X軸をU軸、Y軸をV軸とするUV座標系の第1の射影画像を得るとともに、3次元人物領域情報を、Y−Z平面に射影することにより、Z軸をU軸、Y軸をV軸とするUV座標系の第2の射影画像を得る(ステップS51)。次に、各射影画像毎に、重心を算出する(ステップS52)。そして、各射影画像の全座標値を、重心を原点とする座標値に修正する(ステップS53)。
次に、座標値修正後の第1の射影画像から主成分分析を用いて固有ベクトル(第1主成分の傾きを表すベクトル)を算出するとともに、座標値修正後の第2の射影画像から主成分分析を用いて固有ベクトル(第1主成分の傾きを表すベクトル)を算出する(ステップS54)。そして、ステップS54で算出された2つの固有ベクトルを合成することにより、人物主軸の向きを示すベクトルを求める(ステップS55)。そして、人物主軸の向きを示すベクトルから人物主軸の向きγを求める(ステップS56)。
固有ベクトルの算出方法について説明する。各固有ベクトルの算出方法は同様であるので、第1の固有ベクトルの算出方法について説明する。まず、座標値修正後の第1の射影画像に基づいて、変量uの分散su 、変量vの分散sv および変量u,vの共分散suvを算出する。そして、分散su 、sv および共分散suvを用いて、固有値λを算出する。分散su 、sv および共分散suvを用いて固有値λを算出する方法は、主成分分析において良く知られているのでその詳細を省略する。次に、固有値λを用いて固有ベクトルを算出する。固有値λを用いて固有ベクトルを算出する方法は、主成分分析において良く知られているのでその詳細を省略する。
図10は、人物主軸の向きの算出方法(第2方法)の手順を示している。
3次元人物領域情報(人物領域の3次元空間でのプロット群)を、X−Y平面に射影することにより、第1の射影画像を得るとともに、3次元人物領域情報を、Y−Z平面に射影することにより、第2の射影画像を得る(ステップS61)。次に、各射影画像毎に、重心を算出する(ステップS62)。そして、各射影画像の全座標値を、重心を原点とする座標値に修正する(ステップS63)。
次に、座標値修正後の第1の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第1の線分の傾きを求めるとともに、座標値修正後の第2の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第2の線分の傾きを求める(ステップS64)。そして、ステップS64で求められた2つの線分の傾きに基づいて、人物主軸の向きγを求める(ステップS65)。
図11に示すように、第1の射影画像から得られた第1の線分の傾きをα、第2の射影画像から得られた第2の線分の傾きをβとすると、各線分の向きを示す単位ベクトルv1、v2は、次式(1)で表される。
v1=(cosα,sinα)
v2=(cosβ,sinβ) …(1)
次式(2)に基づいて、v1、v2を合成すると、人物主軸の向きを示すベクトルVが得られる。
V=(cosα,sinα+sinβ,cosβ) …(2)
人物主軸の向きαは、次式(3)に基づいて、求められる。
tanγ=(sinα+sinβ)/(cosα2 +cosβ2 1/2 …(3)
第1の線分および第2の線分の求め方について説明する。各線分の求め方は同様であるので、第1の線分の求め方について説明する。
図12は、第1の線分の求め方を示している。
まず、ステップS3で得られた第1の射影画像を、図13に示すように、一定間隔を有するY軸に平行な複数の分割線により、射影画像をX軸方向に複数の領域に分割する(ステップS71)。各分割領域毎に人物領域のy座標の最大値と最小値に対応する点を輪郭点Piとして特定する(ステップS72)。
輪郭点のうちx座標が最も大きくかつy座標が0に最も近い輪郭点を点Aとし、点Aを含む分割領域を注目領域とする(ステップS73)。図13の例では、点P1が点Aとして特定される。点A以外の輪郭点のうち、点Aと原点を結ぶ直線に最も近い輪郭点を求め、点Bとする(ステップS74)。図13の例では、点Aが点P1である場合には、点P7が点Bとされる。点Aと点Bを結ぶ線分の距離(A−B間距離)を算出して保持する(ステップS75)。
次に、注目領域が、輪郭点のうちx座標が最も小さい輪郭点を含む分割領域(最終処理領域)であるか否かを判別する(ステップS76)。現在の注目領域が最終処理領域でなければ、注目領域を、現在の注目領域に対してx座標が小さくなる方向に隣接する分割領域に更新する(ステップS77)。そして、更新された注目領域内において、y座標が最も大きい輪郭点を点Aとする(ステップS78)。そして、ステップS74に戻り、ステップS74以降の処理を再度行なう。
上記ステップS76において、現在の注目領域が最終処理領域であると判別された場合には、A−B間の距離が最大である線分を第1の線分として特定する(ステップS79)。図13の例では、点P3と点P9とを結ぶ線分が第1の線分として特定される。
〔4〕図2のステップS3の転倒状況検知処理
転倒状況検知処理は、転倒検知処理の転倒判定に用いられた複数フレーム分の時系列データ(経過時間情報および被観察者の幅、高さ、奥行き情報)と、それらの各フレームに対応する時刻情報に基づいて、行なわれる。
図14に示すように、転倒検知処理の転倒判定に用いられた複数フレーム分の時系列データDのうち、最初から所定秒以内(例えば、2秒以内)のデータを転倒発生時のデータDaとし、それ以降のデータを転倒後のデータDbとする。転倒発生時のデータDaと、転倒後のデータDbとは、時刻情報に基づいて分離される。
図15は、図2のステップS3の転倒状況検知処理の詳細な手順を示している。
まず、転倒発生時のデータDaを取り出す(ステップS81)。転倒発生時のデータDaに基いて第1の転倒状況検知処理を行なう(ステップS82)。次に、転倒後のデータDbを取り出す(ステップS83)。転倒後のデータDbに基づいて第2の転倒状況検知処理を行なう(ステップS84)。そして、両転倒状況検知処理の結果に基づいて、転倒状況の総合判定を行なう(ステップS85)。
図16は、図15のステップS82の第1の転倒状況検知処理の詳細な手順を示している。
図17に示すように、「前向きの転倒」の転倒発生時モデルとして、「前向き転倒」動作の転倒発生時の学習データに基づいて、HMMの状態数が異なる複数のモデルを作成しておく。この例では、状態数が2の第1モデルと、状態数が3の第2モデルと、状態数が4の第3モデルとが作成されている。各モデルを作成するために利用する学習データは、複数種類のフレーム長さに対応して作成されており、状態数が2の第1モデルはフレーム長3、状態数が3の第2モデルはフレーム長5、状態数が4の第3モデルはフレーム長7の学習データから作成される。また、同様に、「しりもち」の転倒発生時モデルとして、HMMの状態数が異なる3種類のモデルが作成されている。
第1の転倒状況検知処理では、まず、転倒発生時のデータ(時系列データ)Daから、複数の長さの異なる監視フレームを呼び出す(ステップS91)。この例では、フレーム長が3、5、7の3種類の監視フレームを1つずつ呼び出す。ただし、所定のフレーム長の監視フレームについて、最後の監視フレームが既に呼び出されている場合には、そのフレーム長の監視フレームは呼び出されない。
図18に示すように、転倒発生時のデータから、各種類の監視フレームは、1フレームずつずらして呼び出される。図18の例では、転倒発生時のデータは10フレーム分のデータ群から構成されているので、フレーム長が3の監視フレームは、図18に示すように8回に分けて呼び出される。フレーム長が5の監視フレームは6回に分けて呼び出され、フレーム長が7の監視フレームは4回に分けて呼び出される。
転倒検知処理において認識された転倒動作の種類(「前向きの転倒」または「しりもち」)に応じた、状態数が異なる複数のモデルを呼び出す(ステップS92)。この例では、状態数が2の第1モデルと、状態数が3の第2モデルと、状態数が4の第3モデルとが呼び出される。
呼び出された各監視フレームと各モデルとの全ての組合せについて、尤度を算出する(ステップS93)。つまり、監視フレームのフレーム長とモデルの状態数の組合せに対応した要素毎に尤度が求められる。そして、各要素毎の尤度を表す尤度マップを作成する(ステップS94)。図19に、尤度マップの一例を示す。
次に、全ての監視フレームが呼び出されたか否かを判別する(ステップS95)。全ての監視フレームが呼び出されていない場合には、ステップS91に戻り、複数の長さの異なる監視フレーム毎に、前回呼び出した監視フレームに対して1フレームずらした監視フレームを呼び出す。そして、ステップ92以降の処理を実行する。
上記ステップS95において、全ての監視フレームが呼び出されたと判別した場合には、既に作成された複数の尤度マップに基づいて、各要素毎に尤度の平均値を算出する(ステップS96)。図20に、要素毎の求められた尤度の平均値の一例を示す。
尤度の平均値が最大である要素が、監視フレーム数が多くかつモデルの状態数が少ない要素である場合には(ステップS97)、転倒発生時に動きが少ない軽度の転倒であると判定する(ステップS98)。
この例では、尤度の平均値が最大である要素が、監視フレーム数が7で状態数が2である要素である場合、監視フレーム数が7で状態数が3である場合または、監視フレーム数が5で状態数が2である場合には、転倒発生時に動きが少ない軽度の転倒であると判定する。そして、今回の第1の転倒状況検知処理を終了する。
尤度の平均値が最大である要素が、監視フレーム数が少なくかつモデルの状態数が多い要素である場合には(ステップS97)、転倒発生時に動きが多い重度の転倒であると判定する(ステップS99)。この例では、尤度の平均値が最大である要素が、監視フレーム数が3で状態数が4である要素である場合、監視フレーム数が3で状態数が3である場合または、監視フレーム数が5で状態数が4である場合には、転倒発生時に動きが多い重度の転倒であると判定する。そして、今回の第1の転倒状況検知処理を終了する。
尤度の平均値が最大である要素が、上記以外の要素である場合には(ステップS97)、中程度の転倒であると判定する(ステップS100)。この例では、尤度の平均値が最大である要素が、監視フレーム数が3で状態数が2である要素である場合、監視フレーム数が5で状態数が3である場合または、監視フレーム数が7で状態数が4である場合には、中程度の転倒であると判定する。そして、今回の転倒状況検知処理を終了する。
図20の例では、尤度の平均値が最大である要素は、監視フレーム数が7で状態数が2である要素であるので、転倒発生時に動きが少なく軽度の転倒であると判定される。
上記のような判定結果が導かれる理由について説明する。同じ長さの認識したい転倒動作データを状態数が異なるモデルに認識させたときに、状態数が少ないモデルの尤度が高い場合には同じノードに遷移(自己遷移)するデータが多いと考えられ、逆に状態数が多いモデルの尤度が高い場合には自己遷移するデータが少ないと考えられる。また、自己遷移は直前のデータとの差が小さい場合に発生する。したがって、尤度が高いと判定されたモデルの状態数には、一連の転倒動作データ間のデータの類似度合いが反映される。転倒後の動作に関して状態数の少ないモデルに対して高い尤度が得られた場合には、データ間の類似度が高く、動きが少ない動作であると判定できる。
また、監視フレーム数が異なる転倒動作データを1つのモデルに認識させたときに、監視フレーム数が多いデータに対する尤度が高い場合には自己遷移するデータが多いと考えられ、データ間の類似度が高く、動きが少ない動作であると判定できる。
図15のステップS84の第2の転倒状態検知処理も、上述した第1の転倒状態検知処理と同様な処理によって行なわれる。ただし、モデルとしては、転倒発生時のモデルではなく、転倒後のモデルが用いられる。
また、尤度の平均値が最大である要素が、監視フレーム数が多くかつモデルの状態数が少ない要素である場合には(上記ステップS97参照)、転倒発生時とは異なり、転倒後に動きが少ないため、重度の転倒であると判定される。
また、尤度の平均値が最大である要素が、監視フレーム数が少なくかつモデルの状態数が多い要素である場合には(上記ステップS97参照)、転倒発生時とは異なり、転倒後に動きが多いため、軽度の転倒であると判定される。
また、尤度の平均値が最大である要素が、上記以外の要素である場合には(上記ステップS97参照)、中程度の転倒であると判定される。
図21を参照して、図15のステップS85の転倒状況の総合判定について説明する。
図21は、「転倒発生時」の尤度の平均値が最大である要素と転倒の重篤度(重、中、軽)との関係を示す図表101と、「転倒後」の尤度の平均値が最大である要素と転倒の重篤度(重、中、軽)との関係を示す図表102と、第1および第2の転倒状態検知処理の判定結果と総合判定結果との関係を示す図表103とを示している。
第1の転倒状態検知処理の判定結果が「軽度」でかつ第2の転倒状態検知処理の判定結果が「軽度」である場合、第1の転倒状態検知処理の判定結果が「軽度」でかつ第2の転倒状態検知処理の判定結果が「中度」である場合または第1の転倒状態検知処理の判定結果が「中度」でかつ第2の転倒状態検知処理の判定結果が「軽度」である場合には、総合判定結果は、「軽度」と判定される。
第1の転倒状態検知処理の判定結果が「重度」でかつ第2の転倒状態検知処理の判定結果が「重度」である場合、第1の転倒状態検知処理の判定結果が「重度」でかつ第2の転倒状態検知処理の判定結果が「中度」である場合または第1の転倒状態検知処理の判定結果が「中度」でかつ第2の転倒状態検知処理の判定結果が「重度」である場合には、総合判定結果は、「重度」と判定される。
それ以外の場合には、総合判定結果は、「中度」と判定される。
〔5〕図3のステップS21の転倒判定処理および図2のステップS3の転倒状況検知処理の変形例
既に述べた実施例では、図3のステップS21の転倒判定処理および図2のステップS3の転倒状況検知処理は、HMMを利用して転倒判定、転倒状況検知を行なっている。ここでは、DPマッチングを利用して、転倒判定、転倒状況検知を行なう場合について説明する。
〔5−1〕図3のステップS21の転倒判定処理の変形例
各種の挙動毎に、事前に学習モデルを用意しておく。挙動の種類には、この例では、「前向きの転倒」、「しりもち」、「寝転び」および「座る」がある。各挙動毎の学習モデルは、その挙動に対応した学習データに基づいて作成される。例えば、「前向きの転倒」は、「前向きの転倒」動作の学習データに基づいて作成される。なお、学習データとしては、時刻情報および被観察者の幅、高さ、奥行き情報(lx,ly,lz)からなる時系列データが用いられる。学習データに基づいて、複数時点での被観察者の動き量の程度(多、中、少)からなる学習モデルが作成される。「前向きの転倒」、「しりもち」、「寝転び」および「座る」の挙動のうち、「前向きの転倒」および「しりもち」が転倒動作に該当する。
図22は、転倒判定処理の手順を示している。図23は、転倒判定処理の手順を模式図で表している。
まず、第2バッファに保存されている複数フレーム分の被観察者の幅、高さ、奥行き情報(lx,ly,lz)および時刻情報(図23に時系列データ201で示す)に基づいて、複数時点での単位時間当たりの動き量データ(dlx/dt,dly/dt,dlz/dt)を求める(ステップS111)。
時系列データ201における各隣合うフレーム間のlx,ly,lzの差分dlx、dly、dlzを、それらのフレーム間の時間差で除算することにより、複数時点での単位時間当たりの動き量データが得られる。
次に、各時点での3種類の動き量データのうちの最大値と、予め設定した2つの閾値に基づいて、各時点での動き量を3種類(多、中、少)にシンボル化する(ステップS112)。これにより、図23に示すような複数時点でのシンボル化データからなるパターン202が得られる。
得られたパターン202と各挙動毎の学習モデル(図23に211〜214で示す)との距離(類似度)をDPマッチングにより算出する(ステップS113)。そして、両パターン間の距離が最も短い学習モデルに対応する挙動を、被観察者の挙動として判定する(ステップS114)。この実施例では、転倒を検知したいので、両パターン間の距離が最も短い学習モデルが「前向きの転倒」または「しりもち」の学習モデルである場合には、被観察者が転倒したと判定する。
〔5−2〕図2のステップS3の転倒状況検知処理の変形例
転倒状況検知処理は、転倒検知処理の転倒判定処理で作成された複数時点でのシンボル化データからなるパターン202(図23参照)に基づいて、行なわれる。
図24に示すように、複数時点でのシンボル化データ(複数フレーム分のシンボル化データ)からなるパターンPのうち、最初から所定秒以内(例えば、2秒以内)のデータ列を転倒発生時のパターンPaとし、それ以降のデータ列を転倒後のパターンPbとする。転倒発生時のパターンPaと、転倒後のパターンPbとは、時刻情報に基づいて分離される。
図25は、図2のステップS3の転倒状況検知処理の詳細な手順を示している。
まず、転倒発生時のパターンPaを取り出す(ステップS121)。転倒発生時のパターンPaに基いて第1の転倒状況検知処理を行なう(ステップS122)。次に、転倒後のパターンPbを取り出す(ステップS123)。転倒後のパターンPbに基づいて第2の転倒状況検知処理を行なう(ステップS124)。そして、両転倒状況検知処理の結果に基づいて、転倒状況の総合判定を行なう(ステップS125)。
図26は、図25のステップS122の第1の転倒状況検知処理の詳細な手順を示している。
「前向きの転倒」の転倒発生時の学習モデルとして、「前向き転倒」動作の転倒発生時の学習データに基づいて、フレーム数が異なる複数の学習モデルを作成しておく。学習モデルは、DPマッチングを利用した転倒判定処理と同様に、複数時点での被観察者の動き量の程度(多、中、少)からなる。この例では、フレーム長が3の第1学習モデルと、フレーム長が5の第2学習モデルと、フレーム長が7の第3学習モデルとが作成されている。また、同様に、「しりもち」の転倒発生時モデルとして、フレーム長が異なる3種類のモデルが作成されている。
第1の転倒状況検知処理では、まず、転倒発生時のパターンPaから、複数の長さの異なる監視フレームを呼び出す(ステップS131)。この例では、フレーム長が3、5、7の3種類の監視フレームを1つずつ呼び出す。ただし、所定のフレーム長の監視フレームについて、最後の監視フレームが既に呼び出されている場合には、そのフレーム長の監視フレームは呼び出されない。転倒発生時のパターンPaから、各種類の監視フレームは、1フレームずつずらして呼び出される。
転倒検知処理において認識された転倒動作の種類(「前向きの転倒」または「しりもち」)に応じた、フレーム長が異なる複数の学習モデルを呼び出す(ステップS132)。この例では、フレーム長が3の第1学習モデルと、フレーム長が5の第2学習モデルと、フレーム長が7の第3学習モデルとが呼び出される。
呼び出された各監視フレームと各学習モデルとの全ての組合せについて、それらのパターン間の距離を算出する(ステップS133)。つまり、監視フレームのフレーム長とモデルのフレーム長の組合せに対応した要素毎に距離が求められる。そして、各要素毎の距離を表す距離マップを作成する(ステップS134)。
次に、全ての監視フレームが呼び出されたか否かを判別する(ステップS135)。全ての監視フレームが呼び出されていない場合には、ステップS131に戻り、複数の長さの異なる監視フレーム毎に、前回呼び出した監視フレームに対して1フレームずらした監視フレームを呼び出す。そして、ステップ132以降の処理を実行する。
上記ステップS135において、全ての監視フレームが呼び出されたと判別した場合には、既に作成された複数の距離マップに基づいて、各要素毎に距離の平均値を算出する(ステップS136)。
距離の平均値が最小である要素が、監視フレーム数が多くかつ学習モデルのフレーム長が短い要素である場合には(ステップS137)、転倒発生時に動きが少ない軽度の転倒であると判定する(ステップS138)。
この例では、距離の平均値が最小である要素が、監視フレーム数が7で学習モデルのフレーム長が3である要素である場合、監視フレーム数が7で学習モデルのフレーム長が5である場合または、監視フレーム数が5で学習モデルのフレーム長が3である場合には、転倒発生時に動きが少ない軽度の転倒であると判定する。そして、今回の第1の転倒状況検知処理を終了する。
距離の平均値が最小である要素が、監視フレーム数が少なくかつ学習モデルのフレーム長が長い要素である場合には(ステップS137)、転倒発生時に動きが多い重度の転倒であると判定する(ステップS139)。この例では、距離の平均値が最小である要素が、監視フレーム数が3で学習モデルのフレーム長が7である要素である場合、監視フレーム数が3で学習モデルのフレーム長が5である場合または、監視フレーム数が5で学習モデルのフレーム長が7である場合には、転倒発生時に動きが多い重度の転倒であると判定する。そして、今回の第1の転倒状況検知処理を終了する。
距離の平均値が最小である要素が、上記以外の要素である場合には(ステップS137)、中程度の転倒であると判定する(ステップS140)。この例では、距離の平均値が最小要素が、監視フレーム数が3で学習モデルのフレーム長が3である要素である場合、監視フレーム数が5で学習モデルのフレーム長が5である場合または、監視フレーム数が7で学習モデルのフレーム長が7である場合には、中程度の転倒であると判定する。そして、今回の転倒状況検知処理を終了する。
図25のステップS124の第2の転倒状態検知処理も、上述した第1の転倒状態検知処理と同様な処理によって行なわれる。ただし、学習モデルとしては、転倒発生時の学習モデルではなく、転倒後の学習モデルが用いられる。
また、距離の平均値が最小である要素が、監視フレーム数が多くかつ学習モデルのフレーム長が短い要素である場合には(上記ステップS137参照)、転倒発生時とは異なり、転倒後に動きが少ないため、重度の転倒であると判定される。
また、距離の平均値が最小である要素が、監視フレーム数が少なくかつ学習モデルのフレーム長が長い要素である場合には(上記ステップS137参照)、転倒発生時とは異なり、転倒後に動きが多いため、軽度の転倒であると判定される。
また、距離の平均値が最小である要素が、上記以外の要素である場合には(上記ステップS137参照)、中程度の転倒であると判定される。
図27を参照して、図25のステップS125の転倒状況の総合判定について説明する。
図27は、「転倒発生時」の距離の平均値が最小である要素と転倒の重篤度(重、中、軽)との関係を示す図表301と、「転倒後」の距離の平均値が最小である要素である要素と転倒の重篤度(重、中、軽)との関係を示す図表302と、第1および第2の転倒状態検知処理の判定結果と総合判定結果との関係を示す図表303とを示している。
第1の転倒状態検知処理の判定結果が「軽度」でかつ第2の転倒状態検知処理の判定結果が「軽度」である場合、第1の転倒状態検知処理の判定結果が「軽度」でかつ第2の転倒状態検知処理の判定結果が「中度」である場合または第1の転倒状態検知処理の判定結果が「中度」でかつ第2の転倒状態検知処理の判定結果が「軽度」である場合には、総合判定結果は、「軽度」と判定される。
第1の転倒状態検知処理の判定結果が「重度」でかつ第2の転倒状態検知処理の判定結果が「重度」である場合、第1の転倒状態検知処理の判定結果が「重度」でかつ第2の転倒状態検知処理の判定結果が「中度」である場合または第1の転倒状態検知処理の判定結果が「中度」でかつ第2の転倒状態検知処理の判定結果が「重度」である場合には、総合判定結果は、「重度」と判定される。
それ以外の場合には、総合判定結果は、「中度」と判定される。
〔6〕ケア履歴データベース
転倒検知および転倒状態検知装置10は、転倒を検知した場合には、監視装置20および移動通信端末30に対して転倒が発生したことを通知するとともに、転倒した被観察者および転倒状況判定結果を通知する。
監視装置20および移動通信端末30は、転倒および転倒状況が通知された場合には、図28に示すように、転倒が検知された日時、被観察者名(居室番号)、転倒状況、ケア履歴等からなる情報をケア履歴データベースに追加する。
また、監視装置20および移動通信端末30は、転倒および転倒状況が通知された場合には、ケア履歴データベースに基づいて、図29に示すような当該被観察者のケアの種類別の頻度グラフを作成して、提示する。
ケアスタッフは、この頻度グラフの結果に応じて、所定のケアを行ない、ケア終了後に、今回のケアの内容をケア履歴データべースに追加する。このように判定結果とケアの履歴を被観察者毎に蓄積していくことによって、特定の被観察者に対応した適切なケアを施すことが可能となる。
上記実施例では、転倒および転倒状況検知装置10は3次元人物領域情報を抽出するためにステレオカメラ等の撮像装置を備えているが、これに限定されることなく、転倒および転倒状況検知装置10は、3次元人物領域情報を抽出するために、例えば単眼の撮像装置とレーザレンジファインダーとの組合せ、単眼の撮像装置と複数の超音波センサの組合せ等のように、撮像装置を含んだセンサの組合せを備えていてもよい。
転倒および転倒状況検知システムの全体的な構成を示すブロック図である。 転倒および転倒状況検知検知処理手順を示すフローチャートである。 図2のステップS1の転倒検知処理の詳細な手順を示すフローチャートである。 図3のステップS12の3次元の人物領域抽出処理の詳細な手順を示すフローチャートである。 3次元の人物領域情報に対応する3次元の人物領域画像の一例を示す模式図である。 図3のステップS13の姿勢推定処理の詳細な手順を示すフローチャートである。 人物主軸Qおよび人物主軸QのX−Z平面となす角γを示す模式図である。 人物主軸Qの向きと姿勢推定結果の例を示す模式図である。 人物主軸の算出方法(第1方法)の手順を示すフローチャートである。 人物主軸の算出方法(第2方法)の手順を示すフローチャートである。 第1の射影画像から得られた第1の線分の傾きαと、第2の射影画像から得られた第2の線分の傾きβとを示す模式図である。 第1の線分の求め方を示すフローチャートである。 第1の線分の求め方を説明するための模式図である。 転倒検知処理の転倒判定に用いられた複数フレーム分の時系列データDを、転倒発生時のデータDaと転倒後のデータDbとに分類した状態を示す模式図である。 図2のステップS3の転倒状況検知処理の詳細な手順を示すフローチャートである。 図15のステップS82の第1の転倒状況検知処理の詳細な手順を示すフローチャートである。 「前向きの転倒」の転倒発生時モデルとして予め用意された、HMMの状態数が異なる複数のモデルを示す模式図である。 各種類の監視フレームの呼び出し方法を説明するための模式図である。 尤度マップの一例を示す模式図である。 尤度マップの要素毎の求められた尤度の平均値の一例を示す模式図である。 「転倒発生時」の尤度の平均値が最大である要素と転倒の重篤度(重、中、軽)との関係と、「転倒後」の尤度の平均値が最大である要素と転倒の重篤度(重、中、軽)との関係と、第1および第2の転倒状態検知処理の判定結果と総合判定結果との関係をそれぞれ示す表である。 図3のステップS21の転倒判定処理の手順の変形例を示すフローチャートである。 図22の転倒判定処理の手順を説明するための模式図である。 複数時点でのシンボル化動き量(複数フレーム分のシンボル化動き量)からなるパターンPを、転倒発生時のパターンPaと転倒後のパターンPbとに分類した状態を示す模式図である。 図2のステップS3の転倒状況検知処理の手順の変形例を示すフローチャートである。 図25のステップS122の第1の転倒状況検知処理の詳細な手順を示すフローチャートである。 「転倒発生時」の距離の平均値が最小である要素と転倒の重篤度(重、中、軽)との関係と、「転倒後」の距離の平均値が最小である要素である要素と転倒の重篤度(重、中、軽)との関係と、第1および第2の転倒状態検知処理の判定結果と総合判定結果との関係をそれぞれ示す模式図である。 ケア履歴データベースの内容の一部を示す模式図である。 被観察者のケアの種類別の頻度グラフを示す棒グラフである。
符号の説明
10 転倒および転倒状況検知装置
11、12 ステレオカメラ
20 監視装置
30 移動通信端末
40 ネットワーク

Claims (7)

  1. 被観察者の撮影画像に基づいて、被観察者が転倒したか否かを判定する転倒検知手段、および被観察者が転倒したと判定された場合には、被観察者の撮影画像に基づいて、転倒発生時に観察者の動きが少ないか多いかを判定する転倒状況検知手段を備えており、
    転倒状況検知手段は、
    転倒発生時における複数時点での被観察者の撮影画像に基づいて、複数時点での3次元人物領域情報を抽出する人物領域情報抽出手段、
    各時点での3次元人物領域情報それぞれから3次元人物領域の高さ、幅および奥行き情報を算出することにより、転倒発生時における3次元人物領域の高さ、幅および奥行きの時系列データを抽出する抽出手段、および
    抽出手段によって抽出された時系列データ内のデータ間の類似度合いに基づいて、転倒発生時に観察者の動きが少ないか多いかを判定する判定手段、
    を備えていることを特徴とする転倒状況検知装置。
  2. 被観察者の撮影画像に基づいて、被観察者が転倒したか否かを判定する転倒検知手段、および被観察者が転倒したと判定された場合には、被観察者の撮影画像に基づいて、転倒後に観察者の動きが少ないか多いかを判定する転倒状況検知手段を備えており、
    転倒状況検知手段は、
    転倒後における複数時点での被観察者の撮影画像に基づいて、複数時点での3次元人物領域情報を抽出する人物領域情報抽出手段、
    各時点での3次元人物領域情報それぞれから3次元人物領域の高さ、幅および奥行き情報を算出することにより、転倒後における3次元人物領域の高さ、幅および奥行きの時系列データを抽出する抽出手段、および
    抽出手段によって抽出された時系列データ内のデータ間の類似度合いに基づいて、転倒後に観察者の動きが少ないか多いかを判定する判定手段、
    を備えていることを特徴とする転倒状況検知装置。
  3. 被観察者の撮影画像に基づいて、被観察者が転倒したか否かを判定する転倒検知手段、被観察者が転倒したと判定された場合には、被観察者の撮影画像に基づいて、転倒発生時に観察者の動きが少ないか多いかを判定する第1の転倒状況検知手段および被観察者が転倒したと判定された場合には、被観察者の撮影画像に基づいて、転倒後に観察者の動きが少ないか多いかを判定する第2の転倒状況検知手段を備えており、
    第1の転倒状況検知手段は、転倒発生時における複数時点での被観察者の撮影画像に基づいて、複数時点での3次元人物領域情報を抽出する第1の人物領域情報抽出手段、各時点での3次元人物領域情報それぞれから3次元人物領域の高さ、幅および奥行き情報を算出することにより、転倒発生時における3次元人物領域の高さ、幅および奥行きの時系列データを抽出する第1の抽出手段、および第1の抽出手段によって抽出された時系列データ内のデータ間の類似度合いに基づいて、転倒発生時に観察者の動きが少ないか多いかを判定する第1の判定手段を備えており、
    第2の転倒状況検知手段は、転倒後における複数時点での被観察者の撮影画像に基づいて、複数時点での3次元人物領域情報を抽出する第1の人物領域情報抽出手段、各時点での3次元人物領域情報それぞれから3次元人物領域の高さ、幅および奥行き情報を算出することにより、転倒後における3次元人物領域の高さ、幅および奥行きの時系列データを抽出する第2の抽出手段、および第2の抽出手段によって抽出された時系列データ内のデータ間の類似度合いに基づいて、転倒後に観察者の動きが少ないか多いかを判定する第2の判定手段を備えていることを特徴とする転倒状況検知装置。
  4. 請求項1に記載の判定手段または請求項3に記載の第1の判定手段は、転倒発生時の学習用データから作成されかつ状態数が異なる複数種類のHMMモデル、転倒発生時における3次元人物領域の高さ、幅および奥行きの時系列データと各HMMモデルとの間の尤度を算出する手段、および尤度が最も大きいHMMモデルの状態数に基づいて、転倒後の動きが少ないか多いかを判定する手段を備えていることを特徴とする請求項1または請求項3に記載の転倒状況検知装置。
  5. 請求項2に記載の判定手段または請求項3に記載の第2の判定手段は、転倒後の学習用データから作成されかつ状態数が異なる複数種類のHMMモデル、転倒後における3次元人物領域の高さ、幅および奥行きの時系列データと各HMMモデルとの間の尤度を算出する手段、および尤度が最も大きいHMMモデルの状態数に基づいて、転倒後の動きが少ないか多いかを判定する手段を備えていることを特徴とする請求項2または請求項3に記載の転倒状況検知装置。
  6. 請求項1に記載の判定手段または請求項3に記載の第1の判定手段は、転倒発生時の学習用データから作成されかつフレーム数が異なる複数種類のDPマッチング用モデル、転倒発生時における3次元人物領域の高さ、幅および奥行きの時系列データから、被観察者の動き量の大きさをシンボル化したデータの時系列データを生成する手段、被観察者の動き量の大きさをシンボル化したデータの時系列データと各DPマッチング用モデルとの間の距離をDPマッチングにより算出する手段、および距離が最も小さいDPマッチング用モデルのフレーム数に基づいて、転倒発生時の動きが少ないか多いかを判定する手段を備えていることを特徴とする請求項1または請求項3に記載の転倒状況検知装置。
  7. 請求項2に記載の判定手段または請求項3に記載の第2の判定手段は、転倒後の学習用データから作成されかつフレーム数が異なる複数種類のDPマッチング用モデル、転倒後における3次元人物領域の高さ、幅および奥行きの時系列データから、被観察者の動き量の大きさをシンボル化したデータの時系列データを生成する手段、被観察者の動き量の大きさをシンボル化したデータの時系列データと各DPマッチング用モデルとの間の距離をDPマッチングにより算出する手段、および距離が最も小さいDPマッチング用モデルのフレーム数に基づいて、転倒後の動きが少ないか多いかを判定する手段を備えていることを特徴とする請求項2または請求項3に記載の転倒状況検知装置。
JP2006342654A 2006-12-20 2006-12-20 転倒状況検知装置 Pending JP2008152717A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006342654A JP2008152717A (ja) 2006-12-20 2006-12-20 転倒状況検知装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006342654A JP2008152717A (ja) 2006-12-20 2006-12-20 転倒状況検知装置

Publications (1)

Publication Number Publication Date
JP2008152717A true JP2008152717A (ja) 2008-07-03

Family

ID=39654794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006342654A Pending JP2008152717A (ja) 2006-12-20 2006-12-20 転倒状況検知装置

Country Status (1)

Country Link
JP (1) JP2008152717A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010197101A (ja) * 2009-02-23 2010-09-09 Nagoya Institute Of Technology 地震時負傷回避システム
WO2016018006A1 (ko) * 2014-07-31 2016-02-04 삼성에스디에스 주식회사 영상에서의 쓰러짐 감지 방법 및 장치와 이를 이용한 시스템
WO2022196212A1 (ja) * 2021-03-18 2022-09-22 矢崎総業株式会社 見守りシステム
CN115371615A (zh) * 2022-10-21 2022-11-22 山东省鲁南地质工程勘察院(山东省地质矿产勘查开发局第二地质大队) 一种采煤塌陷区域深度智能测量设备

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010197101A (ja) * 2009-02-23 2010-09-09 Nagoya Institute Of Technology 地震時負傷回避システム
WO2016018006A1 (ko) * 2014-07-31 2016-02-04 삼성에스디에스 주식회사 영상에서의 쓰러짐 감지 방법 및 장치와 이를 이용한 시스템
WO2022196212A1 (ja) * 2021-03-18 2022-09-22 矢崎総業株式会社 見守りシステム
JP7317880B2 (ja) 2021-03-18 2023-07-31 矢崎総業株式会社 見守りシステム
CN115371615A (zh) * 2022-10-21 2022-11-22 山东省鲁南地质工程勘察院(山东省地质矿产勘查开发局第二地质大队) 一种采煤塌陷区域深度智能测量设备

Similar Documents

Publication Publication Date Title
JP2009009413A (ja) 動作検知装置及び動作検知プログラム、並びに動作基本モデル生成装置及び動作基本モデル生成プログラム
JP2008146583A (ja) 姿勢検知装置および挙動検知装置
JPWO2005107240A1 (ja) 自動撮影方法および装置
JP4670303B2 (ja) 画像処理方法及び画像処理装置
WO2018101247A1 (ja) 画像認識撮像装置
JP2009510541A (ja) オブジェクト追跡方法及びオブジェクト追跡装置
JP2008148237A (ja) 姿勢検知装置
JP5388829B2 (ja) 侵入物体検知装置
WO2014010174A1 (ja) 画角変動検知装置、画角変動検知方法および画角変動検知プログラム
JP2009199417A (ja) 顔追跡装置及び顔追跡方法
JP2009027393A (ja) 映像検索システムおよび人物検索方法
KR20170066258A (ko) 정보 처리 장치, 정보 처리 방법 및 기록 매체
US8599278B2 (en) Method for estimating a plane in a range image and range image camera
JP3388087B2 (ja) 物体検出装置
JP4821355B2 (ja) 人物追跡装置、人物追跡方法および人物追跡プログラム
JP5155110B2 (ja) 監視装置
JP2008152717A (ja) 転倒状況検知装置
JP5370009B2 (ja) 監視システム
JP6336935B2 (ja) 移動物体追跡装置
JP2009033564A (ja) 表示装置及び表示プログラム
JP4415870B2 (ja) 転倒転落検知システム、及びプログラム
JP2018201146A (ja) 画像補正装置、画像補正方法、注目点認識装置、注目点認識方法及び異常検知システム
KR101614697B1 (ko) 패턴매칭을 이용한 해양플랜트 영상감시시스템 및 영상감시방법
KR102134771B1 (ko) 객체 인식을 통해 위급 상황을 판단하는 장치 및 방법
JP6981553B2 (ja) 識別システム、モデル提供方法およびモデル提供プログラム