JP2016143071A - 特定動作検出装置 - Google Patents
特定動作検出装置 Download PDFInfo
- Publication number
- JP2016143071A JP2016143071A JP2015015845A JP2015015845A JP2016143071A JP 2016143071 A JP2016143071 A JP 2016143071A JP 2015015845 A JP2015015845 A JP 2015015845A JP 2015015845 A JP2015015845 A JP 2015015845A JP 2016143071 A JP2016143071 A JP 2016143071A
- Authority
- JP
- Japan
- Prior art keywords
- luminance gradient
- image
- difference
- camera
- gradient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Accommodation For Nursing Or Treatment Tables (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】 画像の見え方が異なる場合でも同一の動作に対しては同一の動作として認識できる特定動作検出装置を提供する。【解決手段】 特定動作検出部2は、カメラ1の撮像映像を連続する時系列の画像フレームで出力する画像生成部21と、画像フレームに対して微小領域毎の輝度勾配を求める輝度勾配算出部22と、求めた輝度勾配のフレーム間差分を抽出する輝度勾配差分算出部23と、抽出した輝度勾配フレーム間差分から動き特徴を抽出するために抽出した輝度勾配差分の時間変化を抽出し、抽出した時間変化のベクトルの畳み込みを実施して自己相関特徴ベクトルを算出する輝度勾配差分自己相関特徴算出部24と、得られた自己相関特徴ベクトルに対して機械学習による識別処理を実施して特定動作との類似度を判定する判定部25とを有する。【選択図】 図1
Description
本発明は、入力動画像から人物の特定の行動を定量化した数値データを事前情報として保持し、未知の入力データに対して保持している数値データとの比較によって類似度を推定することで特定動作を検出する装置に関する。
病院や高齢者施設等では、患者や要介護者が転倒する事故が多発している。この転倒を未然に防止するために、患者の離床或いは起き上がりを検知する見守りシステムが提案されている。例えば特許文献1では、カメラを用いて見守り対象者の動きを捕捉することで起き上がりや離床を検知するシステムを実現している。
このように映像から人物の行動を推定する方法としてCHLAC特徴が知られている。これは、ある時刻に撮影された画像から人物の特徴を抽出し、その情報が時間の経過に伴いどのように変化していくかを観察し、その画像特徴の時系列変化と、予め蓄積した特定の動作に関する画像の特徴データとを比較し、その類似度を算出して行動を推定する方法であり、この技術を患者の起き上がり検出に適用した文献として例えば特許文献2がある。特許文献2では、画像フレーム間の輝度勾配差分を求めて動く物体の輪郭を把握して起き上がりを検出している。
このように映像から人物の行動を推定する方法としてCHLAC特徴が知られている。これは、ある時刻に撮影された画像から人物の特徴を抽出し、その情報が時間の経過に伴いどのように変化していくかを観察し、その画像特徴の時系列変化と、予め蓄積した特定の動作に関する画像の特徴データとを比較し、その類似度を算出して行動を推定する方法であり、この技術を患者の起き上がり検出に適用した文献として例えば特許文献2がある。特許文献2では、画像フレーム間の輝度勾配差分を求めて動く物体の輪郭を把握して起き上がりを検出している。
病院や介護施設において、ベッドに伏している患者等の人物が観察対象である場合、ベッド位置は固定されているとは限らない。特に病院のベッドは移動可能な構造であり、必要な看護機器に応じて、配置が変更されたりする。
しかしながら、カメラの撮像映像から起き上がり動作を検知する上記特許文献2の技術は、ベッド位置或いはカメラ位置が変更されると、画像から得られる出力値が変化するために、動作の検出精度が低下した。例えば、カメラを患者の頭上に設置した映像とベッドサイドに設置した映像とでは、ベッドの見え方は45度以上の角度差として現れ、これが検出精度の低下の原因となった。
しかしながら、カメラの撮像映像から起き上がり動作を検知する上記特許文献2の技術は、ベッド位置或いはカメラ位置が変更されると、画像から得られる出力値が変化するために、動作の検出精度が低下した。例えば、カメラを患者の頭上に設置した映像とベッドサイドに設置した映像とでは、ベッドの見え方は45度以上の角度差として現れ、これが検出精度の低下の原因となった。
この見え方の変化を図5、図6を参照して説明する。図5はカメラ設置位置を示す説明図、図6は図5のそれぞれの位置のカメラの撮像映像の説明図である。図5において、A〜Gはカメラの位置、PはベッドQ上の患者を示している。図5に示すように、カメラを患者頭部近辺に設置した場合、カメラに映るベッドの見え方は図6の(a)〜(g)ようになる。尚、図中にはベッドの角度を明示するためにベッド長手方向の中心に対して直線を記載してある。
図6に示すように、ベッドの角度差が大きくなる事で、起き上がり動作の見え方も大きく変化し、この変化に起因して抽出される画像特徴も大きく異なる。例えば、図6(g)のようにベッドが垂直方向に撮影された画像では、起き上がり動作において上半身は直線運動を行う為、画像から輝度勾配を算出すると比較的画面の垂直方向に向きを持つ特徴が抽出される。しかし、図6(b)の場合、起き上がり動作における上半身の動きは、腰を中心として頭を端点とした回転運動を行う為、画像から輝度勾配を抽出すると斜め方向の画像特徴が最も多く抽出される。
図7は輝度勾配差分特徴を示し、図7(a)は図6(g)の動画像から算出した輝度勾配差分特徴、図7(b)は図6(b)の動画像から算出した輝度勾配差分特徴である。
この図7に示すように、同じ起き上がり動作でありながら、見え方の変化により異なる輝度勾配が算出されるため、この輝度勾配から算出される自己相関特徴は、異なる特徴ベクトルとして扱われる。つまり、画像水平方向に勾配を持つ物体の動作と画像垂直方向に勾配を持つ物体の動作は、移動方向が同じ場合でも異なる特徴量として区別される。
そして、抽出された特徴量はアダブーストにより特徴ベクトル毎の識別が行われるため、識別結果に大きな影響を与えた。
この図7に示すように、同じ起き上がり動作でありながら、見え方の変化により異なる輝度勾配が算出されるため、この輝度勾配から算出される自己相関特徴は、異なる特徴ベクトルとして扱われる。つまり、画像水平方向に勾配を持つ物体の動作と画像垂直方向に勾配を持つ物体の動作は、移動方向が同じ場合でも異なる特徴量として区別される。
そして、抽出された特徴量はアダブーストにより特徴ベクトル毎の識別が行われるため、識別結果に大きな影響を与えた。
そこで、本発明はこのような問題点に鑑み、画像の見え方が異なる場合でも同一の動作に対しては同一の動作として認識できる特定動作検出装置を提供することを目的としている。
上記課題を解決する為に、請求項1の発明は、観察対象を撮像するカメラと、カメラの撮像映像から人物の特定の動作を検出する特定動作検出手段と、検出結果を出力する結果出力部とを有する特定動作検出装置であって、特定動作検出手段は、カメラの撮像映像を連続する時系列の画像フレームで出力する画像生成部と、画像フレームに対して微小領域毎の輝度勾配を求める輝度勾配算出部と、求めた輝度勾配のフレーム間差分である輝度勾配差分を抽出する輝度勾配差分算出部と、抽出した輝度勾配差分から動き特徴を抽出するために、抽出した輝度勾配差分の時間変化を抽出し、抽出した時間変化のベクトルの畳み込みを実施して自己相関特徴ベクトルを算出する輝度勾配差分自己相関特徴算出部と、得られた自己相関特徴ベクトルに対して機械学習による識別処理を実施して特定動作との類似度を判定する判定部とを有することを特徴とする。
この構成によれば、観察対象を撮像するカメラの撮像角度が変わることで見え方が異なっても、特徴ベクトルの畳み込み効果によって、大まかな動作カテゴリに集約できるため、観察対象者の特定動作を継続して検出することが可能となる。
この構成によれば、観察対象を撮像するカメラの撮像角度が変わることで見え方が異なっても、特徴ベクトルの畳み込み効果によって、大まかな動作カテゴリに集約できるため、観察対象者の特定動作を継続して検出することが可能となる。
請求項2の発明は、請求項1に記載の構成において、抽出した輝度勾配差分の時間変化のベクトルの畳み込みは、次式で実施することを特徴とする。
ここで、anは変位ベクトル、kならびにknは勾配方向、Nは自己相関の次数、αは係数、G(・)はガウスカーネル、Cはマスクブロック数、pは畳み込みの次元数、lは畳み込まれた勾配方向である。
この構成によれば、抽出した輝度勾配差分の時間変化のベクトルを畳み込むことで、観察対象の見え方が変わっても特定動作の検出を良好に実施できる。
この構成によれば、抽出した輝度勾配差分の時間変化のベクトルを畳み込むことで、観察対象の見え方が変わっても特定動作の検出を良好に実施できる。
請求項3の発明は、請求項1又は2に記載の構成において、撮像手段が、ベッド上の人物を撮像するカメラであり、特定動作がベッド上での起き上がり動作する人物のデータを含む人物の動作データであり、判定部がカメラの撮像映像から人物の起き上がり動作を判定することを特徴とする。
この構成によれば、ベッドに伏す人物の見え方が変わっても、人物の起き上がり動作を検出でき、看護師等は見回りを行うことなく観察対象者の起き上がりを認識できる。
この構成によれば、ベッドに伏す人物の見え方が変わっても、人物の起き上がり動作を検出でき、看護師等は見回りを行うことなく観察対象者の起き上がりを認識できる。
本発明によれば、観察対象を撮像するカメラの撮像角度が変わることで見え方が異なっても、特徴ベクトルの畳み込み効果によって、大まかな動作カテゴリに集約できるため、観察対象者の特定動作を継続して検出できる。
以下、本発明を具体化した実施の形態を、図面を参照して詳細に説明する。図1は本発明に係る特定動作検出装置の一例を示すブロック図であり、1は観察対象を撮像するカメラ、2はカメラ1の撮像映像から人物の特定の動作を検出する特定動作検出部、3は特定動作検出部2の検出結果を出力する結果出力部である。
特定動作検出部2は、画像フレームを時系列に生成して出力する画像生成部21、画像データから輝度勾配を算出する輝度勾配算出部22、輝度勾配のフレーム間差分を抽出する輝度勾配差分算出部23、抽出した輝度勾配差分の時間変化を抽出し、抽出した時間変化のベクトルの畳み込みを実施して自己相関特徴ベクトルを算出する輝度勾配差分自己相関特徴算出部24、機械学習による識別処理を実施して類似度を判定する判定部25等を備えている。
特定動作検出部2は、画像フレームを時系列に生成して出力する画像生成部21、画像データから輝度勾配を算出する輝度勾配算出部22、輝度勾配のフレーム間差分を抽出する輝度勾配差分算出部23、抽出した輝度勾配差分の時間変化を抽出し、抽出した時間変化のベクトルの畳み込みを実施して自己相関特徴ベクトルを算出する輝度勾配差分自己相関特徴算出部24、機械学習による識別処理を実施して類似度を判定する判定部25等を備えている。
尚、特定動作検出部2は、所定のプログラムをインストールしたCPU或いはDSPで一体に構成できるし、結果出力部3を含めてパーソナルコンピュータで構成することも可能である。
次に、各部の具体的な動作を説明する。但し、ここではベッドに伏している患者等の人物が起き上がる動作を特定動作とし、起き上がりを検出したら通知する構成を説明する。
カメラ1は、観察対象のベッド全体を上方から撮像する。取り付け位置は限定しないが、患者の頭部が手前になるように撮像する角度が人物を認識し易く望ましい。
カメラ1は、観察対象のベッド全体を上方から撮像する。取り付け位置は限定しないが、患者の頭部が手前になるように撮像する角度が人物を認識し易く望ましい。
画像生成部21は、カメラ1が撮像した映像から画像フレームを生成して時系列の一定時間間隔(例えば、30fps)で出力する。
輝度勾配算出部22は、画像生成部21が生成した画像フレームを予め定義したパッチサイズにダウンサンプリングし、個々のピクセルの輝度から勾配強度m、勾配方向(角度方向)θを次式の数3,数4により算出する。
ここで、上記式におけるdx(x、y)及びdy(x、y)は輝度差であり、次式の数5で算出される。
ここで、I(x,y)は、(x,y)座標上の輝度である。
続いて、角度方向θをビン数Kの輝度勾配ヒストグラムhK(x、y)に畳み込む。輝度勾配ヒストグラムhK(x,y)は、S×Sピクセル領域内の全ての画素の角度情報θを集計して得られる。
輝度勾配ヒストグラムhKのビンのインデックスをkとすると、各ビンのスコアhk(x,y)は、次式の数6で表される。
続いて、角度方向θをビン数Kの輝度勾配ヒストグラムhK(x、y)に畳み込む。輝度勾配ヒストグラムhK(x,y)は、S×Sピクセル領域内の全ての画素の角度情報θを集計して得られる。
輝度勾配ヒストグラムhKのビンのインデックスをkとすると、各ビンのスコアhk(x,y)は、次式の数6で表される。
ここで、θ’(x,y)は、角度方向θ(x,y)をKビンに畳み込んだ値、δ[・]はクロネッカーのデルタを表し、仮にkとθ’(x,y)が等しければ1を返し、それ以外ならば0を返す。
輝度勾配差分算出部23は、複数の時系列画像フレームに対して隣接画像間の輝度勾配差分を算出し、輝度勾配の時間変化を抽出する。ここで、時刻tにおける輝度勾配強度ヒストグラムをhk(x,y,t)とおくと、輝度勾配ヒストグラム差分Sk(x,y)は、次式の数7により得られる。
尚、遅い動きや詳細な動きに対しては、フレーム間隔を大きくすることで耐性を持たせることができ、起き上がりを検出する場合は例えば2秒間隔で抽出した画像フレームに対して演算を実施すると良い。
輝度勾配差分自己相関特徴算出部24は、セルの座標位置、時刻の3次元ベクトルで構成されたマスクパターンに、輝度勾配方向の情報を加えた4次元空間上における勾配強度の自己相関を算出して輝度勾配自己相関特徴を算出する。具体的に、抽出した輝度勾配差分の時間変化を抽出して時間変化のベクトルの畳み込みを行い、自己相関特徴ベクトルを算出する。即ち、輝度勾配差分自己相関特徴を算出する。この結果、動き特徴が抽出される。
ここで、マスクパターンを図2を参照して説明する。図2は、輝度勾配差分自己相関特徴抽出の概念図を示し、セルの座標位置はXY平面で定義され、時系列情報はt軸で定義される。更に、輝度勾配方向は、セル毎のビン数により定義され、これらの4次元ベクトルを用いて任意の輝度勾配強度が表される。
マスクパターンは、図2に示すようにN×N×Nセルで定義されたマスクブロック内の3次元ベクトル(x,y,t)から得られるブロックの組合せで作成される。なお、図2に示すrは後述するセルの位置ベクトル、anは変位ベクトルである。
例として、次数2のマスクパターンを考える。次数とはCHLAC特徴の次数同様に着目する変位の数であり、次数2の場合は着目変位の数が基準点を除いて2点あることを示している。
マスクパターンは、図2に示すようにN×N×Nセルで定義されたマスクブロック内の3次元ベクトル(x,y,t)から得られるブロックの組合せで作成される。なお、図2に示すrは後述するセルの位置ベクトル、anは変位ベクトルである。
例として、次数2のマスクパターンを考える。次数とはCHLAC特徴の次数同様に着目する変位の数であり、次数2の場合は着目変位の数が基準点を除いて2点あることを示している。
CHLACでは着目する変位の位置(変位点)は、マスクブロック全てのセルに設定される可能性があるが、本発明の手法では変位点の位置は各フレームで1つに限定する。更に、基準点が設定されたフレームには変位点を設定しない。つまり、計算対象となるセルは常にフレームに1つだけ存在することになる。
図3は、こうした制約を設けた場合の次数2におけるマスクパターン組み合わせの概要を示し、基準フレームとその前後の連続するフレームの局所エリアを示している。図3に示すように、マスクパターンの組合せは、起点の置かれたフレーム(frame2)を除いた残りの前後2フレーム(直前のframe1及び直後のframe3)から各1点ずつを抽出することになり、それぞれのフレームの9セルを組み合わせてマスクパターンが作成される。つまり、次数2の場合、図3の組み合わせに示すように、マスクブロック内には81(=9×1×9)のマスクパターンが定義される。
こうして次数をNとした場合のマスクパターン数を示すと次式の数8のように表すことができる。但し、マスクパターンを構成するブロックサイズをH×Wとしている。
こうして次数をNとした場合のマスクパターン数を示すと次式の数8のように表すことができる。但し、マスクパターンを構成するブロックサイズをH×Wとしている。
入力画像全体で抽出される輝度勾配自己相関特徴の総数は、セル領域サイズに分解した画像に対して、マスクブロックを1セルずつずらして走査したマスクブロック数となる。
1画像にH×W個のセルが存在する場合、1画像あたり(W−N+1)×(H−N+1)個のマスクブロックが得られる。更に、角度方向を組み合わせて(W−N+1)×(H−N+1)×k個の特徴が得られる。ここで、セル位置(x,y)を位置ベクトルrとし、輝度勾配差分Sk(x,y)をf(r,k)と置くと、n次の自己相関特徴は数9により得られる。
1画像にH×W個のセルが存在する場合、1画像あたり(W−N+1)×(H−N+1)個のマスクブロックが得られる。更に、角度方向を組み合わせて(W−N+1)×(H−N+1)×k個の特徴が得られる。ここで、セル位置(x,y)を位置ベクトルrとし、輝度勾配差分Sk(x,y)をf(r,k)と置くと、n次の自己相関特徴は数9により得られる。
ただし、an(n=1〜N)は変位ベクトル、kならびにknは勾配方向、Nは自己相関の次数、αは係数、G(・)はガウスカーネル、そしてCはマスクブロック数である。更に、pは畳み込みの次元数、lは畳み込まれた勾配方向を表し、例えば4方向の勾配を2方向に畳み込む場合、pは2となる。
ガウスカーネルを用いることで、隣接する勾配方向の強度のみが重み付けされ、角度方向の異なる勾配で構成されるマスクパターンの影響が低減される。更に、畳み込み処理により、見え方の異なる同一動作を大まかな動作カテゴリに集約できる。
ガウスカーネルを用いることで、隣接する勾配方向の強度のみが重み付けされ、角度方向の異なる勾配で構成されるマスクパターンの影響が低減される。更に、畳み込み処理により、見え方の異なる同一動作を大まかな動作カテゴリに集約できる。
図4は時系列を出力される画像フレームから特徴量(輝度勾配の特徴量)算出までの概念図であり、患者の起き上がり動作の検出を具体的に示している。図4(a)は画像生成部21が生成した時系列画像フレーム、図4(b)は個々の画像の輝度勾配ヒストグラム、図4(c)は輝度勾配の画像フレーム間差分を抽出した図、図4(d)は算出した輝度勾配差分自己相関特徴を示している。
上述したように、自己相関特徴ベクトルを算出する際に畳み込み処理が実施される。図8は、畳み込まれる特徴ベクトルの一例をマスクパターンの形状で示し、上記図7に示す特徴抽出画像を基にした特徴ベクトルを示している。図8(a)は図7(a)の輝度勾配差分特徴から算出された特徴ベクトル、図8(b)は図7(b)の輝度勾配差分特徴から算出された特徴ベクトルである。
微小時間での画素変化を考えた場合に、図7(a)のように垂直方向に勾配を多く含む物体から得られる輝度勾配の特徴は図8(a)の特徴を示し、図7(b)のように同じ物体の動作を側面からとらえた際の傾斜角を持つ輝度勾配の特徴は図8(b)の特徴を示すが、畳み込み処理はこの二つの特徴量を同一のベクトルとして扱うため、二次元画像の平面的な制約上、同じ動作でありながら見え方の違いで分離された情報であっても、同じ動作の情報として統合される。
微小時間での画素変化を考えた場合に、図7(a)のように垂直方向に勾配を多く含む物体から得られる輝度勾配の特徴は図8(a)の特徴を示し、図7(b)のように同じ物体の動作を側面からとらえた際の傾斜角を持つ輝度勾配の特徴は図8(b)の特徴を示すが、畳み込み処理はこの二つの特徴量を同一のベクトルとして扱うため、二次元画像の平面的な制約上、同じ動作でありながら見え方の違いで分離された情報であっても、同じ動作の情報として統合される。
ここで、畳み込み処理の有無による輝度勾配自己相関特徴の次元数の変化の一例を示す。図9は畳み込み処理を行った図7(a),(b)に対する輝度勾配自己相関特徴の次元数の出力値を示し、図10は畳み込みを実施しない従来手法による図7(a),(b)に対する輝度勾配自己相関特徴の次元数の出力値を示している。B1は図7(a)の出力値、B2は図7(b)の出力値である。
図9に示すように、図7(a)と図7(b)とで異なる輝度勾配であっても、畳み込み処理を実施することで、次元数が削減されて1つの動作は同一ベクトルとして扱われる。例えば、畳み込むことで出力次元数が324次元から81次元に削減される。
一方、図10に示すように、畳み込みを実施しない輝度勾配自己相関特徴は次元数は削減されず、図7(a)と図7(b)の特徴量は異なるベクトルとして扱われる。即ち、同じ撮像対象の動きでも、見え方が異なると異なる動作として認識されてしまう。
図9に示すように、図7(a)と図7(b)とで異なる輝度勾配であっても、畳み込み処理を実施することで、次元数が削減されて1つの動作は同一ベクトルとして扱われる。例えば、畳み込むことで出力次元数が324次元から81次元に削減される。
一方、図10に示すように、畳み込みを実施しない輝度勾配自己相関特徴は次元数は削減されず、図7(a)と図7(b)の特徴量は異なるベクトルとして扱われる。即ち、同じ撮像対象の動きでも、見え方が異なると異なる動作として認識されてしまう。
判定部25は、人物と背景によってクラス分けされた学習サンプルと算出された特徴量を用いて学習された強識別器によって構成される周知のアダブーストによるカスケード型識別器を用いて類似度を判定し、特定の動作を検出する。ここでは、起き上がり動作とそれ以外の動作、例えば歩行、座る等によってクラス分けされた学習サンプルと特徴量を用いて学習された強識別器によって構成されるアダブーストによるカスケード型識別器を用いて起き上がり動作を検出し、起き上がり動作であると判定したら起き上がり検知信号を結果出力部3へ出力する。
結果出力部3は、警報等を発報する報音部、検出した映像を表示する表示部、外部に通報する通報部等を備え、判定部25が出力する起き上がり検知信号を受けて報音通知し、合わせてカメラ1の撮像映像を表示する。
このように、ベッドに伏す人物の見え方が変わっても、人物の起き上がり動作を引き続き検出でき、看護師等は個々の患者を見回ることなく観察対象者の起き上がり動作が発生したらそれを認識でき、速やかな対応が可能となる。
そして、抽出した輝度勾配差分の時間変化のベクトルを畳み込むことで、観察対象である患者の見え方が変わっても特定動作の検出を良好に実施できる。
そして、抽出した輝度勾配差分の時間変化のベクトルを畳み込むことで、観察対象である患者の見え方が変わっても特定動作の検出を良好に実施できる。
上記実施形態は、ベッドに伏している人物が起き上がる動作を検出する流れを説明したが、本発明の特定動作検出装置は、検出する動作を限定するものではない。判定部25において、比較する学習サンプルの内容に応じて特定動作を幅広く変更でき、起き上がりの延長線上で考えれば、起き上がり動作は反応せずにベッドから離れようとする動作を検出して通知するよう動作させても良いし、他にも転倒やしゃがみ込み動作を検出することも可能であり、観察対象を撮像するカメラ1の撮像角度が変わることで見え方が異なっても、特徴ベクトルの畳み込み効果によって大まかな動作カテゴリに集約できるため、特定動作の検出を継続して実施することが可能となる。
また、学習サンプルとして窓を覗き込む動作を蓄積すれば、防犯設備等に組み込んで不審者を検出することも可能である。
また、学習サンプルとして窓を覗き込む動作を蓄積すれば、防犯設備等に組み込んで不審者を検出することも可能である。
1・・カメラ、2・・特定動作検出部(特定動作検出手段)、3・・結果出力部、21・・画像生成部、22・・輝度勾配算出部、23・・輝度勾配差分算出部、24・・輝度勾配差分自己相関特徴算出部、25・・判定部。
Claims (3)
- 観察対象を撮像するカメラと、カメラの撮像映像から人物の特定の動作を検出する特定動作検出手段と、検出結果を出力する結果出力部とを有する特定動作検出装置であって、
前記特定動作検出手段は、前記カメラの撮像映像を連続する時系列の画像フレームで出力する画像生成部と、
前記画像フレームに対して微小領域毎の輝度勾配を求める輝度勾配算出部と、
求めた前記輝度勾配のフレーム間差分である輝度勾配差分を抽出する輝度勾配差分算出部と、
抽出した前記輝度勾配差分から動き特徴を抽出するために、抽出した前記輝度勾配差分の時間変化を抽出し、抽出した時間変化のベクトルの畳み込みを実施して自己相関特徴ベクトルを算出する輝度勾配差分自己相関特徴算出部と、
得られた自己相関特徴ベクトルに対して機械学習による識別処理を実施して特定動作との類似度を判定する判定部とを有することを特徴とする特定動作検出装置。 - 前記撮像手段が、ベッド上の人物を撮像するカメラであり、前記特定動作がベッド上での起き上がり動作する人物のデータを含む人物の動作データであり、前記判定部が前記カメラの撮像映像から人物の起き上がり動作を判定することを特徴とする請求項1又は2記載の特定動作検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015015845A JP2016143071A (ja) | 2015-01-29 | 2015-01-29 | 特定動作検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015015845A JP2016143071A (ja) | 2015-01-29 | 2015-01-29 | 特定動作検出装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016143071A true JP2016143071A (ja) | 2016-08-08 |
Family
ID=56570436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015015845A Pending JP2016143071A (ja) | 2015-01-29 | 2015-01-29 | 特定動作検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016143071A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109063630A (zh) * | 2018-07-27 | 2018-12-21 | 北京以萨技术股份有限公司 | 一种基于可分离卷积技术和帧差补偿策略的快速车辆检测方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014229266A (ja) * | 2013-05-27 | 2014-12-08 | アイホン株式会社 | 特定動作検出装置 |
-
2015
- 2015-01-29 JP JP2015015845A patent/JP2016143071A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014229266A (ja) * | 2013-05-27 | 2014-12-08 | アイホン株式会社 | 特定動作検出装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109063630A (zh) * | 2018-07-27 | 2018-12-21 | 北京以萨技术股份有限公司 | 一种基于可分离卷积技术和帧差补偿策略的快速车辆检测方法 |
CN109063630B (zh) * | 2018-07-27 | 2022-04-26 | 以萨技术股份有限公司 | 一种基于可分离卷积技术和帧差补偿策略的快速车辆检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537112B (zh) | 图像处理装置、图像处理系统、图像处理方法及存储介质 | |
US11450114B2 (en) | Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects | |
US10872262B2 (en) | Information processing apparatus and information processing method for detecting position of object | |
US10810438B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
JP5227911B2 (ja) | 監視映像検索装置及び監視システム | |
US10445887B2 (en) | Tracking processing device and tracking processing system provided with same, and tracking processing method | |
JP6700752B2 (ja) | 位置検出装置、位置検出方法及びプログラム | |
JP6590609B2 (ja) | 画像解析装置及び画像解析方法 | |
JP2012108785A (ja) | 人数カウント装置、人数カウント方法及び人数カウントプログラム | |
WO2006028106A1 (ja) | 異常動作検出装置および異常動作検出方法 | |
JP2019185752A (ja) | 画像抽出装置 | |
JP2009027393A (ja) | 映像検索システムおよび人物検索方法 | |
Albawendi et al. | Video based fall detection using features of motion, shape and histogram | |
Gunale et al. | Fall detection using k-nearest neighbor classification for patient monitoring | |
Kasturi et al. | Human fall classification system for ceiling-mounted kinect depth images | |
JP7266599B2 (ja) | 患者の身体運動を検知するためのデバイス、システム及び方法 | |
JP6214424B2 (ja) | 特定動作検出装置 | |
JP6939065B2 (ja) | 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法 | |
JP6046559B2 (ja) | 特定動作検出装置 | |
JP2016143071A (ja) | 特定動作検出装置 | |
JP6214425B2 (ja) | 特定動作検出装置 | |
JP6543546B2 (ja) | 特定動作検出装置及び特定動作検出方法 | |
JP5864231B2 (ja) | 移動方向識別装置 | |
WO2020022362A1 (ja) | 動き検出装置、特性検出装置、流体検出装置、動き検出システム、動き検出方法、プログラム、および、記録媒体 | |
Mirmahboub et al. | View-invariant fall detection system based on silhouette area and orientation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180306 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181009 |