JP2022010581A - 検知装置、検知方法、画像処理方法、およびプログラム - Google Patents

検知装置、検知方法、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2022010581A
JP2022010581A JP2020111237A JP2020111237A JP2022010581A JP 2022010581 A JP2022010581 A JP 2022010581A JP 2020111237 A JP2020111237 A JP 2020111237A JP 2020111237 A JP2020111237 A JP 2020111237A JP 2022010581 A JP2022010581 A JP 2022010581A
Authority
JP
Japan
Prior art keywords
person
detection
height
event
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020111237A
Other languages
English (en)
Other versions
JP7530222B2 (ja
Inventor
祐生 鵜飼
Yuki Ukai
和隆 安達
Kazutaka Adachi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2020111237A priority Critical patent/JP7530222B2/ja
Publication of JP2022010581A publication Critical patent/JP2022010581A/ja
Application granted granted Critical
Publication of JP7530222B2 publication Critical patent/JP7530222B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2022010581000001
【課題】観察対象人物に関する検知対象事象をより的確に検知することが可能な技術を提供する。
【解決手段】検知装置は、観察対象人物における特定部位の3次元位置情報を取得し、当該特定部位の3次元位置情報に基づき観察対象人物に関する検知対象事象を検知する制御部を備える。詳細には、当該特定部位の3次元位置の変化に基づき、検知対象事象が検知される。たとえば、観察対象人物の「胸」の床面からの高さが50cm以上の値から50cm以下の値へと変化する、との条件が成立すると、検知対象事象「床での転倒」が検知される。また、当該特定部位の3次元位置の変化速度に基づき、検知対象事象が検知されてもよい。たとえば、観察対象人物の「胸」の移動速度が「1m/s以上」である、との条件もが成立すると、検知対象事象「床での転倒」が検知されてもよい。
【選択図】図21

Description

本発明は、観察対象人物に関する検知対象事象を検知する検知装置およびそれに関連する技術に関する。
観察対象人物(見守り対象者等)に関する検知対象事象(転倒等)を検知する技術が存在する。
たとえば、特許文献1においては、ステレオカメラによる人物の撮影画像を用いて3次元空間における当該人物の存在領域(3次元の人物領域)を抽出して、当該人物の姿勢を推定する技術が記載されている。
より詳細には、3次元の人物領域に外接する直方体の幅lx、高さlyおよび奥行きlzが算出され、これらの値に基づいて大まかな姿勢が判定される。
たとえば、アスペクト比lx/lyおよびlz/lyの少なくとも一方が0.4未満であるときには、人物の姿勢が「立位」であると判定される。一方、アスペクト比lx/lyおよびlz/lyの少なくとも一方が1.5より大きいときには、人物の姿勢が「臥位」であると判定される。また、それ以外の場合には、人物の姿勢が「座位」であると判定される。
さらに、これらの幅lx、高さlyおよび奥行きlzの時系列データに基づいて、事前に準備された複数のモデル(「前向きの転倒」、「しりもち」、「寝転び」および「座る」等)に対する尤度が算出される。そして、当該複数のモデルのうち最も高い尤度を有するモデルに対応する挙動が、観察者の挙動として決定される(特許文献1の段落0046)。
特開2008-146583号公報
上記特許文献1に記載の技術においては、3次元の人物領域に外接する直方体の幅lx、高さlyおよび奥行きlzが算出され、これらの値に基づいて人物の姿勢および挙動が判定されている。
しかしながら、各時点では、人物領域に外接する「直方体」の幅lx、高さlyおよび奥行きlzが人物の情報として求められているに過ぎず、このような大雑把な情報に基づいて挙動を判定すると、誤検知を生じる可能性が高い。
そこで、この発明は、観察対象人物に関する検知対象事象をより的確に検知することが可能な技術を提供することを課題とする。
上記課題を解決すべく、本発明に係る検知装置は、観察対象人物における特定部位の3次元位置情報を取得し、前記特定部位の3次元位置情報に基づき前記観察対象人物に関する検知対象事象を検知する制御部、を備え、前記制御部は、前記特定部位の3次元位置の変化に基づき、前記検知対象事象を検知することを特徴とする。
前記制御部は、前記特定部位の3次元位置の変化速度に基づき、前記検知対象事象を検知してもよい。
前記制御部は、前記特定部位の3次元位置が所定空間内の位置へと変化する際における前記特定部位の3次元位置の変化速度に基づいて、前記検知対象事象を検知してもよい。
前記制御部は、前記特定部位の3次元空間における高さの変化に基づき、前記検知対象事象を検知してもよい。
前記特定部位は、前記観察対象人物の上半身の予め定められた部位であってもよい。
前記特定部位は、前記観察対象人物の胸であってもよい。
前記制御部は、前記観察対象人物における複数の特定部位の3次元位置情報を取得し、前記複数の特定部位の3次元位置の相対的関係の変化に基づき、前記検知対象事象を検知してもよい。
前記制御部は、前記複数の特定部位の3次元空間における高さの相対的関係の変化に基づき、前記検知対象事象を検知してもよい。
前記制御部は、前記観察対象人物の胸の高さと腰の高さと足首の高さとの相対的関係の変化に基づき、前記検知対象事象を検知してもよい。
前記制御部は、前記観察対象人物の胸の高さと腰の高さと手首の高さとの相対的関係の変化に基づき、前記検知対象事象を検知してもよい。
前記制御部は、前記観察対象人物における複数の特定部位の3次元位置情報を取得し、前記複数の特定部位の3次元位置の相対的関係に基づき、前記検知対象事象を検知してもよい。
前記制御部は、前記複数の特定部位の3次元空間における高さの相対的関係に基づき、前記検知対象事象を検知してもよい。
前記制御部は、前記観察対象人物の胸の高さと右手首の高さと左手首の高さとの相対的関係に基づき、前記検知対象事象を検知してもよい。
前記制御部は、前記観察対象人物の存在エリアを判定し、前記存在エリアごとに異なる基準高さを設定し、前記存在エリアごとに設定された前記基準高さと前記特定部位の高さとの比較結果に基づき、前記検知対象事象を検知してもよい。
前記制御部は、前記存在エリアがベッド上であるか床上であるかに応じた異なる基準高さと前記観察対象人物の特定部位である胸の高さとの比較結果に基づき、前記検知対象事象を検知してもよい。
前記検知装置は、前記観察対象人物の撮影画像と前記撮影画像内の各画素の深度情報とを取得するセンサ部、をさらに備え、前記制御部は、前記撮影画像と前記深度情報とに基づいて前記特定部位の3次元位置情報を取得してもよい。
前記制御部は、前記観察対象人物の骨格情報を前記撮影画像に基づき取得するとともに、前記骨格情報に含まれる前記特定部位に関して前記特定部位までの距離情報を前記深度情報に基づき取得し、前記撮影画像と前記距離情報とに基づいて前記特定部位の3次元位置情報を取得してもよい。
上記課題を解決すべく、本発明に係るプログラムは、a)観察対象人物における特定部位の3次元位置情報を取得するステップと、b)前記特定部位の3次元位置情報に基づき前記観察対象人物に関する検知対象事象を検知するステップと、をコンピュータに実行させるためのプログラムであって、前記ステップb)においては、前記特定部位の3次元位置の変化に基づき、前記観察対象人物に関する検知対象事象が検知されることを特徴とする。
上記課題を解決すべく、本発明に係る検知方法は、観察対象人物に関する検知対象事象を検知する検知方法であって、a)観察対象人物における特定部位の3次元位置情報を取得するステップと、b)前記特定部位の3次元位置情報に基づき前記観察対象人物に関する検知対象事象を検知するステップと、を備え、前記ステップb)においては、前記特定部位の3次元位置の変化に基づき、前記観察対象人物に関する前記検知対象事象が検知されることを特徴とする。
上記課題を解決すべく、本発明に係る画像処理方法は、a)観察対象人物に関する撮影画像に基づき前記観察対象人物における特定部位の3次元位置情報を取得するステップと、b)前記特定部位の3次元位置情報に基づき前記観察対象人物に関する検知対象事象を検知するステップと、を備え、前記ステップb)においては、前記特定部位の3次元位置の変化に基づき、前記観察対象人物に関する前記検知対象事象が検知されることを特徴とする。
本発明によれば、検知対象事象をより的確に検知することが可能である。
検知システムの概略構成を示す図である。 検知装置(画像処理装置)の概略構成を示す機能ブロック図である。 管理装置の概略構成を示す機能ブロック図である。 携帯端末装置の概略構成を示す機能ブロック図である。 検知装置における処理の流れを示すフローチャートである。 人物の各特定部位に関する3次元位置情報の生成等を示す概念図である。 「ベッドからの起き上がり」を示す図である。 「端座位」を示す図である。 「離床」を示す図である。 「床での転倒」を示す図である。 「床での横たわり」を示す図である。 「ベッドからの全身ずり落ち」を示す図である。 「ベッドからの下半身ずり落ち」を示す図である。 「ベッドからの片手伸ばし」を示す図である。 表示対象の部屋を選択する選択画面を示す図である。 或る部屋の観察対象人物の観察画面を示す図である。 或る部屋の観察対象人物の観察画面を示す図である。 観察画像の生成処理等について説明する図である。 「ベッドからの片手ずり落ち」を示す図である。 「ベッド上での転倒」を示す図である。 「転倒」時の人物の姿勢の変化等を示す図である。 「ゆっくり寝そべる」際の人物の姿勢の変化等を示す図である。
以下、本発明の実施形態を図面に基づいて説明する。
<1.システム概要>
図1は、本発明に係る検知システム1を示す図である。図1に示すように、検知システム1は、複数の検知装置10と複数の端末装置70,80とを備える。端末装置70は、管理装置70とも称され、端末装置80は、携帯端末装置80とも称される。検知システム1は、観察対象人物(被介護者等)に関する検知対象事象(「転倒」等)を検知するシステムである。なお、検知装置および検知システムは、人物の挙動等を見守るものであることから、見守り装置および見守りシステムなどとも称される。
各検知装置10と各端末装置70,80とは、ネットワーク108を介して互いに接続される。ネットワーク108は、LAN(Local Area Network)およびインターネットなどによって構成される。また、ネットワーク108に対する接続態様は、有線接続であってもよく、或いは無線接続であってもよい。たとえば、管理装置70はネットワーク108に対して有線接続され、各検知装置10および各携帯端末装置80はネットワーク108に対して無線接続される。あるいは、全ての装置10,70,80がネットワーク108に対して無線接続されてもよい。
検知システム1においては、各検知装置10に関する各種の入出力処理(操作入力処理および表示処理等)等が管理装置70および携帯端末装置80を用いて行われる。すなわち、管理装置70および携帯端末装置80は、それぞれ、複数の検知装置10に関する端末装置として機能する。
以下では、介護施設において当該検知システム1が利用される態様について主に例示する。なお、これに限定されず、検知システム1は、看護施設(病院等)あるいは工場などで利用されてもよい。
各検知装置10は、各観察対象人物(ここでは被介護者)の居室90(たとえば、各被介護者の個室)ごとに配置される。各検知装置10は、観察対象人物に関する撮影画像等に基づき、当該観察対象人物に関する検知対象事象(「転倒」等)を検知する装置である。
各検知装置10は、カメラユニット20と処理ユニット30とを備える。カメラユニット20は、居室90の天井等に設置され、居室90内の様子を撮影することが可能である。処理ユニット30は、カメラユニット20によって撮影された画像(特に動画像)等に基づき、観察対象人物の複数の特定部位(胸、腰、肩、肘、手首、膝、足首等)の3次元位置(特にその時系列の情報)を取得することが可能である。なお、ここでは、カメラユニット20と処理ユニット30とが別々に設けられているが、これに限定されず、カメラユニット20と処理ユニット30とが一体化されて設けられてもよい。
カメラユニット20は、3次元カメラである。カメラユニット20は、深度情報付き撮影画像を取得する。具体的には、カメラユニット20は、被写体物体(人物、壁、床91、ベッド92、等)の撮影画像(赤外線画像等)110(図6参照)を撮像するとともに、撮影画像110内の各画素の深度情報(奥行き距離情報)120を取得する。撮影画像内の各画素の深度情報120は、撮影画像110内の各画素に対応する被写体物体(人物、壁、床、ベッド等)までの距離(カメラユニット20からの距離)の情報であって当該撮影画像110に垂直な方向における距離の情報である。換言すれば、当該深度情報は、撮影画像平面の法線方向における距離情報(奥行き距離情報)である。
たとえば、カメラユニット20はセンサ部23(図2)を備え、当該センサ部23は赤外線カメラ(赤外線画像センサ等)と赤外線プロジェクタとを備える。赤外線カメラは、被写体物体に関する撮影画像110(たとえば赤外線画像)を取得する。また、赤外線プロジェクタは、赤外線による所定のドットパターンを対象物体に向けて照射し、赤外線カメラは、対象物体に照射されたドットパターンを撮像した赤外線画像をも取得する。撮像されたドットパターンの幾何学的な形状が対象物体までの距離によって変化すること等を利用して、対象物体までの距離(奥行き距離情報)120が算出(取得)される。当該奥行き距離情報の算出処理は、カメラユニット20内に組み込まれたコントローラ21等によって実行される。コントローラ21は、コントローラ31(後述)等と同様のハードウエア構成を備える。なお、センサ部23において、可視光画像(カラー画像等)を撮像するRGB画像センサ等が設けられ、カラー画像が撮影されてもよい。
このようにして、カメラユニット20は、被写体人物の撮影画像(撮影画像情報)110(図6参照)と当該撮影画像内の各画素の深度情報(各画素に対応する物体までの距離の情報(奥行き距離情報))120とを取得する。
図6は、撮影画像110および深度情報120に基づいて被写体人物の各特定部位の3次元位置の情報が取得(算出)されることを示す概念図である。なお、図6では、撮影画像110および深度情報120等はそれぞれ模式的に示されている。たとえば、実際の撮影画像110においては人物は撮像されたままの状態で写っているのに対して、図6の撮影画像110においては人物は楕円を連結した図形で(簡略化して)表現されている。他の深度情報120においても同様である。また、実際の深度情報120は、各画素に対応する物体までの距離の情報を有しているのに対して、図6の深度情報120では、各画素に対応する物体までの距離が各画素の濃度に換算して表現されている。詳細には、距離の大小が濃度の大小(濃淡)で表現されている。
まず、処理ユニット30(特にコントローラ31)は、撮影画像110を解析し、被写体人物の骨格情報(骨格モデル情報)140(図6の左下部分参照)を取得する。当該骨格情報140は、被写体人物の複数の特定部位(詳細には、胸、鼻、肩、肘、手首、腰、膝、足首、目、耳等)(主に関節)と当該複数の特定部位を接続する骨格線(リンク)とを用いて、当該人物の骨格を(簡略化して)表現する情報である。図6の骨格情報140では、各特定部位は「点」で示され、各骨格線(接続線)は「線分」で示されている。撮影画像に基づく骨格情報140は、複数の特定部位(ここではB0~B17)に関する情報(各部位の画像内での平面位置情報等)を有している。
また、処理ユニット30は、被写体人物の骨格情報140に基づき、被写体人物の各特定部位(たとえば、それぞれの代表位置)の撮影画像110内での平面位置情報(カメラ座標系における撮影画像内の2次元位置情報)を取得する。
さらに、処理ユニット30は、各特定部位に対応する(撮影画像110内での)平面位置における1または複数の画素の深度情報120に基づき、カメラユニット20から当該各特定部位までの距離情報(カメラ座標系における奥行き位置情報)をも取得する。当該距離情報は、撮影画像平面の法線方向における奥行き情報である、とも表現される。
このようにして、処理ユニット30は、被写体人物の各特定部位の撮影画像内での平面位置に関する情報(撮影画像内2次元位置情報)と当該被写体人物における各特定部位までの距離情報(奥行き情報)とを取得する。
そして、処理ユニット30は、被写体人物の各特定部位の撮影画像内での平面位置に関する情報と当該各特定部位までの距離情報(奥行き情報)とに基づいて、各特定部位の3次元位置情報150(居室空間内での3次元位置情報)を座標変換等によって取得する。具体的には、処理ユニット30は、カメラ座標系Σ1での位置情報(撮影画像内での平面位置および撮影画像の法線方向における奥行き位置)を、居室に対して固定された座標系Σ2での3次元位置情報150へと変換する。カメラ座標系Σ1は、たとえば、撮影画像平面に平行な直交2軸と当該撮影画像平面に垂直な方向に伸びる1軸との直交3軸を基準とする3次元直交座標系である。また、変換後の座標系Σ2は、たとえば、水平平面に平行な直交2軸と鉛直方向(高さ方向)に伸びる1軸との直交3軸を基準とする3次元直交座標系である。
このようにして、処理ユニット30は、被写体人物の各特定部位の3次元位置の情報を取得(算出)する。ここでは撮影画像内の被写体人物は、原則として観察対象人物であると見做される。なお、カメラ視野内に複数の被写体人物が存在する場合には、全ての被写体人物が観察対象人物として特定されればよい。ただし、これに限定されず、身長等の情報を用いて(あるいは顔認識技術等を用いて)複数の被写体人物の中から所望の観察対象事物が特定されてもよい。
なお、ここでは、処理ユニット30のコントローラ31が骨格情報140および各特定部位の3次元位置情報150等を生成しているが、これに限定されない。
たとえば、カメラユニット20のコントローラ21が骨格情報140を生成してもよい。また、カメラユニット20のコントローラ21が、各特定部位の3次元位置情報150を生成してもよい。詳細には、コントローラ21が、被写体人物の各特定部位の撮影画像内での位置に関する情報と各特定部位までの距離情報(奥行き情報)とを取得し、各特定部位の3次元位置情報150を座標変換等によって取得してもよい。そして、処理ユニット30のコントローラ31は、各特定部位の3次元位置情報150をカメラユニット20から取得するようにしてもよい。あるいは、カメラユニット20および処理ユニット30の両コントローラ21,31が協働して、これらの各種の処理を実行してもよい。換言すれば、骨格情報140および3次元位置情報150は、両コントローラ21,31の双方または一方により生成され得る。
また、ここでは、ドットパターンの照射に基づき各画素の深度情報を取得するパターン照射方式による3次元カメラが例示されるが、これに限定されない。3次元カメラは、ステレオ視方式のカメラ、あるいは、TOF(Time of Flight)方式のカメラ等であってもよい。任意の方式の3次元カメラによって、観察対象人物に関する撮影画像と当該撮影画像内の被写体物体までの距離の情報である深度情報(各画素の深度情報等)とが取得されればよい。
また、検知装置10は、撮影画像等に関する画像処理を実行する装置であることから、画像処理装置であるとも表現される。また、検知システム1は、画像処理システムなどとも表現される。
<2.検知装置10>
図2は、検知装置10の概略構成を示す機能ブロック図である。
検知装置10は、図2の機能ブロック図に示すように、カメラユニット20と処理ユニット30とを備える。
上述のように、カメラユニット20は、赤外線カメラおよび赤外線プロジェクタ等を備える。
また、処理ユニット30は、コントローラ31と記憶部32と通信部34と操作部35とを備える。
コントローラ31は、処理ユニット30に内蔵され、検知装置10を制御する制御装置である。
コントローラ31は、CPU(Central Processing Unit)(マイクロプロセッサあるいはハードウエアプロセッサなどとも称される)等を備えるコンピュータシステムとして構成される。コントローラ31は、CPUにおいて、記憶部(ROMおよび/またはハードディスクなどの不揮発性記憶部)32内に格納されている所定のソフトウエアプログラム(以下、単にプログラムとも称する)を実行することによって、各種の処理を実現する。なお、当該プログラム(詳細にはプログラムモジュール群)は、USBメモリなどの可搬性の記録媒体に記録され、当該記録媒体から読み出されて検知装置10にインストールされるようにしてもよい。あるいは、当該プログラムは、通信ネットワーク等を経由してダウンロードされて検知装置10にインストールされるようにしてもよい。
コントローラ31は、観察対象人物に関する撮影画像情報をカメラユニット20から取得するとともに、当該観察対象人物(被写体人物)の各特定部位に関して当該各特定部位までの距離情報(奥行き情報)をカメラユニット20から取得する。そして、コントローラ31は、撮影画像情報(特に撮影画像内における被写体の各特定部位の平面位置情報)と距離情報(被写体の奥行き情報)とに基づいて、各特定部位の3次元位置情報を取得する。
また、コントローラ31は、各特定部位の3次元位置情報に基づいて「検知対象事象」(後述)を検知する。
また、コントローラ31は、観察対象人物に関するモニタリング用画面等を端末装置70,80にて表示する処理を制御する。詳細には、コントローラ31は、後述するような観察画像330(図18)の画像データ等を生成し、当該画像データ等を端末装置70,80に送信する。これに応じて、端末装置70,80にて画像データ等に基づく観察画像330が表示される。
記憶部32は、ハードディスクドライブ(HDD)あるいはソリッドステートドライブ(SSD)等の記憶装置で構成される。記憶部32は、観察対象人物に関する複数の特定部位の3次元位置の時系列データ等を格納(記憶)する。
通信部34は、ネットワーク108を介したネットワーク通信を行うことが可能である。このネットワーク通信では、たとえば、TCP/IP(Transmission Control Protocol / Internet Protocol)等の各種のプロトコルが利用される。当該ネットワーク通信を利用することによって、検知装置10は、所望の相手先(たとえば、端末装置70,80)との間で各種のデータを授受することが可能である。
操作部35は、検知装置10に対する操作入力を受け付ける操作入力部35aと、各種情報の表示出力を行う表示部35bとを備えている。なお、本システム1においては、検知装置10に関する入出力機能(操作入力の受付機能および出力機能(表示機能等))を主に端末装置70,80が発揮する。それ故、操作部35は、メンテナンス時等においてのみ処理ユニット30に装着されるタイプのものであってもよい。
<3.端末装置70,80>
つぎに、端末装置70,80の構成について説明する。
端末装置70,80のうち、管理装置70は、検知システム1全体の管理を行う装置であり、主に管理者によって操作される。一方、携帯端末装置80は、検知システム1における各種の情報を表示する表示装置等として機能する。携帯端末装置80は、被介護者を介護する人物(介護者)によって携帯され、被介護者等に関する各種の情報を表示する。また、管理装置70は、検知システム1における各種の情報を表示する表示装置としても機能する。
端末装置70,80は、他の装置(10等)との間でのネットワーク通信が可能な情報入出力端末装置(情報処理装置)である。端末装置70,80は、スマートフォン、タブレット型端末、あるいはパーソナルコンピュータ(固定式(据置型)あるいは携帯式の何れでもよい)などとして構成される。たとえば、端末装置70は固定式のパーソナルコンピュータであり、端末装置80は、携帯式の装置(携帯端末装置)、より詳細には、スマートフォンである。
まず、管理装置70について説明する。
図3は、管理装置70の概略構成を示す機能ブロック図である。
管理装置70は、図3の機能ブロック図に示すように、コントローラ71、記憶部72、通信部74、操作部75等を備えており、これらの各部を複合的に動作させることによって、各種の機能を実現する。
コントローラ(制御部)71は、管理装置70を制御する制御装置である。
コントローラ71は、コントローラ31と同様のハードウエア構成を有している。また、コントローラ71は、CPUにおいて、記憶部(ROMおよび/またはハードディスクなどの不揮発性記憶部)72内に格納されている所定のソフトウエアプログラムを実行することによって、各種の処理を実現する。なお、当該プログラム(詳細にはプログラムモジュール群)は、USBメモリなどの可搬性の記録媒体に記録され、当該記録媒体から読み出されて管理装置70にインストールされるようにしてもよい。あるいは、当該プログラムは、通信ネットワーク等を経由してダウンロードされて管理装置70にインストールされるようにしてもよい。
コントローラ71は、当該プログラムを実行し、次のような各種の処理を実行する。
コントローラ71は、操作部75と協働して、各種の設定操作等を受け付ける。また、コントローラ71は、当該設定操作による設定内容を検知装置10に送信して、各種のパラメータ等を設定する設定処理を検知装置10に実行させる。
また、コントローラ71は、検知装置10から送信されてくる表示用の画像情報(観察画像330(図16および図17参照)(後述)等)に基づき、観察対象人物に関する情報(骨格画像325(後述)等)を表示部75bに表示させる。
記憶部72は、記憶部32と同様のハードウエア構成を有している。記憶部72(特に不揮発性記憶部)は、管理装置70による設定内容を記憶する。なお、記憶部72は、検知装置10で取得され検知装置10から転送される3次元位置情報等(観察対象人物に関する複数の特定部位の3次元位置の時系列データ等)を格納(記憶)してもよい。
通信部74は、通信部34と同様のハードウエア構成を有している。通信部74によるネットワーク通信を利用することによって、管理装置70は、所望の相手先(たとえば、各装置10,80)との間で各種のデータを授受することが可能である。
操作部75は、管理装置70に対する操作入力を受け付ける操作入力部75aと、各種情報の表示出力を行う表示部75bとを備えている。操作入力部75aとしてはマウス、キーボード等が用いられ、表示部75bとしてはディスプレイ(液晶ディスプレイ等)が用いられる。
次に、携帯端末装置80について説明する。
図4は、携帯端末装置80の概略構成を示す機能ブロック図である。
携帯端末装置80は、図4の機能ブロック図に示すように、コントローラ81、記憶部82、通信部84、操作部85等を備えており、これらの各部を複合的に動作させることによって、各種の機能を実現する。
コントローラ81、記憶部82、通信部84、操作部85は、コントローラ71、記憶部72、通信部74、操作部75とそれぞれ同様のハードウエア構成を有している。
コントローラ(制御部)81は、携帯端末装置80を制御する制御装置(コントローラとも称する)である。
コントローラ81は、CPUにおいて、記憶部(ROMおよび/またはハードディスクなどの不揮発性記憶部)82内に格納されている所定のソフトウエアプログラムを実行することによって、各種の処理を実現する。なお、当該プログラム(詳細にはプログラムモジュール群)は、USBメモリなどの可搬性の記録媒体に記録され、当該記録媒体から読み出されて携帯端末装置80にインストールされるようにしてもよい。あるいは、当該プログラムは、通信ネットワーク等を経由してダウンロードされて携帯端末装置80にインストールされるようにしてもよい。
コントローラ81は、当該プログラムを実行し、次のような各種の処理を実行する。
たとえば、コントローラ81は、検知装置10から送信されてくる表示用の画像情報(観察画像330(図16および図17参照)(後述)等)に基づき、観察対象人物に関する情報(骨格画像325(後述)等)を表示部85bに表示させる。
携帯端末装置80は、通信部84によるネットワーク通信を利用することによって、所望の相手先(たとえば、各装置10,70)との間で各種のデータを授受することが可能である。
なお、携帯端末装置80においては、タッチパネル87(図1参照)が設けられている。タッチパネル87は、液晶表示パネルに各種センサ等が埋め込まれて構成され、各種情報を表示するとともに操作者(ユーザ)からの各種の操作入力を受け付けることが可能である。当該タッチパネル87は、操作入力部85aの一部としても機能するとともに、表示部85bの一部としても機能する。
<4.検知対象事象>
次に、検知対象事象について説明する。
検知システム1においては、観察対象人物に関する各種の検知対象事象を検知することが可能である。「検知対象事象」は、観察対象人物に関して検知されるべき事象(検知処理の対象となる事象)である。具体的には、「検知対象事象」は、人物の状態と人物の動作との少なくとも一方を含む。
「検知対象事象」としては、たとえば、「ベッドからの起き上がり」、「端座位」、「離床」、「床での転倒」、「床での横たわり」、「ベッドからの全身ずり落ち」、「ベッドからの下半身ずり落ち」、「ベッドからの片手伸ばし」、が例示される。図7~図14は、これらの検知対象事象(事象E1~E8)をそれぞれ示す図である。
事象E1「ベッドからの起き上がり」(図7参照)は、(臥位を有していた)観察対象人物の上半身がベッド上にて起き上がる動作である。当該事象E1は、たとえば、ベッドエリアR1(ベッドが配置されている平面領域)内において観察対象人物の胸の高さ(ベッド上面からの胸の高さ)が30cm以上高くなる、旨の条件が充足されると検出される。
事象E2「端座位」(図8参照)は、ベッド端において観察対象人物が座っている(座位を有している)状態である。「端座位」は、ベッドエリアR1と隣接エリアとの境界付近で生じる事象「境界位」のひとつである。「端座位」は、たとえば、ベッドエリアR1からベッドサイドエリアR2へと観察対象人物の下半身の末端側の部位(足首等)が移動し且つ観察対象人物の他の幾つかの部位(腰等)がベッドエリアR1に残っている旨の条件が充足されると、検出される。なお、「端座位」は、観察対象人物の両足首がベッドエリアR1からベッドサイドエリアR2へと移動する動作と、観察対象人物の腰がベッドエリアR1内に存在する状態との複合事象である、とも表現される。
事象E3「離床」(図9参照)は、観察対象人物がベッドから離れてベッド以外の場所へ移動する動作である。「離床」は、たとえば、ベッドエリアR1からベッドサイドエリアR2へと観察対象人物の全身(全ての特定部位)が移動した旨の条件が充足されると、検出される。
事象E4「床での転倒」(図10参照)は、観察対象人物が床上で転倒する動作である。「床での転倒」は、たとえば、ベッドエリアR1以外の平面エリアにおいて観察対象人物の特定部位(胸等)が所定速度(1m/s等)以上で床面上の所定高さ(50cm等)以下(の空間)に入る、旨の条件が充足されると、検出される。
なお、事象E1,E2,E3,E4は、この順序で発生することがある。これらの事象E1~E4のうち最も危険な事象E4の発生を防ぐためには、当該事象E4よりも前に発生する事象E1,E2,E3がそれぞれ(順次に)検知されることが好ましい。各事象E1,E2,E3が検知され介護者等に報知されることによって、危険な事象E4の発生を未然に防ぐことが可能である。
事象E5「床での横たわり」(図11参照)は、観察対象人物が床上で所定期間以上に亘って横たわっている(臥位を有している)状態である。「床での横たわり」は、たとえば、ベッドエリアR1の範囲外において上半身の特定部位(鼻および胸等)が床面から所定高さ(たとえば50cm)以下の空間に所定時間(たとえば5秒)以上留まる、旨の条件が充足されると、検出される。
事象E6「ベッドからの全身ずり落ち」(図12参照)は、観察対象人物の全身がベッド上からベッドサイドへとずり落ちる動作である。「ベッドからの全身ずり落ち」は、次のような条件が充足されると、検出される。当該条件は、たとえば、ベッドエリアR1からベッドサイドエリアR2へと所定速度(たとえば1m/s)以上で主要な複数の部位(上半身の胸、および下半身の腰等)の位置が所定高さ(たとえば50cm)以下の空間に移動することである。
事象E7「ベッドからの下半身ずり落ち」(図13参照)は、観察対象人物の下半身がベッド上からベッドサイドへとずり落ちる動作である。「ベッドからの下半身ずり落ち」は、次のような条件が充足されると、検出される。当該条件は、たとえば、ベッドエリアR1からベッドサイドエリアR2へと所定速度(たとえば1m/s)以上で観察対象人物の下半身の末端側の部位(腰等)の位置が所定高さ(たとえば50cm)以下の空間に移動することである。
事象E8「ベッドからの片手伸ばし」(図14参照)は、観察対象人物の片手がベッドサイドへと伸びている状態である。「ベッドからの片手伸ばし」は、ベッドエリアと他エリアとの境界付近で生じる事象「境界位」のひとつである。
「ベッドからの片手伸ばし」は、たとえば、観察対象人物の片手の部位(手首)がベッドエリアR1からベッドサイドエリアR2へと移動し且つ観察対象人物の腰等がベッドエリアR1に残っている旨の条件が充足されると、検出される。なお、「ベッドからの片手伸ばし」は、観察対象人物の片方の手首がベッドエリアR1からベッドサイドエリアR2へと移動する動作と、観察対象人物の腰がベッドエリアR1内に存在する状態との複合事象である、とも表現される。
事象E8は、危険な事象E5~E7の発生を導きかねない事象であり、これらの事象E5~E7の発生よりも前に検知されることが好ましい。事象E8が検知され介護者等に報知されることによって、危険な事象E5~E7の発生を未然に防ぐことが可能である。
<5.処理の流れ>
図5は、検知装置10(特に処理ユニット30)における処理の流れを示すフローチャートである。図5を参照しつつ検知システム1での処理について説明する。
観察処理(検知処理等)の開始指示がユーザによって付与されると、検知装置10は、図5に示されるように、ステップS11~S15の処理(検知処理等)を微少時間(たとえば、数十ミリ秒~数百ミリ秒)ごとに繰り返し実行する。具体的には、観察対象人物に関する検知対象事象を検知する検知処理等が実行される。換言すれば、観察対象人物の複数の特定部位に関する時系列の3次元位置の情報等に基づいて、検知対象事象が検知される。
ステップS11において、検知装置10は、観察対象人物に関する深度情報付き撮影画像(110,120)等に基づき、観察対象人物の骨格情報140と観察対象人物の複数の特定部位の3次元位置情報150とを取得する。
たとえば、上述のように、検知装置10は、カメラユニット20によって取得された深度情報付き撮影画像(特に、観察対象人物に関する撮影画像)(110,120)等に基づいて、観察対象人物の骨格情報140を取得する。また、検知装置10は、観察対象人物の各特定部位の撮影画像内での平面位置情報(2次元位置に関する情報)と当該観察対象人物における各特定部位までの距離情報(奥行き情報)とを取得する。そして、検知装置10は、これらの情報に基づいて、各特定部位の3次元位置情報150(居室空間内での3次元位置情報)を座標変換等によって取得する。
ステップS12において、検知装置10は、モニタリング表示用の画像(観察画像とも称する)を生成する。具体的には、検知装置10は、観察対象人物の撮影画像110から観察対象人物の骨格画像325(図18参照)(後述)を生成するとともに、当該骨格画像325に基づいて観察対象人物に関する観察画像330を生成する。当該観察画像330は、観察対象人物自体の撮影画像を有さず且つ観察対象人物の骨格画像を有する画像である。
そして、検知装置10は当該観察画像330に関する画像データを端末装置70,80(詳細には、モニタリング表示要求(後述)を検知装置10に送出した装置)に送信し、当該観察画像330を当該端末装置70等の表示部に表示させる(ステップS12)。これによれば、観察対象人物の撮影画像自体がそのままモニタリング表示されるのではなく、観察対象人物の観察画像330がモニタリング表示される。したがって、観察対象人物のプライバシーに十分に配慮した表示を実現することが可能である。
また、ステップS12においては、時系列の観察画像330がログ画像(記録用画像)として記憶部32内に記憶される。
ステップS13においては、検知装置10は、観察対象人物の複数の特定部位の3次元位置情報に基づき、複数の検知対象事象(たとえば、事象E1~E8)の検知処理をそれぞれ実行する。
ステップS14においては、いずれかの検知対象事象が検知されたか否かが判定される。
いずれの検知対象事象も検知されない場合には、ステップS11に戻る。
一方、いずれかの検知対象事象が検知された場合には、ステップS15に進む。ステップS15では、検知結果に応じた処理(発報処理等)が行われる。たとえば、事象E4「床での転倒」が検知されると、「警告」が端末装置70,80等に対して発報される。たとえば、各端末装置70,80にて警告音が出力されるとともに、その表示部75b,85bにて「101号室で転倒!」などの文字を含む警告画面が表示される。これにより、介護者等は、事象E4「床での転倒」の発生を知得することが可能である。
<6.検知処理>
つぎに、ステップS13での検知処理について詳細に説明する。検知処理は、各種の検知条件に基づいて実行される。当該検知条件は、たとえば、観察対象人物における特定部位の3次元位置(平面位置および/または高さ)の変化等を含む。なお、部屋内(詳細には、その検知可能空間内)の平面位置(詳細には、その一部または全部)は、ユーザの設定操作(あるいは自動処理)等によって、複数のエリア(平面エリア)R1,R2,...に予め区分されている。観察対象人物の各特定部位の3次元位置のうち平面位置に関する条件は、当該各特定部位の存在エリアに応じて判定される。
<6-1.特定部位の3次元位置の変化に基づく検知>
検知装置10(コントローラ31)は、観察対象人物における特定部位の3次元位置の変化に基づき、観察対象人物に関する検知対象事象を検知する。
たとえば、ベッドエリアR1内において観察対象人物の特定部位「胸」(部位B1(図6参照))の高さが就寝中の人物の胸の現在位置(現在の高さ)から30cm以上増大すると、検知対象事象E1(図7参照)が検知される。上述のように、事象E1は、観察対象人物の上半身がベッド上にて起き上がる動作(「起き上がり(ベッド上)」)である。
また、たとえば、ベッドエリアR1外において観察対象人物の「胸」(部位B1)の床面からの高さが50cm以上の値から50cm以下の値へと変化する、との条件が成立すると、検知対象事象E4「床での転倒」(図10参照)が検知される。換言すれば、特定部位B1の3次元位置が所定空間(床面からの高さが50cm以下の空間)へと移動するとの条件に基づいて、検知対象事象E4が検知される。
このように、観察対象人物の特定部位「胸」の3次元位置(詳細には「高さ」のみ)の変化に基づき、観察対象人物に関する検知対象事象E1が検知される。
また、たとえば、観察対象人物の「足首」(部位B10および/または部位B13)がベッドエリアR1からベッドサイドエリアR2へと移動する等の条件が成立すると、検知対象事象E2「端座位」(図8参照)が検知される。
このように、観察対象人物の特定部位「足首」の3次元位置(詳細には「平面位置」のみ)の変化に基づき、観察対象人物に関する検知対象事象E2が検知される。
また、たとえば、観察対象人物の全身(全ての特定部位B0~B17)がベッドエリアR1から別のエリア(ベッドエリアR1から離れたエリア)へと移動する、との条件が成立すると、検知対象事象E3「離床」(図9参照)が検知される。
また、たとえば、観察対象人物の両手首のうちの一方(部位B4あるいは部位B7)のみがベッドエリアR1からベッドサイドエリアR2へと移動することを条件に検知対象事象E8「ベッドからの片手伸ばし」(図14参照)が検知される。
このように、観察対象人物の特定部位の3次元位置(詳細には「平面位置」のみ)の変化に基づき、観察対象人物に関する検知対象事象E3が検知される。
また、観察対象人物の特定部位の3次元位置のうち「平面位置」と「高さ」との双方の変化に基づき観察対象人物に関する検知対象事象E3が検知されてもよい。
たとえば、検知対象事象E6「ベッドからの全身ずり落ち」(図12参照)は、次のような条件の成立に応じて検知される。当該条件は、たとえば、観察対象人物の鼻B0および腰B8(あるいはB11)がベッドエリアR1からベッドサイドエリアR2へと移動し且つ床面上の所定高さ(50cm)以下の空間へと(他の空間から)移動すること(条件C16とも称する)である。
また、たとえば、検知対象事象E7「ベッドからの下半身ずり落ち」(図13参照)は、次のような条件の成立に応じて検知される。当該条件は、たとえば、観察対象人物の右腰B8および左腰B11がベッドエリアR1からベッドサイドエリアR2へと移動し且つ床面上の所定高さ(50cm)以下の空間に移動すること(条件C17とも称する)である。
このように、観察対象人物の特定部位の3次元位置(「平面位置」と「高さ」との双方)の変化に基づき観察対象人物に関する各検知対象事象E6,E7が検知されてもよい。
以上のように、観察対象人物の特定部位に着目し、当該特定部位の3次元位置の変化に基づき検知対象事象(E1~E3等)が検知されるので、誤検知を抑制し、検知対象事象をより的確に検知することが可能である。特に、人物領域に外接する「直方体」の幅lx、高さlyおよび奥行きlzを用いて人物の大まかな情報に基づいて人物の挙動を判定する場合(課題欄参照)に比べて、誤検知を抑制することが可能である。
また特に、各特定部位の3次元位置の変化に特徴を有する検知対象事象の検知に有用である。
詳細には、検知対象事象E6,E7(「ずり落ち」)が経時的要素にも基づいて検知されることによれば、或る時点での状態のみで検知対象事象を検知する場合に比べて、より的確に検知対象事象を検知することが可能である。
たとえば、或る時点での状態のみで検知対象事象を検知する場合には、検知対象事象E5「床での横たわり」(図11参照)と検知対象事象E6,E7とを区別することが困難である。これに対して、観察対象人物の特定部位の3次元位置の変化に基づき検知対象事象E6,E7が検知されることによれば、より的確に検知対象事象を検知することが可能である。
また特に、観察対象人物の特定部位の3次元空間における「高さ」の変化が考慮されることによれば、観察対象人物の姿勢の特徴的な変化を把握し易い。したがって、より的確に検知対象事象(E1,E4,E6,E7等)を検知することが可能である。
また、上半身の部位に関する3次元位置(高さ等)の大きな変化を伴う検知対象事象(E1,E4,E6等)に関しては、当該観察対象人物の上半身の予め定められた部位(「胸」等)の3次元位置の変化に基づき検知対象事象が検知されることが好ましい。これによれば、検知対象事象をより的確に検知することが可能である。
また、人物の「胸」の位置は、本来的には人体の中で安定した位置であるので、人物の状態および動作を安定して認識することが可能である。逆に言えば、安定した位置の変動を検知することによって、姿勢の変動等を伴う動作(非日常の動作等)を適切に検出することが可能である。
また特に、移動の向きに関する条件に基づいて検知対象事象が検知されることによれば、検知対象事象と逆向きの移動とを良好に区別することが可能である。
たとえば、検知対象事象E3「離床」は「エリアR1からエリアR2への」移動に関する条件に基づいて検知されている。これによれば、当該離床動作(ベッドから遠ざかる動作)とその逆向きの動作(ベッドに近づく動作)とを良好に区別することが可能である。
また、たとえば、検知対象事象E2「端座位」は「エリアR1からエリアR2への」移動に関する条件に基づいて検知されている。これによれば、本来的に検出したい「端座位」(ベッドから起き上がる動作の後の状態)とその逆向きの動作の後の状態(離れた場所からベッドに近づいた直後にベッドの端に座った状態)とを良好に区別することも可能である。
<6-2.特定部位の3次元位置の変化速度に基づく検知>
<転倒>
また、検知装置10(コントローラ31)は、観察対象人物における特定部位の3次元位置の変化速度に基づき、観察対象人物に関する検知対象事象を検知する。
たとえば、検知対象事象E4「床での転倒」(図10参照)は、次のような条件の成立に応じて検知されてもよい。当該条件は、たとえば、ベッドエリアR1外において観察対象人物の「胸」(部位B1)の床面からの高さが50cm以上の値から50cm以下の値へと変化し、且つ、その際の特定部位B1の移動速度が「1m/s以上」である、との条件である。換言すれば、特定部位B1の3次元位置が所定空間(床面からの高さが50cm以下の空間)内の位置へと変化する際における当該特定部位B1の3次元位置の変化速度に基づいて、検知対象事象が検知される。
特に、「転倒」は、観察対象人物(被介護者等)の自らの意思に反して当該人物の姿勢が変化していく動作である。そのため、通常、「転倒」における移動速度は一定程度以上である(図21(特に下段)参照)。図21の上段には、転倒時の人物の姿勢の変化が模式的に示されており、図21の下段には、転倒時における特定部位B1(「胸」)の高さの時間的変化が示されている。
一方、観察対象人物が自らの意思でゆっくりと寝そべっていく動作(「ゆっくり寝そべる動作」)(事象E10とも称する)における移動速度は、一定程度よりも小さい(図22(特に下段)参照)。図22の上段には、「ゆっくり寝そべる」際の人物の姿勢の変化が模式的に示されており、図22の下段には、「ゆっくり寝そべる」際における特定部位B1(「胸」)の高さの時間的変化が示されている。
図21の下段と図22の下段とを比較すると判るように、両動作は、その姿勢の変化速度(胸の「高さ」の変化速度)に大きな相違を有する。転倒する際における「胸」の高さの変化速度は、「ゆっくり寝そべる」際における「胸」の高さの変化速度に比べて非常に大きい。端的に言えば、転倒時における「胸」(特定部位B1)の高さは、急激に変化する。
このような特質を考慮し、上述のように特定部位B1の3次元位置の変化速度に基づき検知対象事象が検知される。詳細には、特定部位B1の移動速度が所定速度(1m/s)以上であることにも基づいて検知対象事象E4が検知される。これによれば、誤検知を抑制し、より的確に検知対象事象E4が検出され得る。詳細には、観察対象人物(被介護者等)が自らの意思に反して転倒する動作(転倒動作)と観察対象人物が自らの意思でゆっくりと寝そべっていく動作とを適切に区別することが可能である。換言すれば、観察対象人物による急激な動作(転倒等)が、高い危険度を有する動作として検知され得る。
なお、人物の特定部位の移動速度は、単位時間あたりの、特定部位の実空間における3次元的な移動距離として算出されればよい。ただし、これに限定されず、人物の特定部位の移動速度は、単位時間あたりの、特定部位の実空間における高さの変動量として算出されてもよい。また、特定部位の移動速度は、人物の姿勢変更期間における平均速度であってもよく、あるいは、人物の姿勢変更期間における最大速度であってもよい。
また、上記において、「ゆっくり寝そべる動作」(図22)もが検知対象事象E10として検知されてもよい。検知対象事象E10は、たとえば、ベッドエリアR1外において観察対象人物の胸の床面からの高さが50cm以上の値から50cm以下の値へと変化し且つその際の特定部位B1の移動速度が1m/s「未満」である旨の条件が成立すると、検知される。これによれば、互いに類似する2つの検知対象事象E4,E10を互いに区別して検知することが可能である。
<ベッドからのずり落ち>
また、事象E6「ベッドからの全身ずり落ち」(図12参照)が、観察対象人物における特定部位の3次元位置の変化速度に基づいて検知されてもよい。
具体的には、検知対象事象E6が、たとえば、観察対象人物の鼻B0および腰B8(B11)の移動の際の移動速度が所定速度(たとえば1m/s)以上であるとの条件(条件C26)もが上述の条件C16に加えて成立するときに検知されてもよい。なお、条件C16は、観察対象人物の鼻B0および腰B8(あるいはB11)がベッドエリアR1からベッドサイドエリアR2へと移動し且つ床面上の所定高さ(50cm)以下の空間に移動することである。
また、検知対象事象E7が、たとえば、観察対象人物の右腰B8および左腰B11の移動の際の移動速度が所定速度(たとえば1m/s)以上であるとの条件(条件C27)もが上述の条件C17に加えて成立するときに検知されてもよい。なお、条件C17は、観察対象人物の右腰B8および左腰B11がベッドエリアR1からベッドサイドエリアR2へと移動し且つ床面上の所定高さ(50cm)以下の空間に移動することである。
このように観察対象人物の移動速度に関する条件(たとえば、所定速度(1m/s)以上)をも検知対象事象の検知条件(判定条件)に加えることによって、より的確に検知対象事象E6,E7等を検知することが可能である。特に、移動速度をも考慮することによれば、検知対象事象E6(および/またはE7)と検知対象事象E5「床での横たわり」(図11参照)とをより正確に区別することが可能である。
<6-3.複数の特定部位の3次元位置の相対的関係に基づく検知>
また、検知装置10(コントローラ31)は、観察対象人物における複数の特定部位の3次元位置の「相対的関係」に基づき、観察対象人物に関する検知対象事象を検知する。
たとえば、観察対象人物の胸の高さと右手首の高さと左手首の高さとの相対的関係に基づき、検知対象事象E11(「観察対象人物の片手がベッドからずり落ちている状態」(単に「ベッドからの片手ずり落ち」とも称する)(図19参照)が検知される。詳細には、ベッドエリアR1において、観察対象人物の右手首(部位B4)の高さと左手首(部位B7)の高さとの一方のみが胸(部位B1)の高さよりも所定程度以上(たとえば30cm以上)低いときには、検知対象事象E11が検知される。ベッドからずり落ちた片手を自力でベッド上に戻せない被介護者に関して検知対象事象E11を検知することは、非常に有用である。
このように、複数の特定部位の3次元位置の相対的関係(ここでは、「高さ」の相対的関係)を考慮することによれば、観察対象人物の姿勢を適切に検知することが可能である。特に、複数の特定部位の3次元空間における高さの相対的関係が考慮されることによれば、観察対象人物の姿勢の特徴的な変化を把握し易い。
あるいは、検知対象事象E2「端座位」(図8参照)が次のような条件に基づいて検知されてもよい。当該条件は、たとえば、観察対象人物の足首(部位B10,B13の双方)がベッドサイドエリアR2内に存在し且つ観察対象人物の腰(部位B8,B11の双方)がベッドエリアR1内に存在することである。
同様に、検知対象事象E8「ベッドからの片手伸ばし」(図19参照)が次のような条件に基づいて検知されてもよい。当該条件は、たとえば、観察対象人物の両手首のうちの一方(部位B4あるいは部位B7)のみがベッドサイドエリアR2に存在し且つ観察対象人物の腰(部位B8および部位B11)がベッドエリアR1内に存在することである。
このように、複数の特定部位の3次元位置の相対的関係(ここでは、「平面位置」の相対的関係)を考慮することによれば、観察対象人物の姿勢を適切に検知することが可能である。特に、複数の特定部位の3次元空間における平面位置の相対的関係が考慮されることによれば、観察対象人物の各部位の水平移動を伴う動作を把握し易い。
<6-4.複数の特定部位の3次元位置の相対的関係の変化に基づく検知>
また、検知装置10(コントローラ31)は、観察対象人物における複数の特定部位の3次元位置の「相対的関係の変化」に基づき、観察対象人物に関する検知対象事象を検知する。
たとえば、上述の検知対象事象E11(「ベッドからの片手ずり落ち」)(図19参照)が、観察対象人物の胸の高さと右手首の高さと左手首の高さとの相対的関係の変化に基づいて検知されてもよい。
詳細には、状態ST1から状態ST2へと遷移することを条件に検知対象事象E11が検知されてもよい。状態ST1は、観察対象人物の胸(部位B1)と右手首(部位B4)と左手首(部位B7)とがいずれもほぼ同じ高さ(ベッド上面からの高さ)を有している状態である。一方、状態ST2は、観察対象人物の右手首の高さと左手首の高さとの一方のみが胸の高さよりも低い状態である。
より詳細には、各部位B1,B4,B7の高さが何れもベッド上の所定の高さ範囲(たとえば床から50cm以上80cm以下の高さ範囲)内である場合、状態ST1であることが認識される。また、部位B4,B7のうちの一方のみが部位B1よりも所定程度以上低い位置に存在する場合、状態ST2であることが認識される。
そして、このような状態ST1から状態ST2への遷移が発生すると、検知対象事象E11(詳細にはその発生)が検知される。なお、当該状態ST1から状態ST2への状態遷移は、複数の特定部位B1,B4,B7の3次元位置の相対的関係が第1関係から第2関係へと変化すること、とも表現される。
以上のように、複数の特定部位(B1,B4,B7)の3次元位置の「相対的関係の変化」を考慮することによれば、観察対象人物の姿勢の変化を適切に検知し、ひいては検知対象事象をより的確に検知することが可能である。特に、経時的変化(複数の特定部位の3次元位置に関する時系列の変化)が考慮されるので、或る一の時点での静的な状態(たとえばST2)のみが考慮される場合に較べて、検知対象事象をより的確に検知することが可能である。
また特に、観察対象人物の複数の特定部位の3次元空間における「高さ」の相対的関係の変化が考慮されることによれば、観察対象人物の姿勢の特徴的な変化を把握し易い。したがって、さらに的確に検知対象事象を検知することが可能である。
なお、ここでは、検知対象事象の検知条件として、複数の特定部位B1,B4,B7に関する所定の条件が採用されているが、これに限定されない。
たとえば、複数の特定部位B1,B8,B11,B4,B7に関する所定の条件が採用されてもよい。詳細には、観察対象人物の胸(部位B1)と腰(部位B8,B11)と手首(部位B4,B7)とがほぼ同じ高さ(ベッド上面からの高さ)を有している状態が、状態ST1とされてもよい。端的に言えば、状態ST1は、各部位の高さに関して「胸=腰=両手首」の状態であってもよい。一方、状態ST2は、各部位の高さに関して「胸=腰>片手首」の状態であってもよい。詳細には、状態ST2は、観察対象人物の胸(B1)と腰(B8,B11)とがほぼ同じ高さ(ベッド上面からの高さ)を有しており且つ両手首(B4,B7)のうちの一方のみが胸(B1)および腰(B8,B11)よりも所定程度以上低い状態であってもよい。
<他の検知例>
あるいは、上述の検知対象事象E1(「ベッド上での起き上がり」)(図7参照)が、観察対象人物の胸の高さと腰の高さと足首の高さとの相対的関係の変化に基づいて検知されてもよい。さらに、同じ複数の特定部位の相対的関係の変化(観察対象人物の胸の高さと腰の高さと足首の高さとの相対的関係の変化)に基づいて、検知対象事象E2「端座位」(図8および図9参照)もが検知されてもよい。
具体的には、まず、状態ST21から状態ST22へと遷移することを条件に検知対象事象E1が検知される。
状態ST21は、観察対象人物の胸(部位B1)と腰(部位B8,B11)と足首(部位B10,B13)とがいずれもほぼ同じ高さ(ベッド上面からの高さ)を有している状態である。端的に言えば、状態ST21においては各部位の高さに関して、「胸=腰=足首」の相対的関係が成立している。
また、状態ST22は、観察対象人物の腰(部位B8,B11)と足首(部位B10,B13)とがいずれもほぼ同じ高さ(ベッド上面からの高さ)を有しており且つ観察対象人物の胸(部位B1)が腰(部位B8,B11)よりも所定程度以上高い状態である。端的に言えば、状態ST22においては各部位の高さに関して、「胸>腰=足首」の相対的関係が成立している。
観察対象人物の胸の高さと腰の高さと足首の高さとの相対的関係が変化し、状態ST21から状態ST22へと遷移すると、検知対象事象E1が検知される。
つぎに、状態ST22から状態ST23へと遷移することを条件に検知対象事象E2(「端座位」)(図8参照)が検知される。
状態ST23は、観察対象人物の胸(部位B1)が腰(部位B8,B11)よりも所定程度以上高く且つ観察対象人物の足首(部位B10,B13)が腰(部位B8,B11)よりも所定程度以上低い状態である。端的に言えば、状態ST23においては各部位の高さに関して、「胸>腰>足首」の相対的関係が成立している。
観察対象人物の胸の高さと腰の高さと足首の高さとの相対的関係が変化し、状態ST22から状態ST23へと遷移すると、検知対象事象E2が検知される。
以上のように、複数の特定部位(B1,B8,B11,B10,B13)の3次元位置の「相対的関係の変化」が考慮される。したがって、上記と同様の効果を得ることが可能である。
また、事象E1(「(ベッド上での)起き上がり」),E2(「端座位」),E3(「離床」)は、この順序で連続して発生することが多く、各事象(特に事象E3)の発生を事前に察知することが望まれている。詳細には、事象E3「離床」の前に事象E2「端座位」が検知されることによれば、事象E3「離床」の発生を事前に察知することが可能である。同様に、事象E2「端座位」の前に事象E1「起き上がり」が検知されることによれば、事象E2「端座位」の発生を事前に察知することが可能である。
ここでは、事象E2「端座位」の検知において、複数の特定部位(B1,B8,B11,B10,B13)の3次元位置の「相対的関係の変化」が考慮される。したがって、上述したように、上記観察対象人物の姿勢の変化を適切に検知し、ひいては検知対象事象E2「端座位」をより的確に検知することが可能である。
特に事象E2「端座位」が的確に検知されることによれば、「端座位」発生の報知先の介護者等が、「端座位」に引き続く「離床」(およびそれ以降の行動)を未然に防ぐことも可能である。
また、このような連続的に発生する複数の事象E1,E2は、複数の状態ST21,ST22,ST23の連続的な変遷を伴う。また、当該複数の状態ST21,ST22,ST23の連続的な変遷は、複数の特定部位(B1,B8,B11,B10,B13等)の3次元位置の相対的関係の変化を捉えることによって、的確に検知され得る。それ故、連続的に発生する複数の事象E1,E2も、複数の特定部位(B1,B8,B11,B10,B13等)の3次元位置の相対的関係の変化を捉えることによって、的確に検知され得る。
<7.骨格表示によるモニタリング表示>
つぎに、観察対象人物のモニタリング表示について説明する。
図15は、表示対象の部屋を選択する選択画面300を示す図である。選択画面300には、複数(ここでは6個)の部屋にそれぞれ対応する複数のボタン301~306が表示されている。そして、当該複数のボタン(301~306)の中から所望のボタンが選択されると、当該所望のボタンに対応する部屋に関する観察画面310が表示される。たとえば、ボタン301が押下されると、当該ボタン301に対応付けられている「101号室」に関する観察画面310(図16等参照)が表示される。なお、選択画面300および当該観察画面310は、たとえば管理装置70の表示部75bに表示される。ただし、これに限定されず、選択画面300および当該観察画面310は、各携帯端末装置80の表示部85b(タッチパネル87等)に表示されてもよい。
これらの画面300,310の表示処理は、各端末装置70(あるいは80)と各検知装置10との協働により制御される。より具体的には、まず、端末装置70(あるいは80)が、対象の部屋に対応する検知装置10に対してモニタリング表示要求を送出する。当該検知装置10は、当該モニタリング表示要求に応答して、表示用画像データ等(観察画面310(観察画像330を含む)の表示用データ)を生成し、当該表示用画像データ等を当該端末装置70等に対して送信する(図5のステップS12)。当該端末装置70等は、受信した表示用データに基づき、観察画面310を表示する。
図16および図17は、或る部屋(ここでは「101号室」)の観察対象人物の観察画面310を示す図である。
図16等に示されるように、観察画面310は、観察画像330(観察映像)を表示する映像表示領域311と文字表示領域312とを備えている。
映像表示領域311には、観察対象人物の観察画像(映像(動画像))330がリアルタイムで表示される。図16等に示されるように、観察画像330は、観察対象人物自体の撮影画像を有さず且つ当該観察対象人物の骨格画像325を有する画像である。
骨格画像325および観察画像330は、カメラユニット20によって撮像される撮影画像110に基づいて、処理ユニット30によって生成される。
図18は、観察画像330等の生成処理について説明する図である。
具体的には、検知装置10の処理ユニット30は、まず、観察対象人物の撮影画像110(詳細には、撮影画像110に基づく骨格情報140)から観察対象人物の骨格画像325を生成する。骨格画像325は、図18(および図6)等に示されるように、たとえば、観察対象人物の各特定部位を「点」で示し、各骨格線(接続線)を「線分」で示す画像である。
そして、処理ユニット30は、当該骨格画像325に基づいて観察対象人物に関する観察画像330を生成する。観察画像330は、たとえば、人物が存在しない背景画像327(327aとも称する)と骨格画像325とを合成することによって生成される。骨格画像325は、背景画像327において、撮影画像110内での存在位置と同じ位置に配置される。
なお、人物が存在しない背景画像327aは、たとえば、事前に撮影され且つ人物が存在しない撮影画像110(326とも称する)に基づいて生成される。詳細には、検知装置10は、或る時点での撮影画像(詳細には、対象の部屋を事前に撮影している撮影画像)110中に人物が存在しないと判定すると、当該撮影画像(動画像)110から静止画像を抽出する。そして、当該静止画像が背景画像327aとして生成される。
このようにして或る時点での観察画像330が生成される。
その後、このような動作が繰り返されることによって、各時点での観察画像330が順次に生成される。端的に言えば、観察画像330(骨格画像325を含む)は、撮影画像110等に基づいてリアルタイムで生成される。
なお、背景画像327aは、常に同じ画像であってもよい。ただし、これに限定されず、たとえば、時間帯(昼間/夜間)等に応じて異なる背景画像327aが生成され利用されてもよい。詳細には、昼間の時間帯においては、昼間に撮影され且つ人物不在の撮影画像110が背景画像327aとして利用されてもよい。また、夜間の時間帯においては、夜間に撮影され且つ人物不在の撮影画像110が背景画像327aとして利用されてもよい。
また、背景画像327は、予め準備された固定画像327b(無地画像あるいは部屋の3次元模式図等)であってもよい。
ところで、一般的な監視画面(比較例に係る画面とも称する)では、骨格画像325ではなく、カメラユニット20による撮影画像自体が表示される。詳細には、居室内での人物(観察対象人物とも称する)の撮影画像が管理者用画面等において常にそのまま表示される。
しかしながら、このようなモニタリング表示は当該人物のプライバシーに対して適切な配慮がなされているものとは言えない。
これに対して、上記実施形態に係るモニタリング表示においては、観察対象人物自体の撮影画像ではなく当該人物の骨格画像325が観察画像330として表示される。したがって、観察対象人物のプライバシーに対して適切に配慮することが可能である。特に、骨格情報(骨格画像325(観察画像330))によれば、観察対象人物の顔に関する情報は失われているとともに、観察対象人物の体型(太っている/痩せている)および仕草等を殆ど認識できない程度にその情報量が低減されている。したがって、特に当該人物のプライバシーに対して適切に配慮することが可能である。それ故、見守られる側の人物(被介護者等)の心理的抵抗を低減することも可能である。
その一方で、介護者等は、観察対象人物の骨格画像を視認することによって、観察対象人物の姿勢等を適度に把握することが可能である。
<8.表示に関する改変例>
上記のようなモニタリング表示において、所定条件が成立する場合、観察対象人物に関する撮影画像110が、観察画像330に代えて或いは観察画像330とともに表示されてもよい。端的に言えば、必要に応じて、観察画像330(骨格画像325)から撮影画像110への切替等が行われてもよい。
<所定条件1>
このような切替等が行われるべき所定条件としては、所定の検知対象事象が検知されたこと、などが例示される。
たとえば、所定の設定画面(不図示)において、「骨格画像」と「撮影画像」とのいずれを各検知対象事象の発生時(検知時)に表示させるかに関する選択肢(表示対象画像に関する選択肢)を設けておく。当該選択肢は、検知対象事象ごとに設けられることが好ましい。そして、当該選択肢によって設定された種類の画像(「骨格画像」/「撮影画像」)が、各検知対象事象の発生時に表示されるようにすればよい。たとえば、或る検知対象事象(「転倒」等)発生時の表示対象画像として「撮影画像」が設定されている場合、当該検知対象事象が検知されると、撮影画像110がモニタリング表示される。一方、当該検知対象事象が検知されていないときには、骨格画像325(観察画像330)が表示される。
これによれば、たとえば「転倒」などの高い危険性を有する事象が発生したときには、ユーザは、実際の撮影画像110を視認し、さらに詳細な状況を確認することができる。ひいては、より適切に状況を把握し、適切な処置を施すことが可能である。
このように、通常時には骨格画像325(観察画像330)が表示され、所定の検知対象事象の発生時には撮影画像110が表示される。これによれば、プライバシーに配慮しつつ、所定の状況では実際の撮影画像をユーザ(介護者等)が確認することも可能である。換言すれば、観察者(介護者等)は、必要に応じて、観察対象人物に関する撮影画像を確認することが可能である。ひいては、観察者(介護者等)が適切な処理を施すことが可能である。
また、検知対象事象ごとに撮影画像の表示の是非を設定することによれば、きめ細やかな対応を実現することが可能である。
<所定条件2>
また、上述のような切替等が行われるべき所定条件としては、複数の発報レベルのうち検知対象事象に対して設定された発報レベルが所定レベル以上の重要度を有すること、なども例示される。
たとえば、発報に関する設定画面(不図示)において、表示対象画像(観察画像330)と複数の発報レベルとの関係が設定されればよい。複数の発報レベルとしては、「警告」、「注意」、「日常動作」が例示される。「警告」は「注意」よりも高い重要度を有する発報レベルであり、「注意」は「日常動作」よりも高い重要度を有する発報レベルである。なお、各検知対象事象に対して、複数の発報レベルのいずれかが割り当てられているものとする。
たとえば、発報に関する当該設定画面において、複数の発報レベルのうち、骨格画像325(観察画像330)から撮影画像110への切替等が行われるべき所定レベル(たとえば、「警告」以上)が設定される。
このような設定に基づき、検知対象事象が検知されていないときには、骨格画像325(観察画像330)が表示される一方で、或る検知対象事象が検知されると、当該或る検知対象事象に割り当てられた発報レベルに応じた画像が表示される。
具体的には、検知対象事象が発生すると、当該検知対象事象の発報レベルが所定レベル(「警告」)以上の重要性を有するか否かが判定される。当該検知対象事象の発報レベルが所定レベル(「警告」)以上の重要度を有しない場合、骨格画像325(観察画像330)が引き続き表示される。一方、当該検知対象事象の発報レベルが所定レベル(「警告」)以上の重要度を有する場合、骨格画像325(観察画像330)から撮影画像110へと表示対象画像が変更される。
このように、通常時には骨格画像325(観察画像330)が表示され、所定レベル以上の重要度を有する検知対象事象の発生時には撮影画像110が表示される。これによれば、プライバシーに配慮しつつ、必要に応じて実際の撮影画像を確認して適切な処理を施すことが可能である。また、検知対象事象ごとに撮影画像の表示の是非を設定することができるので、きめ細やかな対応を実現することが可能である。
特に、発生した検知対象事象の重要度に応じて、骨格画像325(観察画像330)と撮影画像110とのいずれを表示するかを変更することができる。特に、「転倒」などの高い危険性を有する事象(所定レベル以上の重要度を有する事象)が発生したときには、ユーザは、実際の撮影画像110を視認し、さらに詳細な状況を確認することができる。ひいては、より適切に状況を把握し、適切な処置を施すことが可能である。
<他の改変例>
また、上記の各改変例では、所定条件が成立する場合、観察画像330(骨格画像325)に代えて、観察対象人物に関する撮影画像が表示されているが、これに限定されない。所定条件が成立する場合、観察画像330(骨格画像325)とともに、観察対象人物に関する撮影画像110が表示されてもよい。
また、上記実施形態等では、端末装置70,80において観察画像330および骨格画像325として、動画像が表示されているが、これに限定されず、端末装置70,80において静止画像が観察画像330および骨格画像325として表示されてもよい。
また、上記実施形態等では、端末装置70(あるいは80)から検知装置10に対して送出されたモニタリング表示要求に応じて、端末装置70等に画像データの転送が開始され画像(骨格画像等)の表示が開始されているが、これに限定されない。たとえば、検知装置10にて各検知対象事象が検知されたことに応じて、各端末装置70,80に検知対象事象の検知が報知されるとともに自動的に管理装置70等にて画像(骨格画像等)の表示が開始されるようにしてもよい。この際の表示画像(骨格画像325および観察画像330等)も、動画像でもよく、あるいは静止画像でもよい。
また、上記実施形態等では、モニタリング表示時に骨格画像325(観察画像330)が表示される態様を例示したが、これに限定されない。たとえば、記憶部32内に記憶された観察画像330(ログ画像)がその後に再生される際に、骨格画像325が表示されてもよい。あるいは、録画された撮影画像110(録画画像)がその後に再生される際に、当該撮影画像110に基づく骨格画像325が生成され表示されてもよい。
また、ここでは検知装置10が骨格画像325および観察画像330の生成処理(換言すれば、表示制御処理)等を実行しているが、これに限定されない。たとえば、端末装置70(,80)が骨格画像325および/または観察画像330等の生成処理等を実行してもよい。詳細には、検知装置10から端末装置70等へと撮影画像110および深度情報120等が送信され、送信先の端末装置70等にて骨格画像325等が生成されてもよい。ただし、セキュリティ向上の観点あるいはデータ送信量削減の観点からは、(受信側の管理装置70ではなく)送信側の検知装置10が当該生成処理等を実行することが好ましい。
このように、検知装置10が表示制御処理を行ってもよく、あるいは端末装置70,80が表示制御処理を行ってもよい。すなわち、検知装置10が表示制御装置として動作してもよく、あるいは、端末装置70,80が表示制御装置として動作してもよい。換言すれば、表示制御装置は、表示装置(70,80)とは別の装置として設けられてもよく、表示装置(70,80)と一体的に設けられてもよい。
<9.エリアごとの基準高さ等>
上記においては、検知対象事象の1つとして、事象E4「床での転倒」(図10参照)を例示した。検知対象事象E4では、観察対象人物の「胸」(部位B1)の「高さ」に関する条件として、床面からの高さが50cm以上の値から50cm以下の値へと変化することが採用されている。
しかしながら、「転倒」は、床上でのみならずベッド上等でも発生し得る。ベッド上での転倒を判定する際に床上での転倒に関する基準と同じ基準を用いると、適切な判定ができない。具体的には、「胸の高さが床面から50cm以上であること」は常に正常であるとは限らず、ベッド上での転倒時には別の基準を用いることが求められる。
そこで、事象E4に類似する他の検知対象事象として、事象E12「ベッド上での転倒(観察対象人物がベッド上で転倒すること)」(図20参照)が規定されるとともに、次のような条件の成立に応じて検知対象事象E12が検知されてもよい。当該条件は、たとえば、「ベッドエリアR1内」において観察対象人物の「胸」(部位B1)の「ベッド上面」からの高さが50cm以上の値から50cm以下の値へと変化し且つその際の特定部位B1の移動速度が「1m/s以上」であることである。
ただし、これに限定されず、床上での転倒とベッド上での転倒とを区別せずに、事象E13「転倒」(2つの事象E4,E12を統合した事象)が検知されてもよい。
検知対象事象E13は、次のような条件の成立に応じて検知される。当該条件は、たとえば、観察対象人物の「胸」(部位B1)の「基準面からの高さ」が50cm以上の値から50cm以下の値へと変化し且つその際の特定部位B1の移動速度が「1m/s以上」であることである。換言すれば、2つの事象E4,E12における条件が、いずれも「基準面」に対する高さで規定されてもよい。
具体的には、まず、検知装置10は、エリア(平面エリア)ごとの「基準面」の高さを(図5の処理よりも前に)予め規定しておく。
詳細には、検知装置10は、部屋内(詳細には、その検知可能空間内)の平面位置(その一部または全部)をユーザによる設定操作等に応じて複数のエリアR1,R2,...に区分する。換言すれば、部屋内に複数の平面エリアR1,R2,...が設けられる。そして、検知装置10は、複数のエリアR1,R2,...のそれぞれについて「基準面の高さ」を設定する。たとえば、ベッドエリアR1には「45cm」、ベッドサイドエリアR2には「0cm」、他のエリアR3にも「0cm」が、それぞれ基準面の高さとして設定される。詳細には、検知装置10は、ユーザの操作入力等に応じて、エリアごとの基準面の高さを設定すればよい。
なお、各平面エリア(R1,R2,R3等)の基準面の高さは、自動的に設定されてもよい。具体的には、当該基準面の高さは、カメラユニット20(3次元カメラ)からの情報に基づいて、各平面エリアの代表位置に対応する物体(床、ベッド等)の3次元空間における高さに、自動的に設定されてもよい。たとえば、ベッドが載置された平面エリアR1の基準面の高さは、ベッド上面の高さ(3次元カメラ等による計測値)(床面から45cm等)に自動的に設定される。また、床上にベッドが載置されていない平面エリアR2の基準面の高さは、床面の高さ(床面から0cm等)に自動的に設定される。
そして、エリアごとの「基準面」の高さに基づいて、エリアごとの「基準高さ」が決定される。たとえば、平面エリア(ベッドエリア)R1の基準高さは、平面エリアR1に対して設定された基準面(ベッド上面)の高さ「45cm」に、「50cm」(基準面からの高さ)が加算された値「95cm」である。一方、平面エリアR2,R3等(非ベッドエリア(床面エリア))の基準高さは、平面エリアR2に対して設定された基準面(床面)の高さ「0cm」に、「50cm」(基準面からの高さ)が加算された値「50cm」である。
次述するように観察対象人物の存在エリアが判定されると、エリアごとの「基準高さ」に基づき当該存在エリアの基準高さが求められる。換言すれば、存在エリアごとに「基準高さ」が設定される。たとえば、ベッドエリア(ベッド上のエリア)R1が観察対象人物の存在エリアである場合、当該存在エリアの基準高さは「95cm」である。一方、床上のエリア(ベッドエリアR1以外のエリアR2,R3等)が観察対象人物の存在エリアである場合、当該存在エリアの基準高さは「50cm」である。存在エリアごとの基準高さは、当該存在エリアがベッド上であるか床上であるか等に応じて異なっている。
その後、図5の処理が開始されると、ステップS11~S15(特にS11,S13)において、検知装置10は、観察対象人物の存在エリアを判定するとともに、観察対象人物の存在エリアに応じて当該存在エリアの基準高さを求める(設定する)。そして、検知装置10は、当該存在エリアごとの基準高さに基づいて各特定部位の高さに関する条件を判定する。また、検知装置10は、これらの判定結果に基づき検知対象事象を検知する。なお、観察対象人物の存在エリアは、観察対象人物の所定の部位(胸あるいは腰等)の存在位置(平面位置)に基づいて判定されればよい。
詳細には、検知装置10は、存在エリアごとの基準高さと特定部位の高さとの比較結果に基づき、検知対象事象を検知する。
たとえば、観察対象人物がベッド上(ベッドエリアR1内)に存在する場合には、ベッドエリアR1の基準高さ(「95cm」)と観察対象人物の特定部位B1(「胸」)の高さとの比較の結果に基づき、検知対象事象E13が検知される。詳細には、観察対象人物の「胸」(部位B1)の床面からの高さが95cm(基準面の高さ「45cm」+「50cm」)以上の値から当該95cm以下の値へと変化することを条件に、検知対象事象E13が検知される。
一方、観察対象人物が床上(たとえば、エリアR3)に存在する場合には、当該エリアR3の基準高さ(「50cm」)と観察対象人物の特定部位B1(「胸」)の高さとの比較の結果に基づき、検知対象事象E13が検知される。詳細には、観察対象人物の「胸」(部位B1)の床面からの高さが50cm(基準面の高さ「0cm」+「50cm」)以上の値から当該50cm以下の値へと変化することを条件に、検知対象事象E13が検知される。
このように、存在エリアごとの基準高さ(換言すれば、存在エリアごとに設定された基準高さ)に基づいて検知対象事象E13が検知される。なお、このような「高さ」に関する条件に加えて上述の移動速度に関する条件(移動速度が「1m/s以上」等)をも加えて、検知対象事象E13が検知されることが好ましい。
以上のように、検知装置10(コントローラ31)は、観察対象人物の存在エリアを判定し、当該存在エリアごとの基準高さに基づいて特定部位の高さに関する条件を判定してもよい。詳細には、観察対象人物の存在エリアごとに異なる基準高さが設定され、当該基準高さと特定部位の高さとの比較結果に基づいて検知対象事象が検知されてもよい。これによれば、特定部位の高さの正常範囲が存在エリアごとに異なる場合であっても、観察対象人物の存在エリアごとの適切な基準高さに基づいて適切な検知処理が実行され得る。それ故、単一の基準高さ(存在エリアに依拠しない基準高さ)に基づいて検知処理が実行される場合に比べて、検知対象事象を適切に検知することが可能である。また、「転倒」という事象をエリア別の複数の検知対象事象(E4,E12等)として別々に分離して規定せずに済み、当該複数の検知対象事象(E4,E12等)を1つの検知対象事象E13(「転倒」)として統一的に取り扱うことが可能である。
<10.その他>
以上、この発明の実施の形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
たとえば、観察対象人物の特定部位は、上述の各特定部位に限定されず、人物の頭、首、鎖骨等であってもよい。
また、上記実施形態等においては、検知装置10(特に処理ユニット30)が各検知対象事象の検知処理等を実行しているが、これに限定されない。たとえば、管理装置70が各検知対象事象の検知処理等を実行してもよい。
また、上記実施形態等においては、処理ユニット30(コントローラ31)が骨格情報140および各特定部位の3次元位置情報150等を生成しているが、これに限定されない。たとえば、管理装置70(コントローラ71)が各特定部位の3次元位置情報150を生成してもよい。さらに、管理装置70(コントローラ71)が骨格情報140をも生成してもよい。
また、観察画像330を表示する表示部は、上記実施形態等のように端末装置70(,80)に設けられてもよいが、これに限定されず、たとえば検知装置10に設けられてもよい。
1 検知システム
10 検知装置
20 カメラユニット
30 処理ユニット
70 管理装置
80 携帯端末装置
110 撮影画像
120 深度情報
140 骨格情報
150 3次元位置情報
300 選択画面
310 観察画面
325 骨格画像
327 背景画像
330 観察画像
B0~B17 特定部位
R1 ベッドエリア
R2 ベッドサイドエリア

Claims (20)

  1. 観察対象人物における特定部位の3次元位置情報を取得し、前記特定部位の3次元位置情報に基づき前記観察対象人物に関する検知対象事象を検知する制御部、
    を備え、
    前記制御部は、前記特定部位の3次元位置の変化に基づき、前記検知対象事象を検知することを特徴とする検知装置。
  2. 前記制御部は、前記特定部位の3次元位置の変化速度に基づき、前記検知対象事象を検知することを特徴とする、請求項1に記載の検知装置。
  3. 前記制御部は、前記特定部位の3次元位置が所定空間内の位置へと変化する際における前記特定部位の3次元位置の変化速度に基づいて、前記検知対象事象を検知することを特徴とする、請求項2に記載の検知装置。
  4. 前記制御部は、前記特定部位の3次元空間における高さの変化に基づき、前記検知対象事象を検知することを特徴とする、請求項1から請求項3のいずれかに記載の検知装置。
  5. 前記特定部位は、前記観察対象人物の上半身の予め定められた部位であることを特徴とする、請求項1から請求項4のいずれかに記載の検知装置。
  6. 前記特定部位は、前記観察対象人物の胸であることを特徴とする、請求項1から請求項5のいずれかに記載の検知装置。
  7. 前記制御部は、前記観察対象人物における複数の特定部位の3次元位置情報を取得し、前記複数の特定部位の3次元位置の相対的関係の変化に基づき、前記検知対象事象を検知することを特徴とする、請求項1から請求項6のいずれかに記載の検知装置。
  8. 前記制御部は、前記複数の特定部位の3次元空間における高さの相対的関係の変化に基づき、前記検知対象事象を検知することを特徴とする、請求項7に記載の検知装置。
  9. 前記制御部は、前記観察対象人物の胸の高さと腰の高さと足首の高さとの相対的関係の変化に基づき、前記検知対象事象を検知することを特徴とする、請求項8に記載の検知装置。
  10. 前記制御部は、前記観察対象人物の胸の高さと腰の高さと手首の高さとの相対的関係の変化に基づき、前記検知対象事象を検知することを特徴とする、請求項8に記載の検知装置。
  11. 前記制御部は、前記観察対象人物における複数の特定部位の3次元位置情報を取得し、前記複数の特定部位の3次元位置の相対的関係に基づき、前記検知対象事象を検知することを特徴とする、請求項1から請求項6のいずれかに記載の検知装置。
  12. 前記制御部は、前記複数の特定部位の3次元空間における高さの相対的関係に基づき、前記検知対象事象を検知することを特徴とする、請求項11に記載の検知装置。
  13. 前記制御部は、前記観察対象人物の胸の高さと右手首の高さと左手首の高さとの相対的関係に基づき、前記検知対象事象を検知することを特徴とする、請求項12に記載の検知装置。
  14. 前記制御部は、
    前記観察対象人物の存在エリアを判定し、
    前記存在エリアごとに異なる基準高さを設定し、
    前記存在エリアごとに設定された前記基準高さと前記特定部位の高さとの比較結果に基づき、前記検知対象事象を検知することを特徴とする、請求項1から請求項13のいずれかに記載の検知装置。
  15. 前記制御部は、前記存在エリアがベッド上であるか床上であるかに応じた異なる基準高さと前記観察対象人物の特定部位である胸の高さとの比較結果に基づき、前記検知対象事象を検知することを特徴とする、請求項14に記載の検知装置。
  16. 前記観察対象人物の撮影画像と前記撮影画像内の各画素の深度情報とを取得するセンサ部、
    をさらに備え、
    前記制御部は、前記撮影画像と前記深度情報とに基づいて前記特定部位の3次元位置情報を取得することを特徴とする、請求項1から請求項15のいずれかに記載の検知装置。
  17. 前記制御部は、
    前記観察対象人物の骨格情報を前記撮影画像に基づき取得するとともに、前記骨格情報に含まれる前記特定部位に関して前記特定部位までの距離情報を前記深度情報に基づき取得し、
    前記撮影画像と前記距離情報とに基づいて前記特定部位の3次元位置情報を取得することを特徴とする、請求項16に記載の検知装置。
  18. a)観察対象人物における特定部位の3次元位置情報を取得するステップと、
    b)前記特定部位の3次元位置情報に基づき前記観察対象人物に関する検知対象事象を検知するステップと、
    をコンピュータに実行させるためのプログラムであって、
    前記ステップb)においては、前記特定部位の3次元位置の変化に基づき、前記観察対象人物に関する検知対象事象が検知されることを特徴とするプログラム。
  19. 観察対象人物に関する検知対象事象を検知する検知方法であって、
    a)観察対象人物における特定部位の3次元位置情報を取得するステップと、
    b)前記特定部位の3次元位置情報に基づき前記観察対象人物に関する検知対象事象を検知するステップと、
    を備え、
    前記ステップb)においては、前記特定部位の3次元位置の変化に基づき、前記観察対象人物に関する前記検知対象事象が検知されることを特徴とする検知方法。
  20. a)観察対象人物に関する撮影画像に基づき前記観察対象人物における特定部位の3次元位置情報を取得するステップと、
    b)前記特定部位の3次元位置情報に基づき前記観察対象人物に関する検知対象事象を検知するステップと、
    を備え、
    前記ステップb)においては、前記特定部位の3次元位置の変化に基づき、前記観察対象人物に関する前記検知対象事象が検知されることを特徴とする画像処理方法。
JP2020111237A 2020-06-29 2020-06-29 検知装置、検知方法、画像処理方法、およびプログラム Active JP7530222B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020111237A JP7530222B2 (ja) 2020-06-29 2020-06-29 検知装置、検知方法、画像処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020111237A JP7530222B2 (ja) 2020-06-29 2020-06-29 検知装置、検知方法、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2022010581A true JP2022010581A (ja) 2022-01-17
JP7530222B2 JP7530222B2 (ja) 2024-08-07

Family

ID=80149046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020111237A Active JP7530222B2 (ja) 2020-06-29 2020-06-29 検知装置、検知方法、画像処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7530222B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004331A1 (ja) * 2022-06-29 2024-01-04 パナソニックIpマネジメント株式会社 撮影装置及び撮影方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5648840B2 (ja) 2009-09-17 2015-01-07 清水建設株式会社 ベッド上及び室内の見守りシステム
JP6664920B2 (ja) 2015-09-30 2020-03-13 グローリー株式会社 監視カメラシステム及び監視方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004331A1 (ja) * 2022-06-29 2024-01-04 パナソニックIpマネジメント株式会社 撮影装置及び撮影方法

Also Published As

Publication number Publication date
JP7530222B2 (ja) 2024-08-07

Similar Documents

Publication Publication Date Title
US10600204B1 (en) Medical environment bedsore detection and prevention system
JP7138931B2 (ja) 姿勢解析装置、姿勢解析方法、及びプログラム
JP6717235B2 (ja) 見守り支援システム及びその制御方法
JP6167563B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6720909B2 (ja) 行動検知装置、該方法および該プログラム、ならびに、被監視者監視装置
US10446003B2 (en) System and methods for monitoring and entrapment prevention for a person disposed in a bed
JP6822328B2 (ja) 見守り支援システム及びその制御方法
JP7403132B2 (ja) 介護記録装置、介護記録システム、介護記録プログラムおよび介護記録方法
EP2763116B1 (en) Fall detection system and method for detecting a fall of a monitored person
US10229491B1 (en) Medical environment monitoring system
JP6806145B2 (ja) 被監視者監視システムおよび被監視者監視方法
KR20180127255A (ko) 열화상 카메라를 이용한 낙상 예측 시스템 및 열화상 카메라를 이용한 낙상 예측 방법
JP6579411B1 (ja) 介護設備又は病院用の監視システム及び監視方法
US10475206B1 (en) Medical environment event parsing system
JP6904336B2 (ja) 被監視者監視システムおよび被監視者監視方法
US20180322334A1 (en) Person Monitoring Device And Method, And Person Monitoring System
JP2022010581A (ja) 検知装置、検知方法、画像処理方法、およびプログラム
JP3767898B2 (ja) 人物行動理解システム
JP7243725B2 (ja) 対象物体検出プログラム、および対象物体検出装置
JP7314939B2 (ja) 画像認識プログラム、画像認識装置、学習プログラム、および学習装置
EP3486868A1 (en) Behavior determination device and behavior determination method
JP2021194468A (ja) 情報処理装置、見守りシステム、および制御プログラム
JP6908028B2 (ja) 被監視者監視装置、該方法、該システムおよびプログラム
JP2022048830A (ja) 検知システム、検知装置、端末装置、表示制御装置、検知方法およびプログラム
WO2020145145A1 (ja) 情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240726

R150 Certificate of patent or registration of utility model

Ref document number: 7530222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150