JP5870230B1 - 見守り装置、見守り方法および見守りプログラム - Google Patents

見守り装置、見守り方法および見守りプログラム Download PDF

Info

Publication number
JP5870230B1
JP5870230B1 JP2015203683A JP2015203683A JP5870230B1 JP 5870230 B1 JP5870230 B1 JP 5870230B1 JP 2015203683 A JP2015203683 A JP 2015203683A JP 2015203683 A JP2015203683 A JP 2015203683A JP 5870230 B1 JP5870230 B1 JP 5870230B1
Authority
JP
Japan
Prior art keywords
block
distance
dimensional
bed
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015203683A
Other languages
English (en)
Other versions
JP2017076272A (ja
Inventor
昌弘 川村
昌弘 川村
高橋 淳一
淳一 高橋
信幸 須藤
信幸 須藤
孝則 清水
孝則 清水
瑞季 伊藤
瑞季 伊藤
Original Assignee
株式会社スーパーリージョナル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社スーパーリージョナル filed Critical 株式会社スーパーリージョナル
Priority to JP2015203683A priority Critical patent/JP5870230B1/ja
Application granted granted Critical
Publication of JP5870230B1 publication Critical patent/JP5870230B1/ja
Publication of JP2017076272A publication Critical patent/JP2017076272A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ベッド上の人物の状態を正確に判断することのできる見守り装置を提供する。【解決手段】被写体までの距離を複数の箇所で測定することにより、各画素の輝度値が被写体までの距離を示す距離画像を生成する距離測定部と、距離画像に基づいて、被写体の3次元座標を決定する3次元処理部と、3次元座標に基づいて、所定の距離範囲内にある3次元座標同士に同一のラベルを付けるラベリング処理を施すことで、3次元ブロックを生成する3次元ブロック生成部と、所定時間離れた2フレームの距離画像間で、画素毎に距離の差分を算出し、当該差分が所定の閾値以上の画素からなる領域を移動体領域として検出する移動体領域検出部と、移動体領域に対応する3次元ブロック内の領域を移動体ブロックとして抽出する移動体ブロック抽出部と、移動体ブロックに係る物理量に基づいて、人物の状況を判断し、判断結果を外部に通知する状況判断部とを備える。【選択図】図2

Description

本発明は、高齢者などの人物を見守る見守り装置、見守り方法および見守りプログラムに関し、特に、ベッド上の人物を見守る見守り装置、見守り方法および見守りプログラムに関する。
従来、介護施設等において、被介護者がベッドから離床する際の転倒による骨折や、ベッドからの転落による怪我を防ぐために、マットセンサーやビームセンサー等を用いて、ベッドからの離床やはみ出しなどを検知する技術が開発されている(例えば、特許文献1および2参照)。
特開2014−104108号公報 特開2015−146856号公報
しかしながら、マットセンサーを用いた場合には、ベッドから被介護者が転落等した後でないと異常を検出することができない。このため、事前にベッド上の人物の状況を察知し、危険を防止することが困難である。
ビームセンサーを用いた場合には、ベッド上に積み重ねられた布団に反応する場合がある。また、介護用ベッドは高さが変更可能であるため、ベッドの高さによっては被介護者の反応のしやすさに差が生じる場合がある。このため、ビームセンサーを用いた場合には誤検出が生じやすく、介護者の負担が増えるという課題がある。
本発明は、上述の課題に鑑みてなされたものであり、ベッド上の人物の状態を正確に判断することのできる見守り装置、見守り方法および見守りプログラムを提供することを目的とする。
上記目的を達成するために、本発明のある局面に係る見守り装置は、ベッド上の人物を見守る見守り装置であって、被写体までの距離を複数の箇所で測定することにより、各画素の輝度値が前記被写体までの距離を示す距離画像を生成する距離測定部と、前記距離測定部が生成した前記距離画像に基づいて、前記被写体の3次元座標を決定する3次元処理部と、前記3次元処理部が決定した前記3次元座標に基づいて、所定の距離範囲内にある3次元座標同士に同一のラベルを付けるラベリング処理を施すことで、3次元ブロックを生成する3次元ブロック生成部と、前記距離測定部が生成した所定時間離れた2フレームの前記距離画像間で、画素毎に時間的に前のフレームの距離から時間的に後のフレームの距離を減算することにより距離の差分を算出し、当該差分が所定の閾値以上の画素からなる領域を移動体領域として検出する移動体領域検出部と、前記移動体領域検出部が検出した前記移動体領域に対応する前記3次元ブロック内の領域を移動体ブロックとして抽出する移動体ブロック抽出部と、前記移動体ブロック抽出部が抽出した前記移動体ブロックに係る物理量に基づいて、前記人物の状況を判断し、判断結果を外部に通知する状況判断部とを備える。
この構成によると、距離画像のフレーム間差分により移動体領域を検出している。通常の画像のフレーム間差分では、輝度の変化領域を検出するため、例えば、カーテンの揺れのような輝度の変化が生じている領域を検出することがある。しかし、距離画像を用いることにより、人物が実際に移動している領域を移動体領域として検出することができる。よって、正確な移動体領域を検出することができる。また、このようにして検出された移動体領域を3次元ブロックに重ね合わせることにより、移動体ブロックを抽出している。このため、3次元空間における移動体ブロックを正確に抽出することができる。このようにして抽出された移動体ブロックに係る物理量に基づいて、人物の状況を判断することにより、ベッド上の人物の状態を正確に判断することができる。
また、上述の見守り装置は、さらに、前記3次元ブロックを追跡することにより、前記ベッドの外に位置する前記3次元ブロックの出現、消失、分離または統合を判定するトラッキング処理部を備え、前記状況判断部は、さらに、前記トラッキング処理部の判断結果に基づいて、前記人物の前記ベッドが設置してある部屋への入室もしくは退室、または前記ベッドからの離床もしくは前記ベッドへの入床を判断してもよい。
この構成によると、3次元ブロックを追跡することにより、ベッド外で生じる事象も検出することができる。このため、人物の部屋からの入退出や、離床または入床を、介護者に通知することができる。
また、前記状況判断部は、さらに、ベッド上の前記移動体ブロックを所定間隔でスライスした各スライス面における前記移動体ブロックの重心位置に基づいて、前記人物の体軸を検出し、当該体軸の角度に基づいて前記人物の起き上がりを判断してもよい。
この構成によると、移動体ブロックから人物の体軸を簡易な方法で求めることができる。このため、体軸の角度から人物が起き上がっているか否かを正確に判断することができる。
また、前記状況判断部は、前記体軸の角度と前記人物のベッド上での位置とに基づいて、前記人物の端座位を判断してもよい。
この構成によると、簡易かつ正確な方法で、人物がベッドの端に座っているか否かを判断することができる。
また、前記状況判断部は、前記移動体ブロック抽出部が抽出した前記移動体ブロックのベッドからはみ出した領域のサイズに基づいて、前記人物のベッドからのはみ出しを判断してもよい。
この構成によると、簡単かつ正確な方法で、人物がベッドからはみ出しているか否かを判断することができる。
また、前記状況判断部は、前記人物のベッドからのはみ出しを検出した場合であって、かつ、前記ベッドを含む領域であって、前記ベッドよりも大きいサイズの領域から、前記人物に対応する前記移動体ブロックがはみ出した場合に、前記はみ出しを外部に通知してもよい。
この構成によると、人物がベッドから少しはみ出したぐらいでは外部に通知されず、人物が大きくベッドからはみ出した場合に外部に通知される。このため、ベッドからの転落の恐れがない場合にまで外部に通知されるのを防止し、ベッドからの転落の恐れがある場合にのみ人物のはみ出しを通知することができる。
また、前記見守り装置は、さらに、前記3次元処理部が決定した前記3次元座標のうち、地面から所定範囲内の高さの前記3次元座標を除去する地面座標除去部を備え、前記3次元ブロック生成部は、前記地面座標除去部により除去された後の残りの前記3次元座標に基づいて、前記3次元ブロックを生成し、前記見守り装置は、さらに、前記3次元ブロック生成部が生成した前記3次元ブロックのうち、体積が最大の前記3次元ブロックを、前記ベッドを示す前記3次元ブロックであるベッドブロックとして特定するベッド特定部を備え、前記ベッド特定部は、さらに、前記ベッドブロックの水平面への投影領域に直線を当てはめることにより前記ベッドの領域を特定してもよい。
この構成によると地面の近くの3次元座標が除去された上で、3次元ブロックが生成される。なお、ベッドは地面からある程度離れているため、ベッドに対応する3次元ブロックは除去されない。このため、ベッド上の人物を見守り対象としている場合には、3次元ブロック生成部が生成した3次元ブロックのうち、ベッドに対応する3次元ブロックが最大の体積を有することになる。このため、ベッドの位置を正確に特定することができる。また、ベッドは、通常矩形であるため、ベッドブロックの水平面への投影領域に直線を当てはめることにより、正確にベッドの領域を特定することができる。
なお、本発明は、このような特徴的な処理部を備える見守り装置として実現することができるだけでなく、見守り装置に含まれる特徴的な処理部が実行する処理をステップとする見守り方法として実現することができる。また、見守り装置に含まれる特徴的な処理部としてコンピュータを機能させるための見守りプログラムまたは見守り方法に含まれる特徴的なステップをコンピュータに実行させる見守りプログラムとして実現することもできる。そして、そのようなプログラムを、CD−ROM(Compact Disc-Read Only Memory)等のコンピュータ読取可能な非一時的な記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。また、本発明は、見守り装置の一部又は全部を実現する半導体集積回路として実現したり、見守り装置を含む見守りシステムとして実現したりすることもできる。
本発明によると、ベッド上の人物の状態を正確に判断することができる。
本発明の実施の形態に係る見守り装置の適用例について説明するための図である。 見守り装置の構成を示すブロック図である。 見守り装置の設置位置を説明するための図である。 見守り装置が実行する処理の流れを示すフローチャートである。 距離画像の一例を示す図である。 煽り角θの算出方法について説明するための図である。 3次元ブロックの生成処理(図4のS4)を説明するための図である。 ベッドの3次元ブロックおよびベッドの領域を特定する処理(図4のS5)を説明するための図である。 移動体検出処理(図4のS6)を説明するための図である。 移動体検出処理(図4のS6)を説明するための他の図である。 抽出した移動体ブロックの一例を示す図である。 移動体ブロックをxy平面に投影した領域を示す図である。 トラッキング処理部による判定処理(図4のS9)を説明するための図である。 トラッキング処理部による判定処理(図4のS9)を説明するための他の図である。
[本願発明の実施形態の詳細]
以下、本発明の実施の形態について、図面を用いて詳細に説明する。なお、以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。本発明は、特許請求の範囲によって特定される。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。
図1は、本発明の実施の形態に係る見守り装置の適用例について説明するための図である。
見守り装置10は、老人ホーム、介護施設または病院などの見守りの対象者24が居住する部屋20に設置され、対象者24の状況を判断することにより、対象者24を見守る。例えば、見守り装置10は、部屋20の壁などに設置され、部屋20に設置されたベッド22に寝ている対象者24を見守り、対象者24がベッド22から起き上がった、または、対象者24がベッド22からはみ出したなどの、対象者24の状況を判断する。見守り装置10は、これらの判断結果を、外部の端末装置に通知する。例えば、見守り装置10は、介護施設の管理事務所や病院のナースステーションに設置された管理用のコンピュータに、判断結果の情報を送信する。
図2は、見守り装置10の構成を示すブロック図である。
見守り装置10は、距離測定部11と、3次元処理部12と、地面座標除去部13と、3次元ブロック生成部14と、ベッド特定部15と、トラッキング処理部16と、移動体領域検出部17と、移動体ブロック抽出部18と、状況判断部19とを備える。
距離測定部11は、被写体までの距離を複数の箇所で測定することにより、各画素の輝度値が被写体までの距離を示す距離画像を生成する。つまり、距離測定部11は、カメラの前面に規則的に配置された複数のLED(Light Emitting Diode)と、レンズとを含むカメラであり、複数のLEDから一斉に照射された光が、被写体で反射され、反射された光(例えば、近赤外光)がレンズによって集光される。この時、LEDが光を出射してからレンズに反射光が到達するまでの時間は被写体の位置により異なる。つまり、被写体がカメラに近いほど反射光の到達時間は短くなり、被写体がカメラから遠いほど反射光の到達時間は長くなる。距離測定部11は、到達時間を画素毎に計測することにより、被写体までの距離を画素ごとに出力する。つまり、距離測定部11は、被写体までの距離を画素における輝度値で表した距離画像を出力する。見守り装置10の設置位置、つまり、見守り装置10の地面からの高さおよび煽り角は、ベッド22を含むエリアを被写体とするように決定されている。
図3は、見守り装置10の設置位置を説明するための図である。見守り装置10は、図3に示す3次元空間中に設置される。xz平面は水平面であり、y軸は垂直軸である。また、距離測定部11のレンズの中心軸はyz平面と平行である。見守り装置10の煽り角(水平面からの傾き)はθであり、見守り装置10の地面からの高さはhである。また、見守り装置10の地面への投影点から所定距離(例えば、2.5m)離れた地面上の点を原点O(0,0,0)とする。
3次元処理部12は、距離測定部11が生成した距離画像に基づいて、被写体の3次元座標を決定する。つまり、3次元処理部12は、見守り装置10の地面からの高さhおよび煽り角θに基づいて、距離画像より得られる見守り装置10から被写体までの距離データをアフィン変換することにより、図3で説明した3次元空間中での3次元座標を計算する。
地面座標除去部13は、3次元処理部12が決定した3次元座標のうち、地面から所定範囲内の高さの3次元座標を除去する。
3次元ブロック生成部14は、3次元処理部12が決定した3次元座標に基づいて、所定の距離範囲内にある3次元座標同士に同一のラベルを付けるラベリング処理を施すことで、同一のラベルの3次元座標を同一のブロックとする3次元ブロックを生成する。なお、地面座標除去部13によって地面から所定範囲内の高さの3次元座標が除去された後の3次元座標を、処理対象の3次元座標とすることができる。
ベッド特定部15は、3次元ブロック生成部14が生成した3次元ブロックのうち、体積が最大の3次元ブロックを、ベッド22を示す3次元ブロックであるベッドブロックとして特定する。また、ベッド特定部15は、ベッドブロックの水平面(xz平面)への投影領域に直線を当てはめることによりベッド22の領域を特定する。
トラッキング処理部16は、3次元ブロック生成部14が生成した3次元ブロックを追跡することにより、ベッド22の外に位置する3次元ブロックの出現、消失、分離または統合を判定する。これらの判定方法については後述する。
移動体領域検出部17は、距離測定部11が生成した所定時間離れた2フレームの距離画像間で、画素毎に時間的に前のフレームの距離から時間的に後のフレームの距離を減算することにより距離の差分を算出し、当該差分が所定の閾値以上の画素からなる領域を移動体領域として検出する。
移動体ブロック抽出部18は、移動体領域検出部17が検出した移動体領域に対応する3次元ブロック内の領域を移動体ブロックとして抽出する。
状況判断部19は、移動体ブロック抽出部18が抽出した移動体ブロックに係る物理量に基づいて、対象者24の状況を判断する。また、状況判断部19は、トラッキング処理部16の判断結果に基づいて、人物の部屋20への入室もしくは退室、またはベッドからの離床もしくはベッドへの入床を判断する。ここでいう人物は、対象者24の場合もあるし、対象者24以外の人物である場合もある。なお、状況判断部19は、さらに、判断結果を外部に通知する。
図4は、見守り装置10が実行する処理の流れを示すフローチャートである。
距離測定部11は、ベッド22を含むエリアを被写体として、被写体までの距離を示す距離画像を生成する(S1)。図5は、距離画像の一例を示す図であり、図5(a)は、対象者24がベッド22に寝ている状況における距離画像を示している。図5(a)は、介護者が対象者24をベッド22から起こした状況における距離画像を示している。距離画像において、見守り装置10からの距離が遠いほど輝度値が大きく(輝度が明るく)、見守り装置10からの距離が近いほど輝度値が小さい(輝度が暗い)ものとする。図5(b)に示すように前側の立っている人物の方が、後ろ側のベッド22に座っている人物よりも輝度値が小さくなっていることが分かる。
3次元処理部12は、距離測定部11が生成した距離画像に基づいて、被写体の3次元座標を決定する(S2)。3次元座標の決定方法については上述した通りである。その際、見守り装置10の煽り角θが未知の場合には、煽り角θを算出しながら3次元座標を決定してもよい。つまり、煽り角θを所定角度ずつ変化させながら3次元座標を決定し、後述する評価関数に従い煽り角θを算出してもよい。
図6を用いて、煽り角θの算出方法について説明する。なお、図6では、ベッド22の代わりにソファーを被写体としている。図6(a)は、煽り角θ=0°としたときにxy平面に投影された被写体像と、その時の被写体のy座標のヒストグラムとを示す。3次元処理部12は、煽り角θを所定角度ずつ変化させながら、それぞれの煽り角θにおける被写体の3次元座標について、被写体のy座標のヒストグラムを算出する。図6(b)〜図6(d)は、その一例を示す。図6(b)、図6(c)および図6(d)の各々は、煽り角θを23.4°、46.6°および50.0°としたときの、xy平面に投影された被写体像と、被写体のy座標のヒストグラムとを示す。ここで、ヒストグラムにおける最大度数と、最大度数に対応したy座標以外のy座標における度数の平均との差を評価関数とし、評価関数が最大になるときの煽り角θを見守り装置10の煽り角と決定する。また、その時の3次元座標を、被写体の3次元座標と決定する。図6(a)のように、実際の煽り角θからずれた煽り角θに基づいてy座標のヒストグラムを作成すると、地面であってもy座標が一定の値にならないため、評価関数の値が小さくなる。その一方、図6(c)のように、実際の煽り角θと算出した煽り角θとが一致した場合には、地面やソファーなどの面が水平面であることから、y座標のヒストグラムにおいてピークが生じする。このため、評価関数の値が最大になる。なお、上述の評価関数は一例であり、見守り装置10の煽り角θを求めることができる関数であれば、どのような関数であってもよい。
地面座標除去部13は、ステップS2において3次元処理部12が決定した3次元座標のうち、地面から所定範囲内の高さの3次元座標を除去する(S3)。例えば、煽り角θがθ=46.6°と決定されたとすると、図6(c)に示す、その時のy座標のヒストグラムから、y座標の最低位置30を求め、最低位置30から所定距離(例えば、50cm)以内の高さを有する3次元座標を、地面の3次元座標とみなして除去する。
3次元ブロック生成部14は、地面の3次元座標が除去された後の3次元座標に基づいて、所定の距離範囲内にある3次元座標同士に同一のラベルを付けるラベリング処理を施すことで、同一のラベルの3次元座標を同一のブロックとする3次元ブロックを生成する(S4)。
図7は、3次元ブロックの生成処理(図4のS4)を説明するための図である。図7(a)は、距離測定部11が生成した距離画像の一例を示す図である。3次元ブロック生成部14は、距離画像上で図7(b)に示すマスクを走査する。図7(b)では、注目画素をIで示し、注目画素Iの隣接画素をA〜Dで示している。つまり、3次元ブロック生成部14は、あるマスク位置において、注目画素Iに対応する3次元座標(XI,YI,ZI)と隣接画素Aに対応する3次元座標(XA,YA,ZA)との3次元空間における距離を算出する。算出した距離が所定の距離範囲内(例えば、5cm以内)であれば、注目画素Iと隣接画素Aとに同一のラベルを付す。同様の処理を注目画素Iと隣接画素B、注目画素Iと隣接画素C、注目画素Iと隣接画素Dとの間でも行う。3次元ブロック生成部14は、すべての走査位置において、同様の距離算出とラベル付けとを実行する。図7(c)は、ラベル付けの結果を示し、4つの3次元ブロック41〜44が生成されている。
ベッド特定部15は、3次元ブロック生成部14が生成した3次元ブロックのうち、体積が最大の3次元ブロックを、ベッド22を示す3次元ブロックであるベッドブロックとして特定する。また、ベッド特定部15は、ベッドブロックの水平面(xz平面)への投影領域に直線を当てはめることによりベッド22の領域を特定する(S5)。
図8は、ベッド22の3次元ブロックおよびベッド22の領域を特定する処理(図4のS5)を説明するための図である。図8に示すように3次元ブロック41〜44のうち、最大の体積を有する3次元ブロック42が、ベッド22を示す3次元ブロックとして特定される。また、3次元ブロック42の水平面(xz平面)への投影領域に直線を当てはめることによりベッド領域45が特定される。
移動体領域検出部17は、距離測定部11が生成した所定時間(例えば、10秒間)離れた2フレームの距離画像間で、画素毎に時間的に前のフレームの距離から時間的に後のフレームの距離を減算することにより距離の差分を算出し、当該差分が所定の閾値以上の画素からなる領域を移動体領域として検出する(S6)。
図9は、移動体検出処理(図4のS6)を説明するための図である。図9(a)は、(i−1)フレームの距離画像の一例を示し、図9(b)は、(i−1)フレームから所定時間(例えば、10秒間)離れたiフレームの距離画像の一例を示す。移動体領域検出部17は、(i−1)フレームの距離画像とiフレームの距離画像との距離の差分を画素毎に行う。つまり、移動体領域検出部17は、画素ごとに、(i−1)フレームの距離からiフレームの距離を引いた値を算出する。移動体領域検出部17は、算出した値(距離の差分)が所定の差分閾値(例えば、5cm)以上ある画素を抽出することにより、差分二値画像を生成する。これにより、見守り装置10の方に差分閾値以上近づいてくる領域を抽出することができる。図9(c)は、差分二値画像の一例を示す図であり、算出した値が所定の差分閾値以上の画素を、白色で示している。図9(c)では、対象者24がベッド22から起き上がろうとする状況を示しており、主に対象者24の上半身が移動体領域51として検出されている。
図10は、移動体検出処理(図4のS6)を説明するための他の図である。図10(a)は、(i−1)フレームの距離画像の一例を示し、図10(b)は、(i−1)フレームから所定時間(例えば、10秒間)離れたiフレームの距離画像の一例を示す。図10(c)は、図9(c)を参照して説明したのと同様の方法により生成した差分二値画像の一例を示す図である。図10(c)では、ベッド22の布団の一部がまくられた状況を示しており、主に対象者24の下半身の部分が移動体領域52として検出されている。
移動体ブロック抽出部18は、移動体領域検出部17が検出した移動体領域に対応する3次元ブロック内の領域を移動体ブロックとして抽出する(S7)。例えば、図10(c)に示した移動体領域52に対応する3次元ブロックを3次元ブロック生成部14から抽出し、抽出した3次元ブロックのうち、移動体領域52に対応する領域を移動体ブロックとして抽出する。図11は、抽出した移動体ブロック53の一例を示す図であり、移動体ブロック53を周囲とは異なる色で示している。
状況判断部19は、移動体ブロック抽出部18が抽出した移動体ブロックに係る物理量に基づいて、人物の状況を判断する(S8)。つまり、状況判断部19は、移動体ブロックに係る物理量に基づいて、対象者24のベッド22からの起き上がりと、対象者24の端座位と、対象者24のベッド22からのはみ出しとを検出する。
図12を用いて、状況判断部19による対象者24の起き上がりと端座位との検出方法を説明する。図12は、移動体ブロック61をxy平面に投影した領域を示す図である。状況判断部19は、移動体ブロック61のz座標が最大の点を基準点として、当該基準点から所定間隔(例えば、5cm間隔)のxy平面に平行な面で移動体ブロック61をスライスする。図12では、スライス面62を破線で示している。状況判断部19は、各スライス面62において移動体ブロック61の重心位置を求める。状況判断部19は、重心位置の3次元空間中における回帰直線を最小二乗法により算出し、算出した回帰直線を対象者24の体軸63とする。状況判断部19は、体軸63とスライス面62とのなす角αを算出する。また、状況判断部19は、移動体ブロック61のサイズ情報(例えば、各スライス面62における移動体ブロック61の面積および幅、ならびに移動体ブロック61の高さ)を算出する。状況判断部19は、移動体ブロック61のサイズ情報に基づいて、移動体ブロック61が人物の移動体ブロック61か否かを判断する。例えば、移動体ブロック61の面積が所定面積範囲内であり、移動体ブロック61の幅が所定幅範囲内であり、かつ移動体ブロック61の高さが30cm以上である場合に、移動体ブロック61は人物の移動体ブロック61であると判断してもよい。これにより、例えば、布団のようなある程度、面積及び幅が大きく、高さが小さい物体を排除することができる。状況判断部19は、人物の移動体ブロック61について、上述の角αが第1角度閾値(例えば、45°)以上であれば、対象者24が起き上がっていると判断する。つまり、対象者24の起き上がりを検出する。
また、状況判断部19は、角αが第2角度閾値(例えば、75°)以上であり、かつ、移動体ブロック61がベッド端エリアにあれば、対象者24が、ベッド端に座っていると判断する。つまり、対象者24の端座位を検出する。ここで、ベッド端エリアとは、例えば、ベッド22の端からベッドの中心に向かって、40cm以内のエリアである。
また、状況判断部19は、移動体ブロック61のxz平面への投影領域のうち、ベッド22の領域からはみ出した領域のサイズに基づいて、はみ出した領域が足の領域か否かを判断する。例えば、はみ出した領域の時間変化量(2秒間におけるはみ出し領域の面積の変化量)が所定変化閾値(例えば、500cm)以上であり、はみ出した領域の長手方向の長さが所定の第1長さ閾値(例えば、100cm)以下であり、かつ、はみ出した領域の短手方向(長手方向に直交する方向)の長さが第2長さ閾値(例えば、30cm以下)であれば、はみ出した領域が足の領域であると判断し、対象者24のベッド22からのはみ出しを検出する。なお、はみ出した領域が上記条件を満たさない場合には、状況判断部19は、布団などがはみ出したと判断する。
トラッキング処理部16は、3次元ブロック生成部14が生成した3次元ブロックを追跡することにより、ベッド22の外に位置する3次元ブロックの出現、消失、分離または統合を判定する(S9)。
図13は、トラッキング処理部16による判定処理(図4のS9)を説明するための図である。図13(a)および図13(b)の左側に(n−1)フレーム目の3次元ブロックの水平面(xz平面)へ投影した画像を示し、図13(a)および図13(b)の右側にnフレーム目の3次元ブロックの水平面(xz平面)へ投影した画像を示す。また、各画像のA〜Dは、3次元ブロックの投影領域を示す。ここで、3次元ブロックBは、ベッド22の3次元ブロックであるものとする。図13(a)に示すように、(n−1)フレームの画像には、3つの3次元ブロックA〜Cが含まれ、nフレームの画像には、4つの3次元ブロックA〜Dが含まれる。トラッキング処理部16は、(n−1)フレームの画像に含まれる3次元ブロックA〜Cを基準として、各3次元ブロックに最も距離が近い3次元ブロックをnフレームの画像の中から探し、3次元ブロックの対応付けを行う。すると、(n−1)フレームの3次元ブロックA〜Cは、nフレームの3次元ブロックA〜Cにそれぞれ対応付けられる。なお、対応関係にある3次元ブロックを矢印で示している。次に、図13(b)に示すように、トラッキング処理部16は、nフレームの3次元ブロックA〜Dを基準として、各3次元ブロックに最も距離が近い3次元ブロックを(n−1)フレームの画像の中から探し、3次元ブロックの対応付けを行う。すると、nフレームの3次元ブロックA〜Cは、(n−1)フレームの3次元ブロックA〜Cに対応付けられ、nフレームの3次元ブロックDは、(n−1)フレームの3次元ブロックBに対応付けられる。図13(a)の判断結果によると、nフレームには、3次元ブロックDが含まれるが、3次元ブロックDは、いずれの3次元ブロックにも対応付けられていない。また、図13(b)の判断結果によると、3次元ブロックDは、3次元ブロックBに対応づけられている。このため、3次元ブロックDは、3次元ブロックBから分離したか、新たに出現したと考えられる。トラッキング処理部16は、3次元ブロックDが、ベッド22の3次元ブロックBに対応付けられていることより、3次元ブロックDは、3次元ブロックBから分離したと判断する。これは、ベッド22上の人物がベッド22外に移動したと判断することができるためである。なお、3次元ブロックDがベッド22以外の3次元ブロック(例えば、3次元ブロックC)と対応付けられた場合には、トラッキング処理部16は、3次元ブロックBが新たに出現したと判断する。
図14は、トラッキング処理部16による判定処理(図4のS9)を説明するための他の図である。図14は、図13と同様に、(n−1)フレーム目およびnフレーム目の3次元ブロックの水平面(xz平面)へ投影した画像を示している。図14(a)に示すように、(n−1)フレームの画像には、4つの3次元ブロックA〜Dが含まれ、nフレームの画像には、3つの3次元ブロックA〜Cが含まれる。トラッキング処理部16は、(n−1)フレームの画像に含まれる3次元ブロックA〜Dを基準として、各3次元ブロックに最も距離が近い3次元ブロックをnフレームの画像の中から探し、3次元ブロックの対応付けを行う。すると、(n−1)フレームの3次元ブロックA〜Cは、nフレームの3次元ブロックA〜Cにそれぞれ対応付けられる。また、(n−1)フレームの3次元ブロックDは、nフレームの3次元ブロックBに対応付けられる。次に、図14(b)に示すように、トラッキング処理部16は、nフレームの画像に含まれる3次元ブロックA〜Cを基準として、各3次元ブロックに最も距離が近い3次元ブロックを(n−1)フレームの画像の中から探し、3次元ブロックの対応付けを行う。すると、nフレームの3次元ブロックA〜Cは、(n−1)フレームの3次元ブロックA〜Cに対応付けられる。図14(a)の判断結果によると、3次元ブロックBおよびDのいずれか一方が消失したか、3次元ブロックBおよびDが統合して、3次元ブロックBになったかのいずれかと考えられる。これに加え、図14(b)の判断結果によると、(n−1)フレームの3次元ブロックBとnフレームの3次元ブロックBとが対応付けられているため、3次元ブロックDが消失したか、3次元ブロックDが3次元ブロックBに統合されたかのいずれかと判断することができる。トラッキング処理部16は、3次元ブロックDがベッド22の3次元ブロックBに対応付けられていることより、3次元ブロックDが3次元ブロックBに統合したと判断する。これは、ベッド22外の人物がベッド22内に移動したと判断することができるためである。なお、3次元ブロックDがベッド22以外の3次元ブロック(例えば、3次元ブロックC)と対応付けられた場合には、トラッキング処理部16は、3次元ブロックDが消失したと判断する。
状況判断部は、トラッキング処理部16の判断結果に基づいて、人物の状況を判断する(S10)。つまり、状況判断部19は、トラッキング処理部16の判断結果に基づいて、人物の部屋20への入室もしくは退室、またはベッド22からの離床もしくはベッド22への入床を検出する。トラッキング処理部16が3次元ブロックが出現したと判断した場合には、状況判断部19は、3次元ブロックに対応する人物の部屋20への入出を検出する。また、トラッキング処理部16が3次元ブロックが消失したと判断した場合には、状況判断部19は、3次元ブロックに対応する人物の部屋20からの退出を検出する。また、トラッキング処理部16が3次元ブロックがベッド22の3次元ブロックに統合したと判断した場合には、状況判断部19は、3次元ブロックに対応する人物のベッド22への入床を検出する。また、トラッキング処理部16が3次元ブロックがベッド22の3次元ブロックから分離したと判断した場合には、状況判断部19は、3次元ブロックに対応する人物のベッド22からの離床を検出する。
状況判断部19は、ステップS8の処理で、対象者24のベッド22からの起き上がり、対象者24の端座位または対象者24のベッド22からのはみ出しを検出した場合、または、ステップS10の処理で、人物の入室、退室、入床もしくは離床を検出した場合には、これらの検出結果(状況判断結果)の情報を、管理用のコンピュータなどの外部の端末装置に送信する(S11)。なお、ベッド22からのはみ出しを検出した際には、すぐに端末装置に検出結果を送信するのではなく、一定の基準を満たした場合に、検出結果を送信するようにしてもよい。例えば、ベッド22の領域を第1領域とし、第1領域をすべて含み、第1領域よりも面積の大きい第2領域を設定する。状況判断部19が、対象者24のベッド22からのはみ出しを検出し、かつ、対象者24が第2領域からはみ出した場合に、検出結果を端末装置に送信するようにしてもよい。
以上説明したように、本実施の形態によると、距離画像のフレーム間差分により移動体領域を検出している。通常の画像のフレーム間差分では、輝度の変化領域を検出するため、例えば、カーテンの揺れのような輝度の変化が生じている領域を検出することがある。しかし、距離画像を用いることにより、人物が実際に移動している領域を移動体領域として検出することができる。よって、正確な移動体領域を検出することができる。また、このようにして検出された移動体領域を3次元ブロックに重ね合わせることにより、移動体ブロックを抽出している。このため、3次元空間における移動体ブロックを正確に抽出することができる。このようにして抽出された移動体ブロックに係る物理量に基づいて、人物の状況を判断することにより、ベッド22上の対象者24の状態を正確に判断することができる。
また、3次元ブロックを追跡することにより、ベッド22外で生じる事象も検出することができる。このため、人物の部屋からの入退出や、離床または入床を、介護者に通知することができる。
また、移動体ブロックのスライス面での重心位置に基づいて、対象者24の体軸を最小二乗法を用いて求めている。よって、移動体ブロックから対象者24の体軸を簡易な方法で求めることができる。このため、体軸の角度から対象者24が起き上がっているか否かを正確に判断することができる。
また、体軸の角度と対象者24のベッド22上での位置とに基づいて対象者24がベッド22の端に座っているか否かを判断することができる。
また、対象者24がベッド22からはみ出した領域のサイズに基づいて、対象者24のベッド22からのはみ出しを判断している。このため、簡単かつ正確な方法で、対象者24がベッド22からはみ出しているか否かを判断することができる。
また、ベッド22の領域よりも大きい第2領域から対象者24がはみ出した際に、はみ出しを外部の端末装置に通知するようにしている。よって、対象者24がベッド22から少しはみ出したぐらいでは外部に通知されず、対象者24が大きくベッド22からはみ出した場合に外部に通知される。このため、ベッドからの転落の恐れがない場合にまで外部に通知されるのを防止し、ベッドからの転落の恐れがある場合にのみ対象者24のはみ出しを通知することができる。
また、地面の近くの3次元座標が除去された上で、3次元ブロックが生成される。なお、ベッド22は地面からある程度離れているため、ベッド22に対応する3次元ブロックは除去されない。このため、ベッド22上の対象者24を見守り対象としている場合には、3次元ブロック生成部14が生成した3次元ブロックのうち、ベッド22に対応する3次元ブロックが最大の体積を有することになる。このため、ベッド22の位置を正確に特定することができる。また、ベッド22は、通常矩形であるため、ベッドブロックの水平面への投影領域に直線を当てはめることにより、正確にベッドの領域を特定することができる。
なお、上記の見守り装置10は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクドライブ、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムとして構成されてもよい。RAMまたはハードディスクドライブには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、見守り装置10は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
さらに、上記の見守り装置10を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
さらにまた、上記の見守り装置10を構成する構成要素の一部または全部は、見守り装置10に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
また、本発明は、上記に示す方法であるとしてもよい。また、本発明は、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
さらに、本発明は、上記コンピュータプログラムまたは上記デジタル信号をコンピュータ読取可能な非一時的な記録媒体、例えば、フレキシブルディスク、ハードディスクドライブ、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray(登録商標) Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの非一時的な記録媒体に記録されている上記デジタル信号であるとしてもよい。
また、本発明は、上記コンピュータプログラムまたは上記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、上記メモリは、上記コンピュータプログラムを記憶しており、上記マイクロプロセッサは、上記コンピュータプログラムに従って動作するとしてもよい。
また、上記プログラムまたは上記デジタル信号を上記非一時的な記録媒体に記録して移送することにより、または上記プログラムまたは上記デジタル信号を上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
本発明は、老人ホーム、介護施設または病院などの見守り対象者の行動を見守る見守り装置等に用いると有益である。
10 見守り装置
11 距離測定部
12 3次元処理部
13 地面座標除去部
14 3次元ブロック生成部
15 ベッド特定部
16 トラッキング処理部
17 移動体領域検出部
18 移動体ブロック抽出部
19 状況判断部
20 部屋
22 ベッド
24 対象者
30 最低位置
41〜44 3次元ブロック
45 ベッド領域
51、52 移動体領域
53、61 移動体ブロック
62 スライス面
63 体軸

Claims (8)

  1. ベッド上の人物を見守る見守り装置であって、
    被写体までの距離を複数の箇所で測定することにより、各画素の輝度値が前記被写体までの距離を示す距離画像を生成する距離測定部と、
    前記距離測定部が生成した前記距離画像に基づいて、前記被写体の3次元座標を決定する3次元処理部と、
    前記3次元処理部が決定した前記3次元座標に基づいて、所定の距離範囲内にある3次元座標同士に同一のラベルを付けるラベリング処理を施すことで、3次元ブロックを生成する3次元ブロック生成部と、
    前記距離測定部が生成した所定時間離れた2フレームの前記距離画像間で、画素毎に時間的に前のフレームの距離から時間的に後のフレームの距離を減算することにより距離の差分を算出し、当該差分が所定の閾値以上の画素からなる領域を移動体領域として検出する移動体領域検出部と、
    前記移動体領域検出部が検出した前記移動体領域に対応する前記3次元ブロック内の領域を移動体ブロックとして抽出する移動体ブロック抽出部と、
    前記移動体ブロック抽出部が抽出した前記移動体ブロックに係る物理量に基づいて、前記人物の状況を判断し、判断結果を外部に通知する状況判断部と
    を備え
    前記状況判断部は、さらに、ベッド上の前記移動体ブロックを所定間隔でスライスした各スライス面における前記移動体ブロックの重心位置に基づいて、前記人物の体軸を検出し、当該体軸の角度に基づいて前記人物の起き上がりを判断する見守り装置。
  2. 前記見守り装置は、さらに、前記3次元ブロックを追跡することにより、前記ベッドの外に位置する前記3次元ブロックの出現、消失、分離または統合を判定するトラッキング処理部を備え、
    前記状況判断部は、さらに、前記トラッキング処理部の判断結果に基づいて、前記人物の前記ベッドが設置してある部屋への入室もしくは退室、または前記ベッドからの離床もしくは前記ベッドへの入床を判断する
    請求項1に記載の見守り装置。
  3. 前記状況判断部は、前記体軸の角度と前記人物のベッド上での位置とに基づいて、前記人物の端座位を判断する
    請求項1または請求項2に記載の見守り装置。
  4. 前記状況判断部は、前記移動体ブロック抽出部が抽出した前記移動体ブロックのベッドからはみ出した領域のサイズに基づいて、前記人物のベッドからのはみ出しを判断する
    請求項1〜請求項のいずれか1項に記載の見守り装置。
  5. 前記状況判断部は、前記人物のベッドからのはみ出しを検出した場合であって、かつ、前記ベッドを含む領域であって、前記ベッドよりも大きいサイズの領域から、前記人物に対応する前記移動体ブロックがはみ出した場合に、前記はみ出しを外部に通知する
    請求項に記載の見守り装置。
  6. ベッド上の人物を見守る見守り装置であって、
    被写体までの距離を複数の箇所で測定することにより、各画素の輝度値が前記被写体までの距離を示す距離画像を生成する距離測定部と、
    前記距離測定部が生成した前記距離画像に基づいて、前記被写体の3次元座標を決定する3次元処理部と、
    前記3次元処理部が決定した前記3次元座標に基づいて、所定の距離範囲内にある3次元座標同士に同一のラベルを付けるラベリング処理を施すことで、3次元ブロックを生成する3次元ブロック生成部と、
    前記距離測定部が生成した所定時間離れた2フレームの前記距離画像間で、画素毎に時間的に前のフレームの距離から時間的に後のフレームの距離を減算することにより距離の差分を算出し、当該差分が所定の閾値以上の画素からなる領域を移動体領域として検出する移動体領域検出部と、
    前記移動体領域検出部が検出した前記移動体領域に対応する前記3次元ブロック内の領域を移動体ブロックとして抽出する移動体ブロック抽出部と、
    前記移動体ブロック抽出部が抽出した前記移動体ブロックに係る物理量に基づいて、前記人物の状況を判断し、判断結果を外部に通知する状況判断部と
    を備え、
    前記見守り装置は、さらに、前記3次元処理部が決定した前記3次元座標のうち、地面から所定範囲内の高さの前記3次元座標を除去する地面座標除去部を備え、
    前記3次元ブロック生成部は、前記地面座標除去部により除去された後の残りの前記3次元座標に基づいて、前記3次元ブロックを生成し、
    前記見守り装置は、さらに、前記3次元ブロック生成部が生成した前記3次元ブロックのうち、体積が最大の前記3次元ブロックを、前記ベッドを示す前記3次元ブロックであるベッドブロックとして特定するベッド特定部を備え、
    前記ベッド特定部は、さらに、前記ベッドブロックの水平面への投影領域に直線を当てはめることにより前記ベッドの領域を特定す
    守り装置。
  7. ベッド上の人物を見守る見守り方法であって、
    被写体までの距離を複数の箇所で測定することにより、各画素の輝度値が前記被写体までの距離を示す距離画像を生成する距離測定ステップと、
    前記距離測定ステップにおいて生成された前記距離画像に基づいて、前記被写体の3次元座標を決定する3次元処理ステップと、
    前記3次元処理ステップにおいて決定された前記3次元座標に基づいて、所定の距離範囲内にある3次元座標同士に同一のラベルを付けるラベリング処理を施すことで、3次元ブロックを生成する3次元ブロック生成ステップと、
    前記距離測定ステップにおいて生成された所定時間離れた2フレームの前記距離画像間で、画素毎に時間的に前のフレームの距離から時間的に後のフレームの距離を減算することにより距離の差分を算出し、当該差分が所定の閾値以上の画素からなる領域を移動体領域として検出する移動体領域検出ステップと、
    前記移動体領域検出ステップにおいて検出された前記移動体領域に対応する前記3次元ブロック内の領域を移動体ブロックとして抽出する移動体ブロック抽出ステップと、
    前記移動体ブロック抽出ステップにおいて抽出された前記移動体ブロックに係る物理量に基づいて、前記人物の状況を判断し、判断結果を外部に通知する状況判断ステップと
    を含み、
    前記状況判断ステップでは、さらに、ベッド上の前記移動体ブロックを所定間隔でスライスした各スライス面における前記移動体ブロックの重心位置に基づいて、前記人物の体軸を検出し、当該体軸の角度に基づいて前記人物の起き上がりを判断する見守り方法。
  8. ベッド上の人物を見守るための見守りプログラムであって、
    被写体までの距離を複数の箇所で測定することにより、各画素の輝度値が前記被写体までの距離を示す距離画像を生成する距離測定部と、
    前記距離測定部が生成した前記距離画像に基づいて、前記被写体の3次元座標を決定する3次元処理部と、
    前記3次元処理部が決定した前記3次元座標に基づいて、所定の距離範囲内にある3次元座標同士に同一のラベルを付けるラベリング処理を施すことで、3次元ブロックを生成する3次元ブロック生成部と、
    前記距離測定部が生成した所定時間離れた2フレームの前記距離画像間で、画素毎に時間的に前のフレームの距離から時間的に後のフレームの距離を減算することにより距離の差分を算出し、当該差分が所定の閾値以上の画素からなる領域を移動体領域として検出する移動体領域検出部と、
    前記移動体領域検出部が検出した前記移動体領域に対応する前記3次元ブロック内の領域を移動体ブロックとして抽出する移動体ブロック抽出部と、
    前記移動体ブロック抽出部が抽出した前記移動体ブロックに係る物理量に基づいて、前記人物の状況を判断し、判断結果を外部に通知する状況判断部と
    してコンピュータを機能させ
    前記状況判断部は、さらに、ベッド上の前記移動体ブロックを所定間隔でスライスした各スライス面における前記移動体ブロックの重心位置に基づいて、前記人物の体軸を検出し、当該体軸の角度に基づいて前記人物の起き上がりを判断するための見守りプログラム。
JP2015203683A 2015-10-15 2015-10-15 見守り装置、見守り方法および見守りプログラム Active JP5870230B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015203683A JP5870230B1 (ja) 2015-10-15 2015-10-15 見守り装置、見守り方法および見守りプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015203683A JP5870230B1 (ja) 2015-10-15 2015-10-15 見守り装置、見守り方法および見守りプログラム

Publications (2)

Publication Number Publication Date
JP5870230B1 true JP5870230B1 (ja) 2016-02-24
JP2017076272A JP2017076272A (ja) 2017-04-20

Family

ID=55360957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015203683A Active JP5870230B1 (ja) 2015-10-15 2015-10-15 見守り装置、見守り方法および見守りプログラム

Country Status (1)

Country Link
JP (1) JP5870230B1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6910062B2 (ja) * 2017-09-08 2021-07-28 キング通信工業株式会社 見守り方法
JP2020109582A (ja) * 2019-01-07 2020-07-16 エイアイビューライフ株式会社 情報処理装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216160A (ja) * 2004-01-30 2005-08-11 Secom Co Ltd 画像生成装置、侵入者監視装置及び画像生成方法
WO2006030633A1 (ja) * 2004-09-15 2006-03-23 Matsushita Electric Industrial Co., Ltd. 物体検出装置
JP2009151359A (ja) * 2007-12-18 2009-07-09 Nippon Telegr & Teleph Corp <Ntt> 動物体追跡装置、動物体追跡方法及び動物体追跡プログラム並びに動物体追跡プログラムを記録した記録媒体
JP2011103037A (ja) * 2009-11-10 2011-05-26 Toshiba Corp 検出装置
JP2014149731A (ja) * 2013-02-01 2014-08-21 King Tsushin Kogyo Kk 離床監視システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216160A (ja) * 2004-01-30 2005-08-11 Secom Co Ltd 画像生成装置、侵入者監視装置及び画像生成方法
WO2006030633A1 (ja) * 2004-09-15 2006-03-23 Matsushita Electric Industrial Co., Ltd. 物体検出装置
JP2009151359A (ja) * 2007-12-18 2009-07-09 Nippon Telegr & Teleph Corp <Ntt> 動物体追跡装置、動物体追跡方法及び動物体追跡プログラム並びに動物体追跡プログラムを記録した記録媒体
JP2011103037A (ja) * 2009-11-10 2011-05-26 Toshiba Corp 検出装置
JP2014149731A (ja) * 2013-02-01 2014-08-21 King Tsushin Kogyo Kk 離床監視システム

Also Published As

Publication number Publication date
JP2017076272A (ja) 2017-04-20

Similar Documents

Publication Publication Date Title
JP6171415B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
US10095930B2 (en) System and method for home health care monitoring
JP6115335B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6167563B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6717235B2 (ja) 見守り支援システム及びその制御方法
JP6500785B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6150207B2 (ja) 監視システム
WO2016143641A1 (ja) 姿勢検知装置および姿勢検知方法
CN107072548B (zh) 用于人的取向和/或位置的自动检测的设备、系统和方法
US20160371950A1 (en) Information processing apparatus, information processing method, and program
JP6780641B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
EP2763116B1 (en) Fall detection system and method for detecting a fall of a monitored person
JP2018067203A (ja) 危険報知装置及び危険報知方法、並びに危険報知装置の校正方法
JP6119938B2 (ja) 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
JP5870230B1 (ja) 見守り装置、見守り方法および見守りプログラム
US20190012546A1 (en) Occupancy detection
KR101212383B1 (ko) 홈 헬스케어 모니터링 장치 및 방법
JP6645503B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP6607253B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP2019204366A (ja) 行動監視装置及び行動監視方法
JP6115689B1 (ja) 転倒検知装置および転倒検知方法ならびに被監視者監視装置
JP7500929B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2015175633A (ja) 立体抽出方法および立体抽出装置
JP6565468B2 (ja) 呼吸検知装置、呼吸検知方法、及び呼吸検知プログラム
JPWO2017203986A1 (ja) 情報処理装置、情報処理方法、プログラム、および見守りシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20151204

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160108

R150 Certificate of patent or registration of utility model

Ref document number: 5870230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250