JP6791731B2 - 姿勢判定装置及び通報システム - Google Patents

姿勢判定装置及び通報システム Download PDF

Info

Publication number
JP6791731B2
JP6791731B2 JP2016225872A JP2016225872A JP6791731B2 JP 6791731 B2 JP6791731 B2 JP 6791731B2 JP 2016225872 A JP2016225872 A JP 2016225872A JP 2016225872 A JP2016225872 A JP 2016225872A JP 6791731 B2 JP6791731 B2 JP 6791731B2
Authority
JP
Japan
Prior art keywords
posture
image
determination
subject
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016225872A
Other languages
English (en)
Other versions
JP2018082745A (ja
Inventor
大輔 櫛田
大輔 櫛田
卓也 空田
卓也 空田
小谷悠太
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tottori University
Original Assignee
Tottori University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tottori University filed Critical Tottori University
Priority to JP2016225872A priority Critical patent/JP6791731B2/ja
Publication of JP2018082745A publication Critical patent/JP2018082745A/ja
Application granted granted Critical
Publication of JP6791731B2 publication Critical patent/JP6791731B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Invalid Beds And Related Equipment (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、ベッド上における対象者の姿勢を判定する姿勢判定装置及びベッド上における対象者の姿勢を判定することで、ベッドから転落のおそれがある際等に通報する通報システムに関する。
入院している患者や高齢者がベッドから転落する事故が問題となっていることから、このような転落事故に関連する様々な技術が知られている。その一例として、ベッドの横に荷重を検出するセンサを配置し、センサで荷重が検出されると患者等の転落が生じたとして通報する装置や、ベッド上にセンサを配置し、荷重が検出されなくなると患者等の転落が生じたとして通報する装置が知られている。
また、本願の発明者自身が開発した技術として、特許文献1にある患者に取り付けたセンサにより姿勢情報を取得して、その姿勢情報に基づいて転落の危険度を算出するシステムが知られている。
しかしながら、ベッドの横に荷重センサを配置する装置は、誤報が多くまた荷重が検出された後で通報することから転落を防ぐことは難しい等の難点がある。また、ベッドの上に荷重センサを配置する装置は、体重の違いによる誤作動が生じやすく、また汗や水分等によるセンサの誤作動、故障が多い等の難点がある。また、特許文献1の患者自身にセンサを取り付ける方法は、患者自身が取り付けたセンサを不快に感じ、センサを勝手に取り外してしまったり、手術等の影響で適切な位置にセンサを取り付けることができない等の難点がある。
そこで、特許文献2にあるようにベッド上の患者の画像を取得して、その画像を基に姿勢を推定する装置が知られている。また、本願の発明者自身も、ベッド上の患者の画像を取得し、その画像を基に姿勢を判定する研究を行い、その内容について非特許文献1として既に発表を行っている。
特開2015−103042号公報 特開2014−236896号公報
「ビジョンセンサを用いた入院患者のベッド上における姿勢推定」、第24回計測自動制御学会中国支部学術講演会論文集、2015年、p.150−151
非特許文献1による姿勢判定は、ベッド上で掛け布団を使用していない状況で患者の姿勢を判定すると高い精度で判定できたが、掛け布団を使用している状況で患者の姿勢を判定すると掛け布団の影響で姿勢判定の精度が著しく低下してしまうという問題が見つかった。姿勢判定装置を実際の現場で使用することを想定すると、ベッド上の患者は通常掛け布団を使用しているので、この掛け布団による姿勢判定精度の低下という問題を解決することは非常に重要である。
そこで、本発明は、ベッド上で掛け布団を使用している様な状態でも精度よく患者等の姿勢を判定することができる姿勢判定装置及び危険なおそれがある際等に通報することができる通報システムに関する。
上記課題を解決するため、本発明の姿勢判定装置は、深度値により形成される判定画像を取得する判定画像取得手段と、前記深度値を用いて前記判定画像を一定距離毎の画像に区分けした区分画像により対象者の姿勢判定を行う姿勢判定手段と、を備えることを特徴とする。
また、前記姿勢判定手段は、前記区分画像から動きがある動体画像を検出する動体検出手段と、異なる前記区分画像の動体画像を合成して合成動体画像を形成する合成動体画像形成手段と、を備え、前記合成動体画像により前記対象者の姿勢を判定することを特徴とする。
また、前記姿勢判定手段は、前記合成動体画像について、テンプレート画像を用いたテンプレートマッチングを行うことで姿勢を判定するテンプレートマッチング手段を備えていることを特徴とする。
また、本発明の通報システムは、深度値により形成される判定画像を取得する判定画像取得手段と、前記深度値を用いて前記判定画像を一定距離毎の画像に区分けした区分画像により対象者の姿勢判定を行う姿勢判定手段と、前記姿勢判定手段による判定結果に基づいて通報を行うか否かの判定を行う通報判定手段と、前記通報判定手段の判定結果に基づいて通報を行う通報手段と、を備えることを特徴とする。
本発明の姿勢判定装置は、深度値により形成される判定画像を取得し、深度値を用いて一定距離毎の画像に区分けした区分画像により姿勢判定を行うので、ベッド上で対象者が使っている掛け布団のように対象者の姿勢判定に邪魔になるものが写っている判定画像において、邪魔なものがない区分画像を基にして姿勢判定を行うことができる。
また、具体的には、各区分画像から動体画像を検出し、異なる区分画像の動体画像を合成した合成動体画像で姿勢を判定するので、掛け布団のような邪魔なものが動体画像として検出されていても、掛け布団が検出されるまでの合成動体画像により対象者の姿勢を判定することができる。
また、具体的には、テンプレート画像を用いたテンプレートマッチングにより姿勢判定を行うので、精度よく高速に姿勢判定を行うことができる。
また、本発明の通報システムは、深度値により形成される判定画像を取得し、深度値を用いて一定距離毎の画像に区分けした区分画像により姿勢判定を行うので、ベッド上で対象者が使っている掛け布団のように対象者の姿勢判定に邪魔になるものが写っている判定画像において、邪魔なものがない区分画像を基にして姿勢判定を行うことができる。また本発明の通報システムは、姿勢判定の判定結果に基づいて通報を行うか否かの判定を行い、この判定結果に基づいて通報を行うので、例えば、病院や介護施設のように多くの判定対象者がいる施設での使用に適している。
実施形態1の姿勢判定装置のハードウェア構成を示すブロック図である。 実施形態1の姿勢判定装置の機能構成を示すブロック図である。 実施形態1の姿勢判定装置の使用例を示した図である。 比較例の姿勢判定装置の使用例を示した図である。 (A)は比較例の姿勢判定装置におけるDepthマップの一例であり、(B)は背景差分法により検出された対象者の画像の一例である。 (A)〜(D)は、比較例の姿勢判定装置における姿勢判定の手法の具体例である。 比較例の姿勢判定装置において、掛け布団が使用されている場合に検出される対象者の画像の一例である。 実施形態1の姿勢判定装置における区分の概念図である。 実施形態1の姿勢判定装置において区分毎に検出された姿勢P2での動体画像の一例である。 実施形態1の姿勢判定装置における合成動体画像形成手段とテンプレートマッチング手段での合成動体画像形成処理及び姿勢判定処理のフローチャートである。 実施形態1の姿勢判定装置における姿勢判定のイメージ図である。 実施形態1の姿勢判定装置を用いた検証における検証環境の条件である。 実施形態1の姿勢判定装置と比較例の姿勢判定装置における検証結果であり、(A)は掛け布団無しの検証結果、(B)は掛け布団有りの検証結果である。 実施形態2の通報システムの使用例を示した図である。
以下、本発明の具体例について図面を用いて詳細に説明する。但し、以下に示す実施形態は、本発明の技術的思想を具体化するための例示であって、本発明をこの実施形態に特定することを意図するものではなく、本発明は、特許請求の範囲に含まれるその他の実施形態にも等しく適応し得るものである。
[実施形態1]
まず、図1、図2を参照して、本実施形態の姿勢判定装置1の基本的な構成を説明する。図1は、姿勢判定装置1のハードウェア構成を示すブロック図であり、図2は、姿勢判定装置の機能構成を示すブロック図である。
姿勢判定装置1は、図1に示すように、入力部2、制御部3、記憶部4、出力部5、通信部6を備えている。
入力部2は、姿勢判定装置1で姿勢判定を行う対象者が含まる範囲について、深度値の情報により形成さる画像を取得するものであり、いわゆる距離画像センサと呼ばれるものである。本実施形態においては、具体的には、入力部2は、ベッド上の対象者を含む画像を取得するためのカメラ2aと、カメラ2aで撮影する画像内の被写体までの深度に関する深度情報を取得する深度センサ2bと、を備えて構成されている。このような構成の距離画像センサとして、Microsoft社製のKINECT(登録商標)が知られている。
なお、本実施形態において、このKINECTを用いて、深度値により形成さる画像を取得しているが、当然ながらこれ以外のものを用いても構わない。また、KINECTには音情報を取得するためのマイクロフォンが備わっている。したがって、このマイクロフォンを入力部2として用い、音情報を取得しても構わない。また、姿勢判定に音情報も活用できる場合には、KINECTに限らず入力部2としてマイクロフォンを含むこともできる。また、入力部2は、図示していないが、カメラ2a、深度センサ2bの他に、例えば、姿勢判定の対象者となる人の名前を入力する等、姿勢判定装置1への情報を入力するためのキーボードやタッチパネル等の入力装置を含んでいても構わない。
制御部3は、CPU、RAM、ROM等からなり、後述の姿勢判定を行うプログラム等、記憶されているプログラムに基づいて各種の処理を実行する。記憶部4は、DRAMやHDDのような記憶装置であり、入力部2で取得した画像データを一時的に記憶しておく等、
各種のデータ等を記憶しておく。出力部5は、表示装置やスピーカ等からなり、姿勢判定の結果等を映像や音を用い出力する。
通信部6は、インターネットやLAN等を介して携帯端末等の他の機器と通信を行うものである。この通信部6を介することで、姿勢判定装置1は姿勢判定の結果等を他の機器にも出力することができる。
このような姿勢判定装置1は、図2に示すように、判定画像取得手段10と、姿勢判定手段20と、判定結果出力手段30を備えている。判定画像取得手段10は、主に入力部2によって構成されており、姿勢の判定を行う対象者が含まれるとともに、深度値により形成される判定画像を取得する。
また、姿勢判定手段20は、主に制御部3や記憶部4によって構成されており、判定画像取得手段10を介して取得した判定画像について、その判定画像に含まれる深度値を用いて対象者の姿勢を判定する。とくに本実施形態における姿勢判定手段20は、深度値を用いて判定画像を一定距離毎の画像に区分けし、この区分画像を用いて対象者の姿勢を判定することを特徴としている。
このような姿勢判定を実現するための一例として、姿勢判定手段20は、更に、判定画像区分手段21と、動体検出手段22と、合成動体画像形成手段23と、テンプレートマッチング手段24を備えている。
詳細は具体例とともに後述するが、判定画像区分手段21は、判定画像取得手段10を介して取得した判定画像について、含まれている深度値を用いて一定距離毎の画像に区分けした区分画像を作成する。そして動体検出手段22は、この区分画像から動きがある動体画像を検出する。そして合成動体画像形成手段23は、異なる区分画像の動体画像同士を合成して合成動体画像を形成する。そしてテンプレートマッチング手段24は、合成動体画像を用い、各姿勢のテンプレートとのマッチングを行い合致する姿勢を対象者の姿勢として判定する。
つまり、本実施形態の姿勢判定手段20は、掛け布団による影響を排除するために、一定距離毎の区分画像をつくり、この区分画像から抽出した動体画像を順次合成して合成動体画像を形成して、テンプレートマッチングを行うことで、掛け布団が出現するまでの距離にある合成動体画像によって姿勢を判定する。
判定結果出力手段30は、主に出力部5によって構成されており、姿勢判定手段20により判定された対象者の姿勢結果についてモニタ等を用いて出力する。姿勢結果の出力については、例えば、上体を起こしている姿勢が判定された場合に、『上体を起こしている姿勢』であることがわかるように、文字で表示したり、音声で出力する。また、判定結果出力手段30は、判定した結果を随時出力するのではなく、対象者がベッド上から転落する可能性が高い姿勢を検出したときのみ出力するようにしてもよい。
このような構成の姿勢判定装置1について、次に実際の使用例を基に説明を行う。図3は、姿勢判定装置1の使用例を示した図である。姿勢判定装置1は、ベッドBを使用する対象者SのベッドB上での姿勢を、判定画像取得手段10により取得した画像を用いて判定する。
判定画像取得手段10を構成する入力部2の距離画像センサとして、先にも説明したようにMicrosoft社製のKINECT(登録商標)を用いた。この入力部2は、対象者Sを撮影する必要があるため、対象者Sの近傍に設置されるが、それ以外の姿勢判定手段20や判定結果出力手段30を構成するハードウェアに関しては、ベッドBが設置されている部屋とは異なる部屋に通常配置されている。例えば、病院内での使用を想定した場合には、入力部2は入院患者のベッド上に設置され、それ以外の構成については、ナースステーションのような場所に設置される。
なお、姿勢判定装置1は、姿勢判定手段20や判定結果出力30を構成するハードウェアについても、ベッドBが設置されている部屋に配置することもできる。この場合、判定結果出力手段30によって対象者Sが危険な状態であることを知らせる必要があるため、判定結果出力手段30は、警報音等、音声による出力が好ましい。
また、入力部2の設置場所は、例えば部屋の天井等に設置しても構わないが、本実施形態では図3に示しているように、ベッドBの頭部側に設置して、撮影面を対象者Sの足元に向けている。これは対象者Sの視界に入り難いベッドBの頭部側に設置することで、入力部2が視界に入って常に監視されているという対象者Sの心理的負担を軽減する為である。
判定画像取得手段10で取得された判定画像のデータは、姿勢判定装置1の姿勢判定手段20へと送られる。そして、判定画像取得手段10で取得された判定画像を基に、姿勢判定手段20により対象者Sの姿勢が判定されることになる。
ここで、本実施形態における姿勢判定手段20における姿勢判定の具体例を説明する前に、本願の発明者が先に非特許文献1で発表した姿勢判定の具体的内容について比較例としてまず説明を行う。
[比較例]
図4は、比較例となる姿勢判定装置1Aの使用例を示した図である。比較例の姿勢判定装置1Aは、図1で示した本実施形態の姿勢判定装置1とハードウェア構成は同様となっている。また、姿勢判定装置1Aは、姿勢判定装置1と同様の判定画像取得手段10Aと、判定結果出力手段30Aを備えている。そして、姿勢判定装置1Aが姿勢判定装置1と異なる点は、姿勢判定手段20Aである。
姿勢判定装置1Aは、姿勢判定装置1と同様に、KINECT(登録商標)からなる判定画像取得手段10Aにより、まず深度値の含まれる判定画像を取得する。なお、このKINECTには、512×424[pixel]の平面内に奥行の距離を取得する機能がある。
判定画像は、0.5〜8.0(m)までの奥行データを分解能256にてグレースケール化した深度マップ(Depthマップ)として2次元画像に変換したものを用いる。図5(A)には、このDepthマップの一例を示している。なお、このDepthマップの取得には赤外線が用いられている。赤外線を用いることで、医療従事者等が少なくなる夜間の暗い室内においても平面内に三次元情報を読み取ることができ、また個人の顔を識別できないため対象者のプライバシーが守られる。
このDepthマップからなる判定画像を用いて、姿勢判定手段20Aの動体検出手段21Aにより、対象者Sを動体として検出する。この動体検出の具体的な方法として、背景差分法を用いている。背景差分法は、対象者Sのいない環境を背景画像として取得しておき、背景画像との比較によって背景画像になかったものを抽出するというものであり、これにより背景画像にない対象者Sを動体として検出する。
図5(B)には、この背景差分法により動体として検出された対象者Sの画像の一例を示している。背景画像になかったものだけが図5(B)ではグレーで示されており、グレー部分は対象者Sである。なお、図5(B)では対象者がグレーで示されているが、本発明者が実際に用いた装置では赤色で示している。
なお、ベッドBの奥(対象者Sの足元よりも奥側)で対象者S以外の者が動くとその動きも動体として検出され誤判定が生じるので、Depthマップがもつ深度値を用いて、動体検出の範囲は2mまでとして、2m以上の距離を検出の対象外としている。
つぎに、動体検出手段21Aで検出した動体の画像について、テンプレートマッチング手段22Aにて姿勢の判定を行う。姿勢判定を行うにあたり、事前情報としてポインとなる姿勢を定め、その姿勢の画像データに基づきテンプレートを作成しておく。なお、テンプレートのデータは、姿勢判定装置1Aのハードウェア構成における記憶部等に記憶しておく。
ポイントとなる姿勢として、比較例においては3つの姿勢を定めた。3つの姿勢は、図4において、P1と記した姿勢:寝ている姿勢、P2と記した姿勢:状態を起こした姿勢、P3と記した姿勢:ベッド縁に座っている姿勢、である。なお、この姿勢P1〜3は、後述する本実施形態においても同様の姿勢として用いる。
また、姿勢判定の精度向上と判定の高速化のため、事前情報として姿勢遷移の過程図を定義し、姿勢遷移も考慮することとしている。例えば、現在の姿勢が、姿勢P1の場合には、姿勢P1からいきなり姿勢P3へ遷移する可能性はないので、この場合姿勢P3は姿勢判定の対象としないこととする。
具体的な姿勢判定の手法としては、averageHash(以下、適宜『aHash』と記す)に基づくテンプレートマッチングを用いている。その手順として、
1)まず、動体の画像を検出する。検出した具体例として、図6(A)に示す。
2)つぎに、この画像をグレースケールに変換する。具体例として、図6(B)に示す。なお、図6(A)と図6(B)はここでは同じ画像となっているが、上述のように本実施形態の実際の装置では図6(A)での動体は赤い画像として検出されている。したがって、図6(B)は実際にはこの赤い画像を変換したものである。
3)つぎに、グレースケール画像のサイズを、処理を高速化するため縮小する。今回は16×16のサイズに縮小している。
4)つぎに、縮小画像の各ピクセル色(濃淡:pixel_value)の平均値(average_pixel)を式(1)にて計算する。
5)つぎに、縮小画像の各ピクセルにおいて、式(2)を用いて各ピクセルのbit値を設定する。
6)つぎに、16×16=256ビットのビット列を生成し画像をハッシュ化する。このビットデータの具体例として、図6(C)に示す。
7)つぎに、あらかじめ生成しておいた姿勢P1〜3のテンプレート画像の各ハッシュ値に対し、1ビットずつシフトさせて比較する。図6(D)にビット比較のイメージ図を記す。
8)そして、比較した際のビット誤差の最小値を画像データの一致度と定め、最も一致度が高いテンプレートの姿勢を現在の姿勢として判定する。
このような手順により、姿勢判定手段20Aのテンプレートマッチング手段22Aにて対象者Sの現在の姿勢がどの姿勢のテンプレートに近いかを判定する。そして、姿勢判定装置1Aは、この判定結果に基づいて判定結果出力手段30Aにより判定結果を出力する。
以上のような比較例の姿勢判定装置1Aは、ベッドB上で掛け布団の無い状態で姿勢判定を行った場合には、精度よく対象者Sの姿勢を判定することができた。一方、姿勢判定装置1Aは、掛け布団がベッド上で使用されている状態では対象者Sの姿勢判定の精度が著しく低下してしまった。
この理由は、ベッド上で掛け布団が使用されていると、対象者Sの移動に伴い掛け布団も動くので、掛け布団が対象者Sとともに動体として検出されてしまうためであった。このため、対象者Sの本来の姿勢とは異なる姿勢として、姿勢判定装置1Aは判定してしまうことになる。
例えば、掛け布団Cを使用している状態で、対象者Sが姿勢2の状態になると、図7に示すような動体として検出されてしまう。このため、姿勢判定装置1Aでは、この姿勢は本来姿勢P2と判定されるところ、掛け布団の影響で姿勢P3と判定してしまった。
[本実施形態]
そこで、本実施形態の姿勢判定装置1は、掛け布団を考慮した姿勢判定が行えるようになっている。具体的には、次の手順により行われる。
まず、判定画像取得手段10で取得された判定画像について、判定画像区分手段21により一定距離毎の画像に区分けした区分画像を形成する。具体的には判定画像に含まれる深度値を利用して、0.1m毎に区分けを行い各区分の区分画像を形成する。なお、一定距離毎に区分けしたこの区分画像についてイメージし易いよう、図8に区分の概念図を示す。
図8に示すように、入力部2から、対象者Sの足元側に向かって一定間隔で分割し、区分1〜n毎に画像を形成する。なお、本実施形態では0.1m毎に区分けを行っているが、入力部2からあまりに近い位置には対象者Sは存在しないので、図8に示すように、例えば0.5m程度離れた位置から区分けを開始してもよい。また、図8で破線を用いて示している区分の間隔は、単に説明のために記しているだけであり、本実施形態における0.1mの間隔を正確に示しているわけではない。また、今回の区分けの範囲である0.1mはあくまでも一例であり、より短く或はより長く区分けの範囲は設定することもできる。
このように判定画像区分手段21で区分けした区分画像について、つぎに、動体検出手段22で区分画像毎に動体画像の検出を行う。この動体画像検出の具体的な方法は、比較例の姿勢判定装置1Aと同様であり、背景差分法を用いて行うことができる。具体的には、まず対象者Sと掛け布団のない環境を背景画像として取得しておき、この背景画像を用いて対象者Sと掛け布団の動きを動体画像として検出する。このようにして検出した各区分における動体画像について、図9に示す。なお、図9に示す区分毎の動体画像は、対象者Sが姿勢P2の状態にある時の判定画像に基づくものである。
図9に区分1〜12を示しているが、区分1側が入力部2側となり、区分12が入力部2から一番遠い区分(対象者Sの足元側)となる。図9からわかるように、区分1〜5については、とくに目立った動体は検出できないが、区分6では対象者Sの背中が検出されていることがわかる。また、区分7では、対象者Sの頭や肩、体が検出されていることがわかる。そして、区分8では対象者Sの一部だけでなく掛け布団Cが検出されていることがわかる。
ベッドB上で掛け布団Cを使っていた場合、掛け布団Cは対象者Sの動きに伴って動き、通常対象者Sの位置よりも、奥側(入力部2から離れる側)に掛け布団は位置することになる。このため、区分画像においても、手前側(入力部2に近い側)にまず初めに対象者Sが動体として現れ始めることになり、図9からもそのことを理解することができる。
つぎに、動体検出手段22で検出した区分画像毎の動体画像を、合成動体画像形成手段23で合成し、その合成動体画像を用いてテンプレートマッチング手段24で姿勢の判定を行う。つまり、姿勢判定手段20は、掛け布団が現れるまでの動体画像を用いた合成動体画像で対象者Sの姿勢判定を行っている。
この合成動体画像形成手段23とテンプレートマッチング手段24で行われる具体的な処理について、図10を用いて説明する。図10は、合成動体画像形成手段23とテンプレートマッチング手段24とで行われる合成動体画像形成処理及び姿勢判定処理のフローチャートである。
まず、区分1となる手前側の区分画像から、検出した動体の画像の変化量が一定量以上か否かの判定を行う(ステップ1:S1)。変化量が一定量以上でなければ(S1でNO)、この処理を繰り返して変化量が一定量以上の動体が検出されるまでの区分を判定する。この処理は、対象者Sと関係しない微細な動体等を排除するためである。
変化量が一定量以上であれば(S1でYES)次に、その動体の画像についてテンプレートマッチングを行う(ステップ2:S2)。このテンプレートマッチングは、具体的には比較例の姿勢判定装置1Aと同様、aHashに基づくテンプレートマッチングを用いて行っており、詳細な説明は省略する。
そして、S2のマッチング結果による差分値が姿勢P1〜3の何れの姿勢の閾値を満たすか否かの判定を行う(ステップ3:S3)。差分値が何れの姿勢の閾値に満たない場合には(S3でNO)、次の区分の動体の画像を合成する(ステップ4:S4)。そして、合成した動体の画像について、S2と同様テンプレートマッチングを行う(ステップ5:S5)。
そして、S5のマッチング結果による差分値をS2のマッチング結果による差分値と比較を行い、差分値が改善したか否かの判定を行う(ステップ6:S6)。ここで差分値が改善した場合(S5の差分値の方がS2の差分値よりも低くなっている場合)には(S6でYES)、S3に戻って何れの姿勢の閾値を満たすか否かの判定を行う。そして、S3でYESとなれば、その姿勢を対象者の姿勢として決定する(ステップ8:S8)。
S6で差分値が改善していない場合(S5の差分値の方がS2の差分値よりも高くなっている場合)には(S6でNO)、姿勢不明として判断し(ステップ7:S7)、S1に戻って次の区分の動体の画像についてS1の処理を行う。
以上のような処理を行って、対象者Sの姿勢判定が行われる。姿勢判定の具体的なイメージを図11の画像を使って説明する。図11には、連続する4つの区分(区分a〜d)で検出された対象者Sの動体や掛け布団の動体を示している。そして、区分aから、図10の処理を行うことで、区分(a+b)で示した合成動体画像によって、この場合姿勢P2として判定結果が得られることになる。つまり、区分dに現れている掛け布団の動体に影響されてしまう区分(a+b+c+d)の合成動体画像に至るまでに、区分(a+b)の合成動体画像で姿勢判定を行うことができる。
このように、本実施形態の姿勢判定装置1は、掛け布団の影響を排除するため、判定画像取得手段10により深度値により形成される判定画像を取得し、姿勢判定手段20において、この深度値を用いて判定画像を一定距離毎の画像に区分けした区分画像を形成するとともに、この、区分画像を用いて対象者Sの姿勢判定を行う構成となっている。とくに姿勢判定手段20は、動体検出手段22により区分画像から動きがある動体画像を検出し、合成動体画像形成手段23により異なる区分画像の動体画像を合成した合成動体画像を形成し、この合成動体画像を用いて対象者Sの姿勢判定を行っている。
[検証]
次に、実施形態の姿勢判定装置1についての検証結果について説明する。具体的には、5名の被験者を対象にして、掛け布団の有無での本実施形態の姿勢判定装置1と比較例の姿勢判定装置1Aとの比較検証を行った。この比較検証は、被験者が姿勢1(ベッド上で寝ている姿勢)、姿勢2(ベッド上での起き上がりの姿勢)、姿勢3(ベッド縁に座る姿勢)の順に動いたことを想定して実施した。本検証における検証環境を図12に示す。
そして、この検証条件および検証環境によって実施した検証結果を図13に示す。図13(A)は掛け布団無しの条件での検証結果であり、図13(B)は掛け布団有りの条件での検証結果である。図13(A)に示すように掛け布団が無い場合には、比較例の姿勢判定装置1Aでも本実施形態の姿勢判定装置1でも正解率は平均97.7%であった。つまり、掛け布団が無い状況でも、本実施形態の姿勢判定装置1は比較例と同等の判定を行うことができることがわかる。
一方、図13(B)に示すように掛け布団が有る場合には、比較例の姿勢判定装置1Aでは正解率が65%と著しく低下したのに対し、本実施形態の姿勢判定装置1では掛け布団が無い場合と同じ正解率であった。つまり、掛け布団が有る状況でも、本実施形態の姿勢判定装置1は掛け布団が無い状況と同等の判定を行うことができ、掛け布団の影響を排除できていることがわかる。したがって、深度値により形成される判定画像を取得し、深度値を用いて判定画像を一定距離毎の画像に区分けした区分画像を形成することで、対象者Sの身体部分のみが抽出できていることが示されており、その結果として掛け布団の影響が排除されている。
なお、本実施形態の姿勢判定装置1では掛け布団の影響が排除されているにも関わらず、図13に示すように姿勢2の正解率が何れも93.3%に留まっている。この理由としては、被験者の座高の差異等によって、起き上がる際の位置が被験者により異なることに起因するためと考える。つまり、起き上がる際の被験者の位置が異なることにより、結果として入力部2に写る被験者の大きさに差が生じ、それが理由となり姿勢を判定する際に誤判定が生じたものと考えられる。また、被験者が重度の猫背の時、0.1m毎に区分けされた区分画像の中に、猫背の背中部分のみが写る区分画像が存在する場合があり、その背中を被験者の頭と誤認識した結果、姿勢2を姿勢1と誤判定することがあった。これらの対策として、患者の特性に合わせた複数のテンプレートセットを用意しておくこととしてもよく、また、背中が現れた際の距離情報から頭と背中の区別を行うようにしてもよい。
また、本実施形態の姿勢判定装置1では、判定画像取得手段10で取得された判定画像について、判定画像区分手段21により0.1m毎に区分けした区分画像を形成していたが、必ずしも全て同じ距離で区分画像を形成する必要はない。例えば、対象者Sの頭部側では掛け布団が影響し易いので、区分画像の間隔を短くし、対象者Sの足元側では反対に区分画像の間隔を長くして区分画像を形成してもよい。
また、本実施形態の姿勢判定装置1では、動体検出手段22で区分画像毎の動体画像を検出し、合成動体画像形成手段23により対象者Sの頭部側から合成しながら合成動体画像を形成し、この合成動体画像を用いて姿勢判定を行っていたが、必ずしも動体画像を合成しながら姿勢判定を行う必要はない。例えば、全ての区分画像の動体画像を先に合成しておき、この全て合成された合成動体画像から、各区分の合成動体を除きながら、姿勢判定を行ってもよい。具体的には、全て合成された合成動体画像を用い、対象者Sの足元側から、足元側の区分における動体画像を除いていく。この場合、最初から掛け布団が動体画像として含まれているため、テンプレート画像との一致度が低くなるが、掛け布団の画像が取り除かれた段階でテンプレート画像との一致度が高くなるので、例えば一致度が一番高いものを対象者Sの姿勢として判定することができる。
また、本実施形態の姿勢判定装置1では、背景差分法により各区分画像から動体画像を検出したり、テンプレートマッチングにより対象者Sの姿勢判定を行っているが、本発明は、深度値が含まれる判定画像を基にして、この深度値を用いて一定距離毎の区分画像を形成して、この区分画像を利用して姿勢判定を行うことを特徴としている。したがって、例えば、各区分画像から動体画像を検出するために背景差分法以外の方法も適用することも可能であり、また姿勢判定についてもテンプレートマッチング以外の画像認識方法を適用して姿勢判定することも可能である。
また、本実施形態の姿勢判定装置1では、対象者Sの心理的負担を軽減するため判定画像取得手段10を構成する入力部2をベッドBの頭部側に設置したが、ベッドBの足元側や、部屋の天井に設置して判定画像を取得して、姿勢判定手段20により姿勢判定を行うこともできる。
[実施形態2]
次に、実施形態2にかかる通報システム100について説明する。通報システム100は、実施形態1の姿勢判定装置1と同様の機能を用いて姿勢判定を行うとともに、この姿勢判定の結果に基づいて通報を行うか否かの判定を行い、この判定結果に基づいて通報を行うシステムである。
具体的には、通報システム100は、深度値により形成される判定画像取得手段110と、この深度値を用いて判定画像を一定距離毎の画像に区分けした区分画像により対象者の姿勢判定を行う姿勢判定手段120と、この姿勢判定手段120による判定結果に基づいて通報を行うか否かの判定を行う通報判定手段130と、通報判定手段の判定結果に基づいて通報を行う通報手段140と、を備えている。
また、通報システム100のハードウェア構成は、図1に示した姿勢判定装置1と略同様であり、異なる点については適宜説明を行うとともに、同様の構成については同様の符号を用いるとともに詳細な説明を省略する。
そして、判定画像取得手段110及び姿勢判定手段120は、実施形態1の姿勢判定装置1の判定画像取得手段10及び姿勢判定手段20と同様である。
通報判定手段130は、制御部3や記憶部4によって構成されており、姿勢判定手段120による判定結果に基づいて通報を行うか否かの判定を行う。具体的には、例えば通報判定手段130は、対象者Sについて姿勢P3と判定されたら通報を行うと判定し、姿勢P1や姿勢P2では通報を行わないというように判定する。
なお、通報を行うか否かの判定は、事前に設定した判定条件に基づいて行われる。また、対象者S毎に姿勢による危険度は異なることから、この判定条件は対象者S毎に異なっていても構わない。このような判定条件は、例えば、通報システム100が備えるカメラ2aや深度センサ2b以外の入力部2を構成する入力装置(キーボードやタッチパネル等)によって設定することができる。
通報手段140は、主に出力部5によって構成されており、通報判定手段130の判定結果に基づいて通報を行う。具体的には、通報手段140は、通報判定手段130で通報を行うと判定された場合に、モニタによる表示やスピーカによる音声によって通報を行う。
このような構成の通報システム100について、実際の使用例を基に説明を行う。図14は、通報システム100の設置例を示した図である。図14に示す使用例は、病院や高齢者の介護施設のようにベッド上の対象者Sを見守る必要がある施設での使用を想定したものである。
この施設には、複数の部屋R(R1〜3)があり、各部屋にはベッドBが設置されている。なお、図14では各部屋RにはベッドBが一つだけ示してあるが、ベッドが複数設置されていても構わない。また図14では部屋数が三つだけであるが、通報システム100は、当然ながらより多くの部屋数であっても使用できる。
各部屋RのベッドBには、判定画像取得手段110を構成している入力部2が設置されている。また、通報システム100を構成する姿勢判定手段120、通報判定手段130、通報手段140は、看護師や介護士が待機するステーションDに設置されている。なお、通報手段140は、ステーションDだけでなく各部屋Rに設置されていても構わない。
例えば、部屋R2の対象者Sについて通報の判定条件となっている姿勢P2が判定されると、部屋R2の通報手段140によって通報することで、部屋R2にいる他の人や部屋R2の近くにいる人に対象者Sが危険な姿勢P2になっていることを知らせることができる。
ここで、図14に示すステーションDに設置された端末200aは、通報システム100を構成する通信部6を介して通報システム100に接続されている端末である。
また、端末200bは、例えば、ステーションDとは異なる階であったり、離れている場所であったりと、ステーションDとは異なるステーションD´に設置されている端末である。そして、この端末200bも、通報システム100を構成する通信部6を介して通報システム100に接続されている端末である。
また、携帯型の端末200cは、例えば、施設内で働く看護師や介護士が携帯している端末である。そして、この端末200cも、通報システム100を構成する通信部6を介して通報システム100に接続されている端末である。
通報システム100は、通信部6を介して接続する端末200a、200b、200cの表示部や音声出力部を通報手段140として用いることができる。そして、通報システム100は、端末200a、200b、200cを通報手段140として用いることで、通報判定手段130による判定結果を複数の看護師や介護士に通報することが可能となっている。
また、このような通報システム100は、例えば、部屋R2の対象者Sについては、ある特定の看護師に通報し、部屋R3の対象者Sについては、別の看護師に通報する、というようなことも可能である。
なお、端末200a、200b、200cは、ノートパソコンやタブレット、スマートフォン等の端末だけでなく、通報専用に作られた専用端末を用いることができる。
以上のように、本実施形態の通報システム100は、実施形態1の姿勢判定装置1と同様、深度値により形成される判定画像を取得し、深度値を用いて一定距離毎の画像に区分けした区分画像により姿勢判定を行うので、ベッド上で対象者が使っている掛け布団による影響を排除して姿勢判定を行うことができる。また、通報システム100は、姿勢判定の判定結果に基づいて通報を行うか否かの判定を行い、この判定結果に基づいて通報を行うので、病院や介護施設のように多くの判定対象者Sがいる施設での使用に非常に適している。
なお、実施形態1の姿勢判定装置や実施形態2の通報システム100は、主としてベッド上の対象者Sの姿勢を判定することにより、対象者SのベッドBからの転落を未然に防止する目的で用いているが、ベッドB上からの転落防止以外の目的でも使用できる。例えば、ベッド上で同じ姿勢を長時間続けていると、床ずれと呼ばれる褥瘡のおそれがある。したがって、本発明の姿勢判定装置や通報システムは、同じ姿勢が長時間続いていると判定された場合には、対象者Sの姿勢を変える必要があることを看護師や介護士に通報するためのものとして使用することもできる。
また、実施形態1の姿勢判定装置や実施形態2の通報システム100は、対象者Sの姿勢を判定するものではあるが、この対象者Sとは何も人間に限られるということではなく、人以外の動物や物も広く含まれているおり、対象物と言い換えることもできる。そして、姿勢判定という言葉も、ベッド上での姿勢の判定に限られるということではなく、ベッド上以外でも、また姿勢以外の判定も含まれており、形状判定と言い換えることもでき、本発明は非常に適用範囲の広いものである。
1、1A…姿勢判定装置
2…入力部
6…通信部
10、10A、110…判定画像取得手段
20、20A、120…姿勢判定手段
21…判定画像区分手段
22、21A…動体検出手段
23…合成動体画像形成手段
24、22A…テンプレートマッチング手段
30、30A…判定結果出力手段
100…通報システム
130…通報判定手段
140…通報手段
200a、200b、200c…端末
S…対象者
B…ベッド
P1…姿勢1
P2…姿勢2
P3…姿勢3
D、D´…ステーション
R…部屋

Claims (3)

  1. 深度値により形成される判定画像を取得する判定画像取得手段と、
    前記深度値を用いて前記判定画像を一定距離毎の画像に区分けした区分画像により対象者の姿勢判定を行う姿勢判定手段と、を備え、
    前記姿勢判定手段は、
    前記区分画像から動きがある動体画像を検出する動体検出手段と、
    異なる前記区分画像の動体画像を手前側から順次合成して合成動体画像を形成する合成動体画像形成手段と、を備え、
    前記合成動体画像により前記対象者の姿勢を判定することを特徴とする姿勢判定装置。
  2. 前記姿勢判定手段は、
    前記合成動体画像について、テンプレート画像を用いたテンプレートマッチングを行うことで姿勢を判定するテンプレートマッチング手段を備えていることを特徴とする請求項1に記載の姿勢判定装置。
  3. 深度値により形成される判定画像を取得する判定画像取得手段と、
    前記深度値を用いて前記判定画像を一定距離毎の画像に区分けした区分画像により対象者の姿勢判定を行う姿勢判定手段と、
    前記姿勢判定手段による判定結果に基づいて通報を行うか否かの判定を行う通報判定手段と、
    前記通報判定手段の判定結果に基づいて通報を行う通報手段と、
    を備え、
    前記姿勢判定手段は、
    前記区分画像から動きがある動体画像を検出する動体検出手段と、
    異なる前記区分画像の動体画像を手前側から順次合成して合成動体画像を形成する合成動体画像形成手段と、を備え、
    前記合成動体画像により前記対象者の姿勢を判定することを特徴とする通報システム。
JP2016225872A 2016-11-21 2016-11-21 姿勢判定装置及び通報システム Active JP6791731B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016225872A JP6791731B2 (ja) 2016-11-21 2016-11-21 姿勢判定装置及び通報システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016225872A JP6791731B2 (ja) 2016-11-21 2016-11-21 姿勢判定装置及び通報システム

Publications (2)

Publication Number Publication Date
JP2018082745A JP2018082745A (ja) 2018-05-31
JP6791731B2 true JP6791731B2 (ja) 2020-11-25

Family

ID=62236513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016225872A Active JP6791731B2 (ja) 2016-11-21 2016-11-21 姿勢判定装置及び通報システム

Country Status (1)

Country Link
JP (1) JP6791731B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102404971B1 (ko) * 2021-02-02 2022-06-07 (주)아주스마트솔루션 환자의 낙상 감시시스템 및 그 감시방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7300262B2 (ja) * 2018-11-14 2023-06-29 アイホン株式会社 患者見守りシステム
CN109717661B (zh) * 2018-12-27 2021-05-04 浙江梦神家居股份有限公司 一种监测儿童睡眠的床垫及其监测儿童睡眠的方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3732757B2 (ja) * 2001-06-08 2006-01-11 株式会社東芝 画像認識方法および画像認識装置
JP5771778B2 (ja) * 2010-06-30 2015-09-02 パナソニックIpマネジメント株式会社 監視装置、プログラム
JP2014090841A (ja) * 2012-11-02 2014-05-19 Sony Corp 情報処理装置および情報処理方法、並びにプログラム
JP6115335B2 (ja) * 2013-06-10 2017-04-19 ノーリツプレシジョン株式会社 情報処理装置、情報処理方法、及び、プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102404971B1 (ko) * 2021-02-02 2022-06-07 (주)아주스마트솔루션 환자의 낙상 감시시스템 및 그 감시방법

Also Published As

Publication number Publication date
JP2018082745A (ja) 2018-05-31

Similar Documents

Publication Publication Date Title
WO2016143641A1 (ja) 姿勢検知装置および姿勢検知方法
US11688265B1 (en) System and methods for safety, security, and well-being of individuals
US10786183B2 (en) Monitoring assistance system, control method thereof, and program
JP6500785B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
KR102052883B1 (ko) 열화상 카메라를 이용한 낙상 예측 시스템 및 열화상 카메라를 이용한 낙상 예측 방법
JP7271915B2 (ja) 画像処理プログラムおよび画像処理装置
JP6791731B2 (ja) 姿勢判定装置及び通報システム
JP2016067641A (ja) 転倒検知処理装置及び転倒検知システム
US20180005510A1 (en) Situation identification method, situation identification device, and storage medium
JP6822328B2 (ja) 見守り支援システム及びその制御方法
WO2019013257A1 (ja) 見守り支援システム及びその制御方法、プログラム
JP2020034960A (ja) 被監視者の姿勢検知装置
JP6048630B1 (ja) 行動検知装置および行動検知方法ならびに被監視者監視装置
JP7403132B2 (ja) 介護記録装置、介護記録システム、介護記録プログラムおよび介護記録方法
Kittipanya-Ngam et al. Computer vision applications for patients monitoring system
JP6737645B2 (ja) 監視装置、監視システム、監視方法及び監視プログラム
WO2020008726A1 (ja) 対象物体検出プログラム、および対象物体検出装置
KR102608941B1 (ko) 인공지능을 이용한 환자의 이상 행동 탐지 시스템
WO2019013105A1 (ja) 見守り支援システム及びその制御方法
WO2018235628A1 (ja) 見守り支援システム及びその制御方法、及びプログラム
JP2986403B2 (ja) 病室内患者監視装置
JP2020190889A (ja) 要介護者見守りシステム
JP2020091628A (ja) 要介護者見守りシステム
JP7435609B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7152795B2 (ja) 要介護者見守りシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201105

R150 Certificate of patent or registration of utility model

Ref document number: 6791731

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250