JP2023041168A - Monitor system, monitor method, and monitor program - Google Patents
Monitor system, monitor method, and monitor program Download PDFInfo
- Publication number
- JP2023041168A JP2023041168A JP2021148373A JP2021148373A JP2023041168A JP 2023041168 A JP2023041168 A JP 2023041168A JP 2021148373 A JP2021148373 A JP 2021148373A JP 2021148373 A JP2021148373 A JP 2021148373A JP 2023041168 A JP2023041168 A JP 2023041168A
- Authority
- JP
- Japan
- Prior art keywords
- bed
- information obtained
- information
- image
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、監視システム、監視方法、および監視プログラムに関する。 The present invention relates to a monitoring system, a monitoring method, and a monitoring program.
介護老人福祉施設や病院等の看介護施設において、入居または入院している被看護者や被介護者(以下、「被看介護者」または「利用者」という)は、看介護施設内で、歩行中に転倒したり、ベッドから転落して怪我したりすることがある。そのため、被看介護者がこのような状態になったときに看護師や介護士等(以下、「看介護者」という)がすぐに駆けつけられるようにするために、被看介護者の状態を常時検知するための見守りシステムの開発が進められている。 In nursing care facilities such as nursing care facilities for the elderly and hospitals, care recipients and care recipients (hereinafter referred to as "cared care recipients" or "users") who live in or are hospitalized may: You may fall while walking or fall out of bed and get injured. Therefore, in order to enable nurses, caregivers, etc. (hereinafter referred to as “caregiver”) to rush to the caregiver when the caregiver becomes such a condition, Development of a monitoring system for constant detection is underway.
下記特許文献1には、画像に基づき、監視対象者のベッドからの「ずり落ち」を検知する技術が開示されている。この技術では、臥位状態でベッドサイドに上半身または下半身が出ている状態で、移動物体の30%以上100%未満の体積がベッド枠を超えていることが検知された場合には、「ずり落ち」として判定する。
特許文献1の技術では、発明者らが鋭意検討した結果、布団等の、監視対象者(被看介護者)以外の物がベッドからはみ出しても、監視対象者がずり落ちしたと誤検知してしまう課題や、監視対象者が非常にゆっくりとベッドからずり落ちると移動物体として認識されず失報となってしまう課題が生じることがわかった。
In the technique of
本発明はこのような問題を解決するためになされたものである。すなわち、ずり落ちや、転倒、転落等、報知が必要な被看介護者の状態について誤報および失報を防止、または抑制できる監視システム、監視方法、監視プログラムを提供することを目的とする。 The present invention has been made to solve such problems. That is, it is an object of the present invention to provide a monitoring system, a monitoring method, and a monitoring program capable of preventing or suppressing erroneous and unreported conditions of a care recipient, such as slipping, falling, and falling.
本発明の上記課題は、以下の手段によって解決される。 The above problems of the present invention are solved by the following means.
(1)少なくともベッドを含む撮影領域を撮像する撮像部と、前記ベッド上の荷重を検出するベッドセンサーと、前記撮像部から得られた情報および前記ベッドセンサーから得られた情報に基づき、前記ベッドからはみ出した物体の判定を行う判定部と、を備えた監視システム。 (1) an imaging unit that captures an imaging area including at least a bed; a bed sensor that detects a load on the bed; and a determination unit that determines an object protruding from the object.
(2)前記判定部は、前記撮像部から得られた情報および前記ベッドセンサーから得られた情報に基づき、前記ベッドからはみ出した物体が、布団のみか少なくとも身体の一部が含まれているかを判定する、上記(1)に記載の監視システム。 (2) Based on the information obtained from the imaging unit and the information obtained from the bed sensor, the determination unit determines whether the object protruding from the bed includes only a futon or at least a part of the body. The monitoring system according to (1) above, which determines.
(3)前記ベッドからはみ出した物体が、布団のみと判定された場合、判定結果を報知しない制御を行う制御部をさらに備えた上記(2)に記載の監視システム。 (3) The monitoring system according to (2) above, further comprising a control unit that performs control not to report the determination result when it is determined that the only object protruding from the bed is the futon.
(4)前記ベッドからはみ出した物体が、少なくとも身体の一部が含まれていると判定された場合、判定結果を報知する制御を行う制御部をさらに備えた上記(2)に記載の監視システム。 (4) The monitoring system according to (2) above, further comprising a control unit that performs control to report a determination result when it is determined that the object protruding from the bed includes at least a part of the body. .
(5)前記撮像部から得られた情報は、前記撮像部において、撮像された画像の解析を行った情報である、上記(1)~(4)のいずれか1つに記載の監視システム。 (5) The monitoring system according to any one of (1) to (4) above, wherein the information obtained from the imaging unit is information obtained by analyzing an image captured by the imaging unit.
(6)前記ベッドセンサーから得られた情報は、前記ベッドセンサーにおいて、検出された荷重の解析を行った情報である、上記(1)~(5)のいずれか1つに記載の監視システム。 (6) The monitoring system according to any one of (1) to (5) above, wherein the information obtained from the bed sensor is information obtained by analyzing the load detected by the bed sensor.
(7)前記撮像部から得られた情報は、前記撮像部によって撮像された画像情報である、上記(1)~(4)、(6)のいずれか1つに記載の監視システム。 (7) The monitoring system according to any one of (1) to (4) and (6) above, wherein the information obtained from the imaging section is image information captured by the imaging section.
(8)前記ベッドセンサーから得られた情報は、前記ベッドセンサーによって検出された荷重情報である、上記(1)~(5)、(7)のいずれか1つに記載の監視システム。 (8) The monitoring system according to any one of (1) to (5) and (7) above, wherein the information obtained from the bed sensor is load information detected by the bed sensor.
(9)前記ベッドセンサーから情報を取得し、前記ベッドセンサーから得られた情報に基づき、画像の認識感度を変更した後、前記画像情報を取得する取得部をさらに有する、上記(7)に記載の監視システム。 (9) The above-described (7), further comprising an acquisition unit that acquires information from the bed sensor, changes image recognition sensitivity based on the information acquired from the bed sensor, and then acquires the image information. monitoring system.
(10)前記ベッドに設置された前記撮像部から前記画像情報を取得する取得部をさらに有する、上記(7)に記載の監視システム。 (10) The monitoring system according to (7) above, further including an acquisition unit that acquires the image information from the imaging unit installed on the bed.
(11)前記判定部の判定結果を出力する出力部をさらに備える、上記(1)~(10)のいずれか1つに記載の監視システム。 (11) The monitoring system according to any one of (1) to (10) above, further comprising an output section that outputs a determination result of the determination section.
(12)撮像部が少なくともベッドを含む撮影領域を撮像する撮像ステップと、ベッドセンサーが前記ベッド上の荷重を検出する検出ステップと、前記撮像部から得られた情報と、前記ベッドセンサーから得られた情報とに基づき、前記ベッドからはみ出した物体の判定を行う判定ステップと、を含む、監視方法。 (12) an image capturing step in which an image capturing unit captures an image of an image capturing area including at least a bed; a detection step in which a bed sensor detects a load on the bed; information obtained from the image capturing unit; and a determination step of determining an object protruding from the bed based on the information obtained.
(13)前記判定ステップにおいて、前記撮像部から得られた情報および前記ベッドセンサーから得られた情報に基づき、前記ベッドからはみ出した物体が布団のみか少なくとも身体の一部が含まれているかを判定する、上記(12)に記載の監視方法。 (13) In the determining step, based on the information obtained from the imaging unit and the information obtained from the bed sensor, it is determined whether the object protruding from the bed includes only the futon or at least a part of the body. The monitoring method according to (12) above.
(14)前記判定ステップにおいて、前記ベッドからはみ出した物体が、布団のみと判定された場合、判定結果を報知しない制御を行う制御ステップをさらに含む、上記(13)に記載の監視方法。 (14) The monitoring method according to (13) above, further comprising a control step of not notifying the determination result when it is determined in the determination step that the only object protruding from the bed is the futon.
(15)前記判定ステップにおいて、前記ベッドからはみ出した物体が、少なくとも身体の一部が含まれていると判定された場合、判定結果を報知する制御を行う制御ステップをさらに含む、上記(13)に記載の監視方法。 (15) The above (13), further comprising a control step of notifying the determination result when it is determined in the determination step that the object protruding from the bed includes at least a part of the body. monitoring method described in .
(16)前記撮像部から得られた情報は、前記撮像部において、撮像された画像の解析を行った情報である、上記(12)~(15)のいずれか1つに記載の監視方法。 (16) The monitoring method according to any one of (12) to (15) above, wherein the information obtained from the imaging unit is information obtained by analyzing an image captured by the imaging unit.
(17)前記ベッドセンサーから得られた情報は、前記ベッドセンサーにおいて、検出された荷重の解析を行った情報である、上記(12)~(16)のいずれか1つに記載の監視方法。 (17) The monitoring method according to any one of (12) to (16) above, wherein the information obtained from the bed sensor is information obtained by analyzing the load detected by the bed sensor.
(18)前記撮像部から得られた情報は、前記撮像部によって撮像された画像情報である、上記(12)~(15)、(17)のいずれか1つに記載の監視方法。 (18) The monitoring method according to any one of (12) to (15) and (17) above, wherein the information obtained from the imaging unit is image information captured by the imaging unit.
(19)前記ベッドセンサーから得られた情報は、前記ベッドセンサーによって検出された荷重情報である、上記(12)~(16)、(18)のいずれか1つに記載の監視方法。 (19) The monitoring method according to any one of (12) to (16) and (18) above, wherein the information obtained from the bed sensor is load information detected by the bed sensor.
(20)前記ベッドセンサーから情報を取得し、前記ベッドセンサーから得られた情報に基づき、画像の認識感度を変更した後、前記画像情報を取得する、上記(18)に記載の監視方法。 (20) The monitoring method according to (18) above, wherein information is obtained from the bed sensor, image recognition sensitivity is changed based on the information obtained from the bed sensor, and then the image information is obtained.
(21)前記判定ステップにおける判定結果を出力する出力ステップをさらに含む、上記(12)~(20)のいずれか1つに記載の監視方法。 (21) The monitoring method according to any one of (12) to (20) above, further including an output step of outputting the determination result of the determination step.
(22)上記(12)~(21)のいずれか1つに記載の監視方法をコンピューターに実行させるための監視プログラム。 (22) A monitoring program for causing a computer to execute the monitoring method according to any one of (12) to (21) above.
本発明によれば、撮像部から得られた情報、およびベッドセンサーから得られた情報に基づき、ベッドからのはみ出した物体の判定を行うので、被看介護者がベッドからずり落ちたり、転倒したりした場合等、報知が必要な被看介護者の状態について誤報および失報を防止、または抑制できる。 According to the present invention, based on the information obtained from the imaging unit and the information obtained from the bed sensor, an object protruding from the bed is determined. It is possible to prevent or suppress erroneous and unreported conditions of the cared-for person who needs to be notified.
以下、図面を参照して、本発明の実施形態に係る監視システム、監視方法、および監視プログラムについて説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。 Hereinafter, a monitoring system, a monitoring method, and a monitoring program according to embodiments of the present invention will be described with reference to the drawings. In the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted. Also, the dimensional ratios in the drawings are exaggerated for convenience of explanation, and may differ from the actual ratios.
(第1の実施形態)
図1は、第1の実施形態に係る監視システム1の全体構成を示す図である。本実施形態では、監視システム1は、看介護施設等で用いられる。監視システム1は、検出装置10、サーバー20、複数の携帯端末30、および無線AP(アクセスポイント)31を含む。検出装置10、サーバー20、および携帯端末30は、LAN(Local Area Network)および無線AP31を介して相互に通信可能に接続される。携帯端末30は、被看介護者80の看護または介護をする看介護者70に携帯される。
(First embodiment)
FIG. 1 is a diagram showing the overall configuration of a
(ベッド90)
図2は、図1に示す検出装置10が設置された、被看介護者80のベッド90を例示する模式図である。また、図3は、図2に示すベッド90を側方から視た模式図である。なお、図3において、紙面の左から右へ向かう方向(ベッド90のヘッド側からフット側へ向かう方向)をX軸方向、紙面の手前から奥へ向かう方向(ベッド90の幅方向)をY軸方向、紙面の下から上へ向かう方向(ベッド90の高さ方向)をZ軸方向と各々定義している。
(Bed 90)
FIG. 2 is a schematic diagram illustrating a
図2、図3に示すように、ベッド90は、フレーム部91、ヘッドボード92、フットボード93、マットレス94、およびベッドセンサー95を含む。マットレス94の上には、布団96が掛けられている。布団96には、掛布団、毛布、タオルケット等の寝具類が含まれうる。また、ベッド90は、例えば、電動ベッドでありうる。
As shown in FIGS. 2 and 3,
ベッドセンサー95は、ベッド90上の被看介護者80の体重による押圧力を検知する荷重センサーである。これにより、ベッドセンサー95は、ベッド90上に被看介護者80がいるか否かを検知する。ベッドセンサー95は、空気が封入されたシート状の袋と、この空気の圧力の変動を検知する圧電センサーとにより構成されうる。ベッドセンサー95は、例えば、マットレス94における被看介護者80の背部、腰部、臀部等が接触する部分に配置されうる。ベッドセンサー95の検知結果(ベッドセンサー情報)は、演算制御部101に送信される。ベッドセンサー情報は、荷重センサーによって計測された荷重に関する情報(荷重センサー情報)でありうる。本実施形態では、ベッドセンサー情報は、例えば、被看介護者80の荷重の有無を各々「重み有り」および「重み無し」で表す。
The
(検出装置10)
図4は、図1に示す検出装置10のハードウェア構成を示すブロック図である。検出装置10は、演算制御部101、通信部102、およびカメラ103を有し、これらはバスにより相互に接続される。検出装置10は、例えばベッド90のヘッドボード92の上端部に設置されている。
(Detection device 10)
FIG. 4 is a block diagram showing the hardware configuration of the
演算制御部101は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。また、演算制御部101は、HDDまたはSSD(Solid State Drive)を備えうる。演算制御部101は、監視プログラムに従って検出装置10の各部の制御および演算処理を行う。演算制御部101の主要な機能については後述する。
The
通信部102は、LANを介して、例えば、サーバー20等と通信するためのインターフェース回路(例えばLANカード、無線通信回路等)である。
The
カメラ103は、少なくともベッド90とベッド90の周辺領域とを含む監視領域内を撮影し、撮影画像(画像情報)を出力する。カメラ103は、撮像部を構成する。この画像情報には、静止画および動画が含まれる。動画には、時系列で間欠的に撮影された複数の静止画が含まれうる。カメラ103は近赤外線カメラであるが、これに換えて可視光カメラを用いてもよく、これらを併用してもよい。
The
図5は、図1に示す演算制御部101の主要な機能を例示するブロック図である。演算制御部101は、取得部111、判定部112、および出力部113として機能する。
FIG. 5 is a block diagram illustrating major functions of the
取得部111は、画像情報およびベッドセンサー情報を取得する。判定部112は、画像情報およびベッドセンサー情報に基づき、ベッド90からのはみ出しを判定する。ベッド90からのはみ出しの判定方法の詳細については後述する。出力部113は、判定部112の判定結果を出力する。出力部113からの出力は、通信部102によって携帯端末30に送信される。
(サーバー20)
図6は、サーバー20のハードウェア構成を示すブロック図である。サーバー20は、演算制御部201、通信部202、および記憶部203を有し、これらはバスにより相互に接続される。
(Server 20)
FIG. 6 is a block diagram showing the hardware configuration of the
演算制御部201は、CPU、RAM、およびROM等を備える。演算制御部201は、プログラムに従ってサーバー20の各部の制御および演算処理を行う。また、演算制御部201は、判定部112と協働して、ベッド90からのはみ出し判定を担うように構成されうる。
The
通信部202は、LANを介して、例えば、検出装置10、および携帯端末30等と通信するためのインターフェース回路により構成される。通信部202は、検出装置10から、はみ出し判定結果を受信する。また、通信部202は、演算制御部201がはみ出し判定を行う場合、検出装置10から、画像情報およびベッドセンサー情報を受信する。はみ出し判定結果は、記憶部203に記憶される。
The
記憶部203は、HDDまたはSSDにより構成され、各種プログラムおよび各種データを記憶する。
(監視方法)
図7は、第1の実施形態における検出装置による監視方法の処理手順を例示するフローチャートである。同図のフローチャートの処理は、演算制御部101のCPUが監視プログラムを実行することにより実現される。図8は、画像情報、およびベッドセンサー情報に基づく、ベッド90からのはみ出し判定を例示する図である。図9は、被看介護者80が臥床している場合の画像を例示する模式図である。なお、説明を簡略化するため、図9において、フットボード93に対応する画像上のオブジェクトについては図示を省略している(以下の図10~図14についても同様)。
(monitoring method)
FIG. 7 is a flowchart illustrating a processing procedure of a monitoring method by the detection device according to the first embodiment; The processing of the flowchart in FIG. 1 is realized by the CPU of the
図7に示すように、まず、カメラ103により監視領域内の撮影を開始する(ステップS101)。演算制御部101は、カメラ103を制御して、監視領域内の撮影を開始(または継続)する。本実施形態では、一例として、ベッド90に寝ていた被看介護者80がベッド90から起き上がり、床に降りて歩行しようとする場合を想定する。すなわち、被看介護者80の初期状態は、臥床であり、次に離床へ移行する。カメラ103は、監視領域内の被看介護者80およびベッド90を撮影する。
As shown in FIG. 7, first, the
次に、画像情報、およびベッドセンサー情報を取得する(ステップS102)。取得部111は、カメラ103によって撮影された画像を取得し、画像情報として判定部112に送信する。また、取得部111は、ベッドセンサー情報を判定部112に送信する。
Next, image information and bed sensor information are obtained (step S102).
次に、ベッド90からのはみ出しを判定する(ステップS103)。判定部112は、取得部111よって取得された画像情報から移動物体を検出する。移動物体は、例えば、撮影時刻が前後する画像(フレーム)の差分を抽出する時間差分法により差分が相対的に大きい画素の範囲を抽出することで検出されうる。移動物体は、撮影画像と背景画像との差分を抽出する背景差分法により検出されてもよい。本実施形態では、被看介護者80が臥床から離床に状態が変化する過程で被看介護者80が移動物体として検出されることが想定される。また、被看介護者80が布団96を掛けている場合、布団96が移動することもありうる。したがって、本実施形態では、移動物体として検出される可能性があるのは被看介護者80、および/または布団96であると考えられる。なお、本実施形態では、ベッド90は電動ベッドでありうるが、被看介護者80の見守りが行われている間は、リクライニング等の動作を停止し、マットレス94は動かないものとする。
Next, it is determined whether or not the object protrudes from the bed 90 (step S103). A
しかし、画像情報から得られた移動物体の検出結果のみでは、布団96がはみ出している状態と、被看介護者80がずり落ちしている状態とを判別することは難しい。一方、ベッドセンサー情報のみでは、ベッド90から被看介護者80の身体の一部がはみ出している状態と、被看介護者80がベッド90に臥床している状態とを判別することは難しい。そこで、本実施形態では、判定部112は、画像情報、およびベッドセンサー情報の両方に基づき、ベッド90からのはみ出しを判定する。ここで、ベッド90からのはみ出しとは、被看介護者80の身体の一部、および/または布団96がベッド90からはみ出していることを意味する。そして、判定部112は、画像情報(カメラ103から得られた情報)、およびベッドセンサー情報(ベッドセンサー95から得られた情報)に基づき、ベッド90からはみ出した物体の判定を行う。以下では、画像上における被看介護者80のオブジェクトを被看介護者オブジェクト800、マットレス94のオブジェクトをマットレスオブジェクト940(図9における斜線の領域)、ベッドセンサー95のオブジェクトをベッドセンサーオブジェクト950、布団96のオブジェクトを布団オブジェクト960と称する。
However, it is difficult to distinguish between the state where the
(1)判定パターン1
図9に示すように、判定部112は、マットレスオブジェクト940を含む所定領域(一点鎖線で示す撮影領域)Aの周辺において画像に変化が無く(すなわち所定領域の内側から外側へ移動する物体が無く)、かつベッドセンサー95からのベッドセンサー情報が「重み有り」である場合(ベッドセンサーオブジェクト950が薄いグレーで示されている)、ベッド90からの「はみ出し無し」と判定する。より具体的には、判定部112は、各被看介護者80の体重に対応して設定された、荷重に関する所定の閾値を超えることにより、荷重の有無を検出(判定)する。荷重に関する所定の閾値は、被看介護者80ごとに予め設定され、演算制御部101のRAMに記憶されうる。所定領域Aは、マットレスオブジェクト940よりもひと回り大きい大きさに設定されている。すなわち、マットレスオブジェクトの940の外縁に沿って、マットレスオブジェクトの940の外縁からmだけ離れた位置に所定領域Aの外縁が設定されうる。これは、臥床した状態の被看介護者80に適切に布団96が掛けられている場合であっても、布団オブジェクト960がマットレスオブジェクト940からある程度はみ出ることが想定されるためである。
(1)
As shown in FIG. 9, the
なお、図9には、説明を簡略化するため、所定領域Aの一部について例示されているが、監視領域外のマットレスオブジェクト940の外縁についても、マットレスオブジェクトの940の外縁からmだけ離れた位置に所定領域Aの外縁が設定されうる。所定領域Aの外縁の設定に関しては、以下の図10~図14においても同様である。
Note that FIG. 9 illustrates a part of the predetermined area A for the sake of simplification of explanation, but the outer edge of the
さらに、判定部112は、ベッド90からのはみ出しが無いことから、被看介護者80が臥床していると判定する(図8を参照)。
Furthermore, since there is no protrusion from the
(2)判定パターン2
図10は、被看介護者80が離床している場合の画像を例示する模式図である。判定部112は、所定領域Aの周辺において画像に変化が無い(時間差分法や背景差分法によって移動物体が検出されていない)場合であり、ベッドセンサー95からのベッドセンサー情報が「重み無し」である場合は、ベッド90からの「はみ出し無し」と判定する。例えば、被看介護者80がゆっくりと移動した場合、所定領域Aの周辺において画像に変化が生じないことがありうる。判定部112は、画像情報から移動物体を検出できない場合であっても、ベッドセンサー情報が「重み無し」であるので、被看介護者80が離床していると判定する。
(2)
FIG. 10 is a schematic diagram illustrating an image when the cared
(3)判定パターン3
図11は布団オブジェクト960が所定領域Aからはみ出している場合の画像を例示する模式図であり、図12は被看介護者オブジェクト800の一部(足)が所定領域Aからはみ出している場合の画像を例示する模式図である。判定部112は、所定領域Aの周辺において画像に変化が有り、かつベッドセンサー95からのベッドセンサー情報が「重み有り」である場合は、「物体のはみ出し有り」と判定する。所定領域Aからはみ出すものが、被看介護者オブジェクト800、および布団オブジェクト960以外には無い場合、被看介護者オブジェクト800、および布団オブジェクト960のいずれか、あるいはそれらの両方がはみ出したと推定される。したがって、判定部112は、被看介護者80の状態は、少なくともずり落ち、または離床ではないことから、臥床、または身体の一部がはみ出していると判定する。
(3)
FIG. 11 is a schematic diagram illustrating an image when the
(4)判定パターン4
図13は被看介護者80が離床している場合の画像を例示する模式図であり、図14は被看介護者80がずり落ちした場合の画像を例示する模式図である。判定部112は、所定領域Aの周辺において画像に変化が有り、ベッドセンサー95からのベッドセンサー情報が「重み無し」である場合は、ベッド90からの「被看介護者のはみ出し有り」と判定する。さらに、判定部112は、被看介護者オブジェクト800が所定領域Aの外側に移動し、マットレスオブジェクト940上に存在しないことから、被看介護者80は離床、またはずり落ちしたと判定する。
(4)
FIG. 13 is a schematic diagram illustrating an image when the cared-for
次に、判定結果を出力する(ステップS104)。出力部113は、ベッド90からのはみ出しの判定結果、および/または被看介護者80の状態の判定結果を出力する。判定結果は、携帯端末30へサーバー20を介して送信される。出力部113は、例えば、臥床や被看介護者80の身体の一部がはみ出している場合では判定結果を出力せず、ずり落ち、転倒、転落等の、看介護者70が一刻も早く被看介護者80のもとへ駆けつける必要がある場合では判定結果を出力するように構成できる。また、出力部113は、ずり落ち、転倒、転落等の場合では判定結果を出力するとともに、アラームを発報するように携帯端末30に指示を送ったり、看介護者70が被看介護者80の状態を確認できる画像を携帯端末30へサーバー20を介して送ったりすることもできる。また、出力部113は、離床の場合では判定結果を出力するとともに、被看介護者80の要介護度等に応じて、看介護者70に報知するように構成してもよい。また、出力部113は、例えば、被看介護者80の身体の一部、または布団96が長時間はみ出ている場合には、被看介護者80の安全や体調面の観点から判定結果を出力して、看介護者70に報知するように構成してもよい。
Next, the determination result is output (step S104). The
このように、図7に示すフローチャートの監視方法の処理では、画像情報、およびベッドセンサー情報を取得し、画像情報、およびベッドセンサー情報の両方に基づき、ベッド90からのはみ出しを判定する。
In this way, in the processing of the monitoring method of the flowchart shown in FIG. 7, image information and bed sensor information are acquired, and protrusion from the
以上で説明した本実施形態の検出装置10は、カメラ103から得られた情報、およびベッドセンサー95から得られた情報に基づき、ベッド90からはみ出した物体の判定を行うので、被看介護者80がベッド90からずり落ちたり、転倒したりした場合等、報知が必要な被看介護者80の状態について誤報および失報を防止、または抑制できる。
Since the detecting
(第2の実施形態)
第2の実施形態では、画像における物体が所定領域Aの外側の下方へ移動した場合について、ベッドセンサー情報に基づき、ベッド90からのはみ出しを判定する場合について説明する。なお、以下では、説明の重複を避けるため、第1の実施形態と同一の構成については、詳細な説明を省略する。
(Second embodiment)
In the second embodiment, a case in which an object in an image has moved downward outside the predetermined area A will be described, based on bed sensor information to determine whether the object protrudes from the
図15は初期状態として、被看介護者80が臥床している場合の画像を例示する模式図であり、図16は画像情報、およびベッドセンサー情報に基づく、ベッド90からのはみ出し判定を例示する図である。また、図17は被看介護者80が転倒、または転落した場合の画像を例示する模式図であり、図18は布団オブジェクト960の一部が所定領域Aからはみ出している場合の画像を例示する模式図である。なお、説明を簡略化するため、図15,図17,図18において、フットボード93に対応するオブジェクトについては図示を省略している。
FIG. 15 is a schematic diagram illustrating an image when the
本実施形態では、物体が所定領域Aの外側において上方へ移動したか、あるいは下方へ移動したかを区別するための閾値THが設定される。閾値THは、例えば、画像上におけるマットレスオブジェクト940の上端部の位置に設定される。判定部112は、画像上における縦方向の物体の位置が閾値THを超えている場合、物体が画像において所定領域Aの外側の上方に移動したと判定する。一方、判定部112は、物体の位置が閾値TH未満である場合、下方に移動したと判定する。
In this embodiment, a threshold value TH is set for distinguishing whether the object has moved upward or downward outside the predetermined area A. FIG. The threshold TH is set, for example, to the position of the upper end of the
図16に示すように、判定部112は、所定領域Aの外側の下方において画像に変化が有り、ベッドセンサー95からのベッドセンサー情報が「重み無し」である場合は、ベッド90からの「被看介護者のはみ出し有り」と判定する。
As shown in FIG. 16, when there is a change in the image below the predetermined area A and the bed sensor information from the
さらに、図17に示すように、判定部112は、画像上の被看介護者オブジェクト800が所定領域Aの外側に移動し、マットレスオブジェクト940上に存在しないことから、被看介護者80は転倒、または転落したと判定する。
Furthermore, as shown in FIG. 17, the
一方、判定部112は、画像において所定領域Aの外側の下方において画像に変化が有り、ベッドセンサー95からのベッドセンサー情報が「重み有り」である場合は、ベッド90からの「物体のはみ出し有り」と判定する。所定領域Aからはみ出すものが、被看介護者オブジェクト800、および布団オブジェクト960以外には無い場合、被看介護者オブジェクト800、および布団オブジェクト960のいずれか、あるいはそれらの両方がはみ出したと推定される。図18は、布団オブジェクト960が所定領域Aからはみ出している場合を例示している。
On the other hand, if there is a change in the image below the outside of the predetermined area A in the image and the bed sensor information from the
このように、本実施形態では、画像における物体が所定領域Aの外側の下方へ移動した場合について、ベッドセンサー情報に基づき、ベッド90からのはみ出しを判定する。したがって、判定部112は、所定領域Aの外側の下方へ移動した何らかの物体が被看介護者80のはみ出しによるものか、あるいは布団96のはみ出しによるものかを判定できる。さらに、判定部112は、被看介護者80の状態が転倒、または転落であるのか、あるいは臥床(転倒、または転落ではない)であるのかを判定できる。
As described above, in the present embodiment, when the object in the image moves downward outside the predetermined area A, it is determined whether the object protrudes from the
(第3の実施形態)
第3の実施形態では、ベッドセンサー情報が「重み無し」である場合について、画像における物体が所定領域Aの外側の上方へ移動したか、あるいは下方へ移動したかに基づき、被看介護者80の状態を判定する。なお、以下では、説明の重複を避けるため、第1の実施形態と同一の構成については、詳細な説明を省略する。
(Third embodiment)
In the third embodiment, when the bed sensor information is "unweighted", based on whether the object in the image has moved upward or downward outside the predetermined area A, the cared
図19は、第3の実施形態における検出装置10による監視方法の処理手順を例示するフローチャートである。同図のフローチャートの処理は、演算制御部101のCPUが監視プログラムを実行することにより実現される。また、図20は初期状態として、被看介護者80が臥床している場合の画像を例示する模式図であり、図21は画像情報、およびベッドセンサー情報に基づく、被看介護者80の状態判定を例示する図である。また、図22は被看介護者80が離床している場合の画像を例示する模式図であり、図23は被看介護者80が転倒、または転落した場合の画像を例示する模式図である。また、図24は比較例として被看介護者80が離床している場合の画像を例示する模式図であり、図25は比較例として被看介護者80が転倒、または転落した場合の画像を例示する模式図である。なお、説明を簡略化するため、図20,図22~図25において、フットボード93に対応するオブジェクトについては図示を省略している。
FIG. 19 is a flow chart illustrating the processing procedure of the monitoring method by the detecting
図19に示すように、まず、カメラ103により監視領域内の撮影を開始する(ステップS201)。演算制御部101は、カメラ103を制御して、監視領域内の撮影を開始(または継続)する。本実施形態においても、第2の実施形態と同様に、初期状態として、被看介護者80が臥床している場合を想定し、所定領域Aの外側に移動した物体が所定領域Aの外側の上方へ移動したか、あるいは下方へ移動したかを区別するための閾値THが設定される(図20を参照)。
As shown in FIG. 19, first, the
次に、ベッドセンサー情報を取得する(ステップS202)。取得部111は、ベッドセンサー95の検知結果をベッドセンサー情報として判定部112に送信する。
Next, bed sensor information is acquired (step S202).
次に、ベッドセンサー情報が「重み無し」であるか否かを判定する(ステップS203)。図21に示すように、ベッドセンサー情報が「重み無し」である場合(ステップS203:YES)、画像の認識感度を変更する(ステップS204)。演算制御部101は、ベッド90の周辺について、画像の認識感度を高めるようにカメラ103を制御する。例えば、演算制御部101は、カメラ103による撮影のフレームレートを上げることにより、画像の認識感度を高めるように制御する。フレームレートが上がることにより、画質が向上し、画像における物体の位置の検出精度が向上する。一方、ベッドセンサー情報が「重み無し」ではない、すなわち、「重み有り」である場合(ステップS203:NO)、画像の認識感度を変更せずに次のステップS205の処理に移行する。なお、「重み有り」である場合は、被看介護者80がベッド90から移動していないため、画像の認識感度を高める必要がない。
Next, it is determined whether or not the bed sensor information is "no weight" (step S203). As shown in FIG. 21, when the bed sensor information is "unweighted" (step S203: YES), the image recognition sensitivity is changed (step S204). The
次に、画像情報を取得する(ステップS205)。取得部111は、カメラ103によって撮影された画像を取得し、画像情報として判定部112に送信する。
Next, image information is acquired (step S205).
次に、被看介護者80の状態を判定する(ステップS206)。図22に示すように、判定部112は、所定領域Aの外側において上方へ移動した何らかの物体が有る場合、被看介護者80が離床(転倒、または転落ではない)と判定する。また、図23に示すように、判定部112は、所定領域Aの外側において下方へ移動した何らかの物体が有り、かつ上方へ移動した物体が無い場合、被看介護者80が転倒、または転落したと判定する。
Next, the state of the cared
一方、図24に示すように、ベッドセンサー95がマットレス94に配置されていない場合、ベッドセンサー情報が得られないため、画像の認識感度は変更されない。したがって、判定部112は、被看介護者80が離床しても検出できない可能性がある。同様に、図25に示すように、ベッドセンサー95がマットレス94に配置されていない場合、被看介護者80が転倒、または転落しても検出できない可能性がある。
On the other hand, as shown in FIG. 24, when the
次に、判定結果を出力する(ステップS207)。出力部113は、被看介護者80の状態の判定結果を出力する。判定結果は、携帯端末30へサーバー20を介して送信される。
Next, the determination result is output (step S207). The
このように、図19に示すフローチャートの処理では、ベッドセンサー情報を取得し、ベッドセンサー情報が「重み無し」である場合、画像の認識感度を変更した後、画像情報を取得し、画像情報およびベッドセンサー情報に基づき、被看介護者80の状態を判定する。
In this way, in the processing of the flowchart shown in FIG. 19, the bed sensor information is acquired, and if the bed sensor information is "unweighted", the image recognition sensitivity is changed, then the image information is acquired, and the image information and The state of the
以上で説明した本実施形態の検出装置10によれば、被看介護者80がベッドからずり落ちたり、転倒したりした場合等、報知が必要な被看介護者80の状態について誤報および失報を防止、または抑制できる。
According to the detecting
以上説明した監視システム1の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変できる。
The configuration of the
例えば、上述した第1~第3の実施形態では、検出装置10をヘッドボード92に設置する場合について説明したが、検出装置10は、例えば、フットボード93等、ヘッドボード92以外の場所に設置されてもよい。また、検出装置10は、ヘッドボード92、フットボード93の上端部に限らず、例えば、ベッド90の中心に向いている面内に設置することもできる。
For example, in the first to third embodiments described above, the case where the
また、上述した第1~第3の実施形態では、画像情報の所定領域Aの周辺における変化の有無と、ベッドセンサー情報の重みの有無とに基づいて、判定部112が、ベッド90からの物体のはみ出しの判定を行う場合について説明した。しかしながら、本発明はこのような場合に限定されず、判定部112が、公知の画像認識技術、パターンマッチング技術、機械学習技術等を利用して、カメラ103によって撮像された画像を解析し、画像の解析結果と、ベッドセンサー情報の重みの有無とに基づいて、ベッド90からの物体のはみ出しの判定を行うように構成されてもよい。
Further, in the above-described first to third embodiments, the
ベッド90からの物体のはみ出しには、布団96のみ、布団96および被看介護者80の身体の一部、または被看介護者80の身体の一部のみのはみ出しが考えられる。機械学習技術を利用して画像解析を行う場合、判定部112は、例えば、以下のようにして、はみ出した物体を判定しうる。予め、ベッド90上における布団96の位置や状態等の条件を変えて布団96のみがベッド90からはみ出しているときの所定領域Aおよびその周辺を撮影し、撮影された複数の画像および正解ラベルを教師データとしてディープニューラルネットワークに入力して学習させる。この場合、正解ラベルは、布団96のみがベッド90からはみ出している確率(尤度)が100%、布団96および被看介護者80の身体の一部がはみ出している確率が0%、被看介護者80の身体の一部のみはみ出している確率が0%とされる。被看介護者80の監視時において、判定部112は、カメラ103から得られた画像(情報)をディープニューラルネットワークに入力し、布団96のみがベッド90からはみ出している確率等を解析結果として得る。判定部112は、解析結果、およびベッドセンサー情報(ベッドセンサー95から得られた情報)に基づき、ベッド90からはみ出した物体が、布団96のみか、あるいは少なくとも身体の一部が含まれているかを判定する。例えば、判定部112は、布団96のみがベッド90からはみ出している確率が所定値以上で、かつベッドセンサー情報が「重み有り」である場合、ベッド90からはみ出した物体が、布団96のみであると判定する。一方、判定部112は、布団96のみがベッド90からはみ出している確率が所定値未満で、かつベッドセンサー情報が「重み有り」である場合、ベッド90からはみ出した物体には、少なくとも被看介護者80の身体の一部が含まれていると判定する。
An object protruding from the
判定部112により、ベッド90からはみ出した物体が、布団96のみと判定された場合、判定結果を出力(報知)しない制御を行う。これにより、報知が必要ない被看介護者80の状態について発報する誤報を防止できる。その結果、看介護者70の負担を軽減できる。一方、出力部113は、判定部112により、ベッド90からはみ出した物体が、少なくとも身体の一部が含まれていると判定された場合、判定結果を出力する制御を行う。
When the
また、判定部112が、画像解析を行う場合について説明したが、本発明は、このような場合に限定されない。例えば、カメラ103において所定領域A、およびその周辺の画像を解析してベッド90からのはみ出しの判定を行い、判定部112が、カメラ103による判定結果、およびベッドセンサー情報に基づいて、ベッド90からはみ出した物体の判定を行うように構成することもできる。また、カメラ103によって撮像された画像(画像情報)を解析せずにそのままサーバー20に送信し、サーバー20において画像を解析してベッド90からのはみ出しの判定を行い、判定結果、およびベッドセンサー情報に基づいて、ベッド90からはみ出した物体の判定を行うように構成することもできる。
Moreover, although the case where the
また、ベッドセンサー95がベッド90上の荷重(荷重情報)を検出し、検出された荷重情報を解析してベッド90からのはみ出しの判定を行い、判定部112が、画像情報、および荷重情報の解析結果に基づき、ベッド90からはみ出した物体の判定を行うように構成することもできる。また、ベッドセンサー95によって検出された荷重情報を解析せずにそのままサーバー20に送信し、サーバー20において、ベッド90上の荷重情報を解析してベッド90からのはみ出しの判定を行い、画像情報、および荷重情報の解析結果に基づき、ベッド90からはみ出した物体の判定を行うように構成することもできる。
Further, the
また、上述したフローチャートにおいては、フローチャートに示したステップ以外のステップを含んでもよく、一部のステップを含まなくてもよい。また、ステップの順序は、上述した実施形態に限定されない。さらに、各ステップは、他のステップと組み合わされて一つのステップとして実行されてもよく、他のステップに含まれて実行されてもよく、複数のステップに分割されて実行されてもよい。 Further, the above-described flowchart may include steps other than the steps shown in the flowchart, or may not include some steps. Also, the order of steps is not limited to the embodiment described above. Furthermore, each step may be combined with other steps and executed as one step, may be executed while being included in other steps, or may be divided into a plurality of steps and executed.
また、上述した実施形態における各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)-ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてその検出部等の装置のソフトウエアに組み込まれてもよい。 Also, the means and methods for performing various processes in the above-described embodiments can be realized either by dedicated hardware circuits or programmed computers. The program may be provided by a computer-readable recording medium such as a USB memory or a DVD (Digital Versatile Disc)-ROM, or may be provided online via a network such as the Internet. In this case, the program recorded on the computer-readable recording medium is usually transferred to and stored in a storage unit such as a hard disk. Further, the program may be provided as independent application software, or may be incorporated as a function into the software of the device such as the detection unit.
1 監視システム、
10 検出装置、
101 演算制御部、
102 通信部、
103 カメラ、
111 取得部、
112 判定部、
113 出力部、
20 サーバー、
201 演算制御部、
202 通信部、
203 記憶部、
30 携帯端末、
31 アクセスポイント、
90 ベッド、
91 フレーム部、
92 ヘッドボード、
93 フットボード、
94 マットレス、
95 センサー部、
96 布団。
1 surveillance system,
10 detection device,
101 arithmetic control unit,
102 communication unit,
103 camera,
111 acquisition unit;
112 determination unit,
113 output unit,
20 servers,
201 arithmetic control unit,
202 communication unit;
203 storage unit,
30 mobile terminals,
31 access points,
90 beds,
91 frame part,
92 headboards,
93 footboards,
94 mattresses,
95 sensor unit,
96 futons.
Claims (22)
前記ベッド上の荷重を検出するベッドセンサーと、
前記撮像部から得られた情報および前記ベッドセンサーから得られた情報に基づき、前記ベッドからはみ出した物体の判定を行う判定部と、を備えた監視システム。 an imaging unit that captures an imaging area including at least the bed;
a bed sensor that detects a load on the bed;
a determination unit that determines an object protruding from the bed based on information obtained from the imaging unit and information obtained from the bed sensor.
ベッドセンサーが前記ベッド上の荷重を検出する検出ステップと、
前記撮像部から得られた情報と、前記ベッドセンサーから得られた情報とに基づき、前記ベッドからはみ出した物体の判定を行う判定ステップと、を含む、監視方法。 an imaging step in which the imaging unit images an imaging region including at least the bed;
a detection step in which a bed sensor detects a load on the bed;
a determination step of determining an object protruding from the bed based on information obtained from the imaging unit and information obtained from the bed sensor.
A monitoring program for causing a computer to execute the monitoring method according to any one of claims 12 to 21.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021148373A JP2023041168A (en) | 2021-09-13 | 2021-09-13 | Monitor system, monitor method, and monitor program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021148373A JP2023041168A (en) | 2021-09-13 | 2021-09-13 | Monitor system, monitor method, and monitor program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023041168A true JP2023041168A (en) | 2023-03-24 |
Family
ID=85641404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021148373A Pending JP2023041168A (en) | 2021-09-13 | 2021-09-13 | Monitor system, monitor method, and monitor program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023041168A (en) |
-
2021
- 2021-09-13 JP JP2021148373A patent/JP2023041168A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6171415B2 (en) | Information processing apparatus, information processing method, and program | |
JP6167563B2 (en) | Information processing apparatus, information processing method, and program | |
JP6717235B2 (en) | Monitoring support system and control method thereof | |
WO2012043020A1 (en) | Safe nursing system and method for controlling safe nursing system | |
JP4841462B2 (en) | Bed equipment | |
JP6915421B2 (en) | Watching support system and its control method | |
JP6757155B2 (en) | Status judgment device | |
JP6273944B2 (en) | Status detection method, apparatus, and program | |
US20210219873A1 (en) | Machine vision to predict clinical patient parameters | |
JP7403132B2 (en) | Nursing care recording device, nursing care recording system, nursing care recording program, and nursing care recording method | |
CN108814614B (en) | Method, device and system for monitoring user action | |
JP5068602B2 (en) | Bed equipment | |
JP5111889B2 (en) | Bed equipment | |
JP4342298B2 (en) | Device usage status determination method and device usage status determination device | |
JP2008212306A (en) | Bed apparatus | |
JPWO2017183603A1 (en) | Monitored person monitoring system and monitored person monitoring method | |
JP6791731B2 (en) | Posture judgment device and reporting system | |
JP2023041168A (en) | Monitor system, monitor method, and monitor program | |
JP2006223650A (en) | Bed, sit-up detecting device and program | |
JP3138451B2 (en) | Patient monitoring device | |
WO2018235628A1 (en) | Monitoring assistance system, control method therefor, and program | |
JP6607253B2 (en) | Image analysis apparatus, image analysis method, and image analysis program | |
JP5870230B1 (en) | Watch device, watch method and watch program | |
JP7172483B2 (en) | STATE DETECTION DEVICE, STATE DETECTION METHOD, AND PROGRAM | |
JP2023025761A (en) | Watching system, watching device, watching method, and watching program |