JP2023041168A - Monitor system, monitor method, and monitor program - Google Patents

Monitor system, monitor method, and monitor program Download PDF

Info

Publication number
JP2023041168A
JP2023041168A JP2021148373A JP2021148373A JP2023041168A JP 2023041168 A JP2023041168 A JP 2023041168A JP 2021148373 A JP2021148373 A JP 2021148373A JP 2021148373 A JP2021148373 A JP 2021148373A JP 2023041168 A JP2023041168 A JP 2023041168A
Authority
JP
Japan
Prior art keywords
bed
information obtained
information
image
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021148373A
Other languages
Japanese (ja)
Inventor
修司 一谷
Shuji Ichitani
隆志 太田
Takashi Ota
竜二 加藤
Ryuji Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2021148373A priority Critical patent/JP2023041168A/en
Publication of JP2023041168A publication Critical patent/JP2023041168A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a monitor system, monitor method, and monitor program which can prevent or suppress a false alarm or missing alarm of a movement of a care-receiver who is required give alarm such as his/her slip-down, overturn, and the like.SOLUTION: A monitor system 1 includes an imaging part 103, a bed sensor 95, and a determination part. The imaging part images an image region including at least a bed. The bed sensor 95 detects a load on the bed, The determination part determines an object that has been fallen-out from the bed on the basis of, the information obtained by the imaging part and the information obtained by the bed sensor 95.SELECTED DRAWING: Figure 1

Description

本発明は、監視システム、監視方法、および監視プログラムに関する。 The present invention relates to a monitoring system, a monitoring method, and a monitoring program.

介護老人福祉施設や病院等の看介護施設において、入居または入院している被看護者や被介護者(以下、「被看介護者」または「利用者」という)は、看介護施設内で、歩行中に転倒したり、ベッドから転落して怪我したりすることがある。そのため、被看介護者がこのような状態になったときに看護師や介護士等(以下、「看介護者」という)がすぐに駆けつけられるようにするために、被看介護者の状態を常時検知するための見守りシステムの開発が進められている。 In nursing care facilities such as nursing care facilities for the elderly and hospitals, care recipients and care recipients (hereinafter referred to as "cared care recipients" or "users") who live in or are hospitalized may: You may fall while walking or fall out of bed and get injured. Therefore, in order to enable nurses, caregivers, etc. (hereinafter referred to as “caregiver”) to rush to the caregiver when the caregiver becomes such a condition, Development of a monitoring system for constant detection is underway.

下記特許文献1には、画像に基づき、監視対象者のベッドからの「ずり落ち」を検知する技術が開示されている。この技術では、臥位状態でベッドサイドに上半身または下半身が出ている状態で、移動物体の30%以上100%未満の体積がベッド枠を超えていることが検知された場合には、「ずり落ち」として判定する。 Patent Literature 1 listed below discloses a technique for detecting "skidding" of a person to be monitored from a bed based on an image. With this technology, when it is detected that 30% or more and less than 100% of the volume of a moving object exceeds the bed frame while the upper or lower body is protruding from the bedside in a supine position, the "slipping It is judged as "Falling".

国際公開第2019/030880号WO2019/030880

特許文献1の技術では、発明者らが鋭意検討した結果、布団等の、監視対象者(被看介護者)以外の物がベッドからはみ出しても、監視対象者がずり落ちしたと誤検知してしまう課題や、監視対象者が非常にゆっくりとベッドからずり落ちると移動物体として認識されず失報となってしまう課題が生じることがわかった。 In the technique of Patent Document 1, as a result of diligent studies by the inventors, even if an object other than the person to be monitored (the person being cared for), such as a futon, protrudes from the bed, it is erroneously detected that the person to be monitored has slipped down. It was found that there were problems that the monitored person slipped off the bed very slowly, and that the object was not recognized as a moving object, resulting in a false alarm.

本発明はこのような問題を解決するためになされたものである。すなわち、ずり落ちや、転倒、転落等、報知が必要な被看介護者の状態について誤報および失報を防止、または抑制できる監視システム、監視方法、監視プログラムを提供することを目的とする。 The present invention has been made to solve such problems. That is, it is an object of the present invention to provide a monitoring system, a monitoring method, and a monitoring program capable of preventing or suppressing erroneous and unreported conditions of a care recipient, such as slipping, falling, and falling.

本発明の上記課題は、以下の手段によって解決される。 The above problems of the present invention are solved by the following means.

(1)少なくともベッドを含む撮影領域を撮像する撮像部と、前記ベッド上の荷重を検出するベッドセンサーと、前記撮像部から得られた情報および前記ベッドセンサーから得られた情報に基づき、前記ベッドからはみ出した物体の判定を行う判定部と、を備えた監視システム。 (1) an imaging unit that captures an imaging area including at least a bed; a bed sensor that detects a load on the bed; and a determination unit that determines an object protruding from the object.

(2)前記判定部は、前記撮像部から得られた情報および前記ベッドセンサーから得られた情報に基づき、前記ベッドからはみ出した物体が、布団のみか少なくとも身体の一部が含まれているかを判定する、上記(1)に記載の監視システム。 (2) Based on the information obtained from the imaging unit and the information obtained from the bed sensor, the determination unit determines whether the object protruding from the bed includes only a futon or at least a part of the body. The monitoring system according to (1) above, which determines.

(3)前記ベッドからはみ出した物体が、布団のみと判定された場合、判定結果を報知しない制御を行う制御部をさらに備えた上記(2)に記載の監視システム。 (3) The monitoring system according to (2) above, further comprising a control unit that performs control not to report the determination result when it is determined that the only object protruding from the bed is the futon.

(4)前記ベッドからはみ出した物体が、少なくとも身体の一部が含まれていると判定された場合、判定結果を報知する制御を行う制御部をさらに備えた上記(2)に記載の監視システム。 (4) The monitoring system according to (2) above, further comprising a control unit that performs control to report a determination result when it is determined that the object protruding from the bed includes at least a part of the body. .

(5)前記撮像部から得られた情報は、前記撮像部において、撮像された画像の解析を行った情報である、上記(1)~(4)のいずれか1つに記載の監視システム。 (5) The monitoring system according to any one of (1) to (4) above, wherein the information obtained from the imaging unit is information obtained by analyzing an image captured by the imaging unit.

(6)前記ベッドセンサーから得られた情報は、前記ベッドセンサーにおいて、検出された荷重の解析を行った情報である、上記(1)~(5)のいずれか1つに記載の監視システム。 (6) The monitoring system according to any one of (1) to (5) above, wherein the information obtained from the bed sensor is information obtained by analyzing the load detected by the bed sensor.

(7)前記撮像部から得られた情報は、前記撮像部によって撮像された画像情報である、上記(1)~(4)、(6)のいずれか1つに記載の監視システム。 (7) The monitoring system according to any one of (1) to (4) and (6) above, wherein the information obtained from the imaging section is image information captured by the imaging section.

(8)前記ベッドセンサーから得られた情報は、前記ベッドセンサーによって検出された荷重情報である、上記(1)~(5)、(7)のいずれか1つに記載の監視システム。 (8) The monitoring system according to any one of (1) to (5) and (7) above, wherein the information obtained from the bed sensor is load information detected by the bed sensor.

(9)前記ベッドセンサーから情報を取得し、前記ベッドセンサーから得られた情報に基づき、画像の認識感度を変更した後、前記画像情報を取得する取得部をさらに有する、上記(7)に記載の監視システム。 (9) The above-described (7), further comprising an acquisition unit that acquires information from the bed sensor, changes image recognition sensitivity based on the information acquired from the bed sensor, and then acquires the image information. monitoring system.

(10)前記ベッドに設置された前記撮像部から前記画像情報を取得する取得部をさらに有する、上記(7)に記載の監視システム。 (10) The monitoring system according to (7) above, further including an acquisition unit that acquires the image information from the imaging unit installed on the bed.

(11)前記判定部の判定結果を出力する出力部をさらに備える、上記(1)~(10)のいずれか1つに記載の監視システム。 (11) The monitoring system according to any one of (1) to (10) above, further comprising an output section that outputs a determination result of the determination section.

(12)撮像部が少なくともベッドを含む撮影領域を撮像する撮像ステップと、ベッドセンサーが前記ベッド上の荷重を検出する検出ステップと、前記撮像部から得られた情報と、前記ベッドセンサーから得られた情報とに基づき、前記ベッドからはみ出した物体の判定を行う判定ステップと、を含む、監視方法。 (12) an image capturing step in which an image capturing unit captures an image of an image capturing area including at least a bed; a detection step in which a bed sensor detects a load on the bed; information obtained from the image capturing unit; and a determination step of determining an object protruding from the bed based on the information obtained.

(13)前記判定ステップにおいて、前記撮像部から得られた情報および前記ベッドセンサーから得られた情報に基づき、前記ベッドからはみ出した物体が布団のみか少なくとも身体の一部が含まれているかを判定する、上記(12)に記載の監視方法。 (13) In the determining step, based on the information obtained from the imaging unit and the information obtained from the bed sensor, it is determined whether the object protruding from the bed includes only the futon or at least a part of the body. The monitoring method according to (12) above.

(14)前記判定ステップにおいて、前記ベッドからはみ出した物体が、布団のみと判定された場合、判定結果を報知しない制御を行う制御ステップをさらに含む、上記(13)に記載の監視方法。 (14) The monitoring method according to (13) above, further comprising a control step of not notifying the determination result when it is determined in the determination step that the only object protruding from the bed is the futon.

(15)前記判定ステップにおいて、前記ベッドからはみ出した物体が、少なくとも身体の一部が含まれていると判定された場合、判定結果を報知する制御を行う制御ステップをさらに含む、上記(13)に記載の監視方法。 (15) The above (13), further comprising a control step of notifying the determination result when it is determined in the determination step that the object protruding from the bed includes at least a part of the body. monitoring method described in .

(16)前記撮像部から得られた情報は、前記撮像部において、撮像された画像の解析を行った情報である、上記(12)~(15)のいずれか1つに記載の監視方法。 (16) The monitoring method according to any one of (12) to (15) above, wherein the information obtained from the imaging unit is information obtained by analyzing an image captured by the imaging unit.

(17)前記ベッドセンサーから得られた情報は、前記ベッドセンサーにおいて、検出された荷重の解析を行った情報である、上記(12)~(16)のいずれか1つに記載の監視方法。 (17) The monitoring method according to any one of (12) to (16) above, wherein the information obtained from the bed sensor is information obtained by analyzing the load detected by the bed sensor.

(18)前記撮像部から得られた情報は、前記撮像部によって撮像された画像情報である、上記(12)~(15)、(17)のいずれか1つに記載の監視方法。 (18) The monitoring method according to any one of (12) to (15) and (17) above, wherein the information obtained from the imaging unit is image information captured by the imaging unit.

(19)前記ベッドセンサーから得られた情報は、前記ベッドセンサーによって検出された荷重情報である、上記(12)~(16)、(18)のいずれか1つに記載の監視方法。 (19) The monitoring method according to any one of (12) to (16) and (18) above, wherein the information obtained from the bed sensor is load information detected by the bed sensor.

(20)前記ベッドセンサーから情報を取得し、前記ベッドセンサーから得られた情報に基づき、画像の認識感度を変更した後、前記画像情報を取得する、上記(18)に記載の監視方法。 (20) The monitoring method according to (18) above, wherein information is obtained from the bed sensor, image recognition sensitivity is changed based on the information obtained from the bed sensor, and then the image information is obtained.

(21)前記判定ステップにおける判定結果を出力する出力ステップをさらに含む、上記(12)~(20)のいずれか1つに記載の監視方法。 (21) The monitoring method according to any one of (12) to (20) above, further including an output step of outputting the determination result of the determination step.

(22)上記(12)~(21)のいずれか1つに記載の監視方法をコンピューターに実行させるための監視プログラム。 (22) A monitoring program for causing a computer to execute the monitoring method according to any one of (12) to (21) above.

本発明によれば、撮像部から得られた情報、およびベッドセンサーから得られた情報に基づき、ベッドからのはみ出した物体の判定を行うので、被看介護者がベッドからずり落ちたり、転倒したりした場合等、報知が必要な被看介護者の状態について誤報および失報を防止、または抑制できる。 According to the present invention, based on the information obtained from the imaging unit and the information obtained from the bed sensor, an object protruding from the bed is determined. It is possible to prevent or suppress erroneous and unreported conditions of the cared-for person who needs to be notified.

第1の実施形態に係る監視システムの全体構成を示す図である。It is a figure showing the whole surveillance system composition concerning a 1st embodiment. 図1に示す検出装置が設置された、被看介護者のベッドを例示する模式図である。FIG. 2 is a schematic diagram illustrating a bed of a cared person on which the detection device shown in FIG. 1 is installed; 図2に示す被看介護者のベッドを側方から視た模式図である。FIG. 3 is a schematic diagram of the bed of the person being cared for shown in FIG. 2 viewed from the side; 図1に示す検出装置のハードウェア構成を示すブロック図である。2 is a block diagram showing the hardware configuration of the detection device shown in FIG. 1; FIG. 図4に示す演算制御部の主要な機能を例示するブロック図である。5 is a block diagram illustrating main functions of an arithmetic control unit shown in FIG. 4; FIG. 図1に示すサーバーのハードウェア構成を示すブロック図である。2 is a block diagram showing the hardware configuration of the server shown in FIG. 1; FIG. 第1の実施形態における検出装置の監視方法の処理手順を例示するフローチャートである。6 is a flow chart illustrating a processing procedure of a detection device monitoring method according to the first embodiment; 画像情報、およびベッドセンサー情報に基づく、ベッドからのはみ出し判定を例示する図である。FIG. 4 is a diagram illustrating determination of protrusion from a bed based on image information and bed sensor information; 被看介護者が臥床している場合の画像を例示する模式図である。FIG. 4 is a schematic diagram illustrating an image when the cared person is lying down; 被看介護者が離床している場合の画像を例示する模式図である。FIG. 10 is a schematic diagram illustrating an image when the cared person is out of bed; 布団オブジェクトが所定領域からはみ出している場合の画像を例示する模式図である。FIG. 11 is a schematic diagram illustrating an image when a futon object protrudes from a predetermined area; 被看介護者オブジェクトの一部(足)が所定領域からはみ出している場合の画像を例示する模式図である。FIG. 10 is a schematic diagram illustrating an image when a part (leg) of the cared person object is protruding from a predetermined area; 被看介護者が離床している場合の画像を例示する模式図である。FIG. 10 is a schematic diagram illustrating an image when the cared person is out of bed; 被看介護者がずり落ちした場合の画像を例示する模式図である。It is a schematic diagram which illustrates an image when a cared person being cared for slips down. 初期状態として、被看介護者が臥床している場合の画像を例示する模式図である。FIG. 10 is a schematic diagram illustrating an image when the cared person is lying down as an initial state; 画像情報、およびベッドセンサー情報に基づく、ベッドからのはみ出し判定を例示する図である。FIG. 4 is a diagram illustrating determination of protrusion from a bed based on image information and bed sensor information; 被看介護者が転倒、または転落した場合の画像を例示する模式図である。FIG. 4 is a schematic diagram illustrating an image when the cared-for caregiver falls or falls; 布団オブジェクトが所定領域からはみ出している場合の画像を例示する模式図である。FIG. 11 is a schematic diagram illustrating an image when a futon object protrudes from a predetermined area; 第3の実施形態における検出装置による監視方法の処理手順を例示するフローチャートである。11 is a flow chart illustrating a processing procedure of a monitoring method by a detection device according to the third embodiment; 初期状態として、被看介護者が臥床している場合の画像を例示する模式図である。FIG. 10 is a schematic diagram illustrating an image when the cared person is lying down as an initial state; 画像情報、およびベッドセンサー情報に基づく、被看介護者の状態判定を例示する図である。FIG. 10 is a diagram exemplifying state determination of a cared person based on image information and bed sensor information; 被看介護者が離床している場合の画像を例示する模式図である。FIG. 10 is a schematic diagram illustrating an image when the cared person is out of bed; 被看介護者が転倒、または転落した場合の画像を例示する模式図である。FIG. 4 is a schematic diagram illustrating an image when the cared-for caregiver falls or falls; 比較例として、被看介護者が離床している場合の画像を例示する模式図である。As a comparative example, it is a schematic diagram illustrating an image when the cared person is out of bed. 比較例として、被看介護者が転倒、または転落した場合の画像を例示する模式図である。As a comparative example, it is a schematic diagram which illustrates an image when a cared person to be cared for falls or falls.

以下、図面を参照して、本発明の実施形態に係る監視システム、監視方法、および監視プログラムについて説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。 Hereinafter, a monitoring system, a monitoring method, and a monitoring program according to embodiments of the present invention will be described with reference to the drawings. In the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted. Also, the dimensional ratios in the drawings are exaggerated for convenience of explanation, and may differ from the actual ratios.

(第1の実施形態)
図1は、第1の実施形態に係る監視システム1の全体構成を示す図である。本実施形態では、監視システム1は、看介護施設等で用いられる。監視システム1は、検出装置10、サーバー20、複数の携帯端末30、および無線AP(アクセスポイント)31を含む。検出装置10、サーバー20、および携帯端末30は、LAN(Local Area Network)および無線AP31を介して相互に通信可能に接続される。携帯端末30は、被看介護者80の看護または介護をする看介護者70に携帯される。
(First embodiment)
FIG. 1 is a diagram showing the overall configuration of a monitoring system 1 according to the first embodiment. In this embodiment, the monitoring system 1 is used in a nursing care facility or the like. The monitoring system 1 includes a detection device 10 , a server 20 , multiple mobile terminals 30 and a wireless AP (access point) 31 . The detection device 10, the server 20, and the mobile terminal 30 are connected to communicate with each other via a LAN (Local Area Network) and a wireless AP31. The portable terminal 30 is carried by a nursing caregiver 70 who nurses or cares for a nursing care recipient 80 .

(ベッド90)
図2は、図1に示す検出装置10が設置された、被看介護者80のベッド90を例示する模式図である。また、図3は、図2に示すベッド90を側方から視た模式図である。なお、図3において、紙面の左から右へ向かう方向(ベッド90のヘッド側からフット側へ向かう方向)をX軸方向、紙面の手前から奥へ向かう方向(ベッド90の幅方向)をY軸方向、紙面の下から上へ向かう方向(ベッド90の高さ方向)をZ軸方向と各々定義している。
(Bed 90)
FIG. 2 is a schematic diagram illustrating a bed 90 of a cared person 80 on which the detection device 10 shown in FIG. 1 is installed. 3 is a schematic diagram of the bed 90 shown in FIG. 2 as viewed from the side. In FIG. 3, the direction from left to right in the paper (the direction from the head side to the foot side of the bed 90) is the X-axis direction, and the direction from the front to the back of the paper (the width direction of the bed 90) is the Y-axis. The Z-axis direction is defined as the direction and the direction from the bottom to the top of the paper surface (the height direction of the bed 90).

図2、図3に示すように、ベッド90は、フレーム部91、ヘッドボード92、フットボード93、マットレス94、およびベッドセンサー95を含む。マットレス94の上には、布団96が掛けられている。布団96には、掛布団、毛布、タオルケット等の寝具類が含まれうる。また、ベッド90は、例えば、電動ベッドでありうる。 As shown in FIGS. 2 and 3, bed 90 includes frame portion 91 , headboard 92 , footboard 93 , mattress 94 and bed sensor 95 . A futon 96 is put on the mattress 94 . Futon 96 may include bedding such as comforters, blankets, towel blankets, and the like. Also, the bed 90 can be, for example, an electric bed.

ベッドセンサー95は、ベッド90上の被看介護者80の体重による押圧力を検知する荷重センサーである。これにより、ベッドセンサー95は、ベッド90上に被看介護者80がいるか否かを検知する。ベッドセンサー95は、空気が封入されたシート状の袋と、この空気の圧力の変動を検知する圧電センサーとにより構成されうる。ベッドセンサー95は、例えば、マットレス94における被看介護者80の背部、腰部、臀部等が接触する部分に配置されうる。ベッドセンサー95の検知結果(ベッドセンサー情報)は、演算制御部101に送信される。ベッドセンサー情報は、荷重センサーによって計測された荷重に関する情報(荷重センサー情報)でありうる。本実施形態では、ベッドセンサー情報は、例えば、被看介護者80の荷重の有無を各々「重み有り」および「重み無し」で表す。 The bed sensor 95 is a load sensor that detects the pressing force due to the weight of the cared person 80 on the bed 90 . Thereby, the bed sensor 95 detects whether or not the cared person 80 is on the bed 90 . The bed sensor 95 can be composed of a sheet-like bag containing air and a piezoelectric sensor that detects variations in the air pressure. The bed sensor 95 can be arranged, for example, in a portion of the mattress 94 with which the back, waist, buttocks, etc. of the cared person 80 come into contact. A detection result (bed sensor information) of the bed sensor 95 is transmitted to the arithmetic control unit 101 . The bed sensor information can be information about the load measured by the load sensor (load sensor information). In the present embodiment, the bed sensor information indicates, for example, the presence or absence of a load on the care recipient 80 as "weighted" and "unweighted", respectively.

(検出装置10)
図4は、図1に示す検出装置10のハードウェア構成を示すブロック図である。検出装置10は、演算制御部101、通信部102、およびカメラ103を有し、これらはバスにより相互に接続される。検出装置10は、例えばベッド90のヘッドボード92の上端部に設置されている。
(Detection device 10)
FIG. 4 is a block diagram showing the hardware configuration of the detection device 10 shown in FIG. 1. As shown in FIG. The detection device 10 has an arithmetic control unit 101, a communication unit 102, and a camera 103, which are interconnected by a bus. The detection device 10 is installed, for example, on the upper end of the headboard 92 of the bed 90 .

演算制御部101は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。また、演算制御部101は、HDDまたはSSD(Solid State Drive)を備えうる。演算制御部101は、監視プログラムに従って検出装置10の各部の制御および演算処理を行う。演算制御部101の主要な機能については後述する。 The arithmetic control unit 101 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. Also, the arithmetic control unit 101 can include an HDD or an SSD (Solid State Drive). The arithmetic control unit 101 performs control and arithmetic processing of each unit of the detection device 10 according to the monitoring program. Main functions of the arithmetic control unit 101 will be described later.

通信部102は、LANを介して、例えば、サーバー20等と通信するためのインターフェース回路(例えばLANカード、無線通信回路等)である。 The communication unit 102 is an interface circuit (for example, a LAN card, a wireless communication circuit, etc.) for communicating with, for example, the server 20 via a LAN.

カメラ103は、少なくともベッド90とベッド90の周辺領域とを含む監視領域内を撮影し、撮影画像(画像情報)を出力する。カメラ103は、撮像部を構成する。この画像情報には、静止画および動画が含まれる。動画には、時系列で間欠的に撮影された複数の静止画が含まれうる。カメラ103は近赤外線カメラであるが、これに換えて可視光カメラを用いてもよく、これらを併用してもよい。 The camera 103 captures an image within a monitoring area including at least the bed 90 and the peripheral area of the bed 90, and outputs a captured image (image information). The camera 103 constitutes an imaging unit. This image information includes still images and moving images. A moving image may include a plurality of still images captured intermittently in time series. The camera 103 is a near-infrared camera, but a visible light camera may be used instead, or both of them may be used.

図5は、図1に示す演算制御部101の主要な機能を例示するブロック図である。演算制御部101は、取得部111、判定部112、および出力部113として機能する。 FIG. 5 is a block diagram illustrating major functions of the arithmetic control unit 101 shown in FIG. Calculation control unit 101 functions as acquisition unit 111 , determination unit 112 , and output unit 113 .

取得部111は、画像情報およびベッドセンサー情報を取得する。判定部112は、画像情報およびベッドセンサー情報に基づき、ベッド90からのはみ出しを判定する。ベッド90からのはみ出しの判定方法の詳細については後述する。出力部113は、判定部112の判定結果を出力する。出力部113からの出力は、通信部102によって携帯端末30に送信される。 Acquisition unit 111 acquires image information and bed sensor information. Judgment unit 112 judges protrusion from bed 90 based on image information and bed sensor information. The details of the determination method of the protrusion from the bed 90 will be described later. The output unit 113 outputs the determination result of the determination unit 112 . Output from the output unit 113 is transmitted to the mobile terminal 30 by the communication unit 102 .

(サーバー20)
図6は、サーバー20のハードウェア構成を示すブロック図である。サーバー20は、演算制御部201、通信部202、および記憶部203を有し、これらはバスにより相互に接続される。
(Server 20)
FIG. 6 is a block diagram showing the hardware configuration of the server 20. As shown in FIG. The server 20 has an arithmetic control unit 201, a communication unit 202, and a storage unit 203, which are interconnected by a bus.

演算制御部201は、CPU、RAM、およびROM等を備える。演算制御部201は、プログラムに従ってサーバー20の各部の制御および演算処理を行う。また、演算制御部201は、判定部112と協働して、ベッド90からのはみ出し判定を担うように構成されうる。 The arithmetic control unit 201 includes a CPU, RAM, ROM, and the like. The arithmetic control unit 201 controls each unit of the server 20 and performs arithmetic processing according to a program. In addition, the arithmetic control unit 201 can be configured to cooperate with the determination unit 112 to determine whether the person protrudes from the bed 90 .

通信部202は、LANを介して、例えば、検出装置10、および携帯端末30等と通信するためのインターフェース回路により構成される。通信部202は、検出装置10から、はみ出し判定結果を受信する。また、通信部202は、演算制御部201がはみ出し判定を行う場合、検出装置10から、画像情報およびベッドセンサー情報を受信する。はみ出し判定結果は、記憶部203に記憶される。 The communication unit 202 is configured by an interface circuit for communicating with, for example, the detection device 10 and the mobile terminal 30 via a LAN. The communication unit 202 receives the protrusion determination result from the detection device 10 . Further, the communication unit 202 receives image information and bed sensor information from the detection device 10 when the arithmetic control unit 201 performs the protrusion determination. The protrusion determination result is stored in the storage unit 203 .

記憶部203は、HDDまたはSSDにより構成され、各種プログラムおよび各種データを記憶する。 Storage unit 203 is configured by an HDD or SSD, and stores various programs and various data.

(監視方法)
図7は、第1の実施形態における検出装置による監視方法の処理手順を例示するフローチャートである。同図のフローチャートの処理は、演算制御部101のCPUが監視プログラムを実行することにより実現される。図8は、画像情報、およびベッドセンサー情報に基づく、ベッド90からのはみ出し判定を例示する図である。図9は、被看介護者80が臥床している場合の画像を例示する模式図である。なお、説明を簡略化するため、図9において、フットボード93に対応する画像上のオブジェクトについては図示を省略している(以下の図10~図14についても同様)。
(monitoring method)
FIG. 7 is a flowchart illustrating a processing procedure of a monitoring method by the detection device according to the first embodiment; The processing of the flowchart in FIG. 1 is realized by the CPU of the arithmetic control unit 101 executing the monitoring program. FIG. 8 is a diagram illustrating determination of protrusion from the bed 90 based on image information and bed sensor information. FIG. 9 is a schematic diagram illustrating an image when the cared person 80 is lying down. In order to simplify the explanation, illustration of the object on the image corresponding to the footboard 93 is omitted in FIG. 9 (the same applies to FIGS. 10 to 14 below).

図7に示すように、まず、カメラ103により監視領域内の撮影を開始する(ステップS101)。演算制御部101は、カメラ103を制御して、監視領域内の撮影を開始(または継続)する。本実施形態では、一例として、ベッド90に寝ていた被看介護者80がベッド90から起き上がり、床に降りて歩行しようとする場合を想定する。すなわち、被看介護者80の初期状態は、臥床であり、次に離床へ移行する。カメラ103は、監視領域内の被看介護者80およびベッド90を撮影する。 As shown in FIG. 7, first, the camera 103 starts photographing the monitored area (step S101). The arithmetic control unit 101 controls the camera 103 to start (or continue) photographing within the monitoring area. In this embodiment, as an example, it is assumed that the cared person 80 lying on the bed 90 gets up from the bed 90, gets down on the floor, and tries to walk. That is, the initial state of the cared person 80 is bed rest, and then transitions to getting out of bed. The camera 103 photographs the cared person 80 and the bed 90 within the monitoring area.

次に、画像情報、およびベッドセンサー情報を取得する(ステップS102)。取得部111は、カメラ103によって撮影された画像を取得し、画像情報として判定部112に送信する。また、取得部111は、ベッドセンサー情報を判定部112に送信する。 Next, image information and bed sensor information are obtained (step S102). Acquisition unit 111 acquires an image captured by camera 103 and transmits it to determination unit 112 as image information. Acquisition unit 111 also transmits bed sensor information to determination unit 112 .

次に、ベッド90からのはみ出しを判定する(ステップS103)。判定部112は、取得部111よって取得された画像情報から移動物体を検出する。移動物体は、例えば、撮影時刻が前後する画像(フレーム)の差分を抽出する時間差分法により差分が相対的に大きい画素の範囲を抽出することで検出されうる。移動物体は、撮影画像と背景画像との差分を抽出する背景差分法により検出されてもよい。本実施形態では、被看介護者80が臥床から離床に状態が変化する過程で被看介護者80が移動物体として検出されることが想定される。また、被看介護者80が布団96を掛けている場合、布団96が移動することもありうる。したがって、本実施形態では、移動物体として検出される可能性があるのは被看介護者80、および/または布団96であると考えられる。なお、本実施形態では、ベッド90は電動ベッドでありうるが、被看介護者80の見守りが行われている間は、リクライニング等の動作を停止し、マットレス94は動かないものとする。 Next, it is determined whether or not the object protrudes from the bed 90 (step S103). A determination unit 112 detects a moving object from the image information acquired by the acquisition unit 111 . A moving object can be detected, for example, by extracting a range of pixels with relatively large differences by a time difference method of extracting differences between images (frames) captured at different times. A moving object may be detected by a background subtraction method that extracts a difference between a captured image and a background image. In this embodiment, it is assumed that the cared-for person 80 is detected as a moving object in the process of changing the state of the cared-for person 80 from lying down to getting out of bed. Further, when the cared person 80 is covered with a futon 96, the futon 96 may move. Therefore, in this embodiment, it is considered that the cared person 80 and/or the futon 96 may be detected as a moving object. In this embodiment, the bed 90 may be an electric bed, but while the care recipient 80 is being watched over, reclining and other operations are stopped, and the mattress 94 does not move.

しかし、画像情報から得られた移動物体の検出結果のみでは、布団96がはみ出している状態と、被看介護者80がずり落ちしている状態とを判別することは難しい。一方、ベッドセンサー情報のみでは、ベッド90から被看介護者80の身体の一部がはみ出している状態と、被看介護者80がベッド90に臥床している状態とを判別することは難しい。そこで、本実施形態では、判定部112は、画像情報、およびベッドセンサー情報の両方に基づき、ベッド90からのはみ出しを判定する。ここで、ベッド90からのはみ出しとは、被看介護者80の身体の一部、および/または布団96がベッド90からはみ出していることを意味する。そして、判定部112は、画像情報(カメラ103から得られた情報)、およびベッドセンサー情報(ベッドセンサー95から得られた情報)に基づき、ベッド90からはみ出した物体の判定を行う。以下では、画像上における被看介護者80のオブジェクトを被看介護者オブジェクト800、マットレス94のオブジェクトをマットレスオブジェクト940(図9における斜線の領域)、ベッドセンサー95のオブジェクトをベッドセンサーオブジェクト950、布団96のオブジェクトを布団オブジェクト960と称する。 However, it is difficult to distinguish between the state where the futon 96 protrudes and the state where the cared-for person 80 slips down only by the detection result of the moving object obtained from the image information. On the other hand, it is difficult to distinguish between a state in which a part of the body of the care recipient 80 protrudes from the bed 90 and a state in which the care recipient 80 is lying on the bed 90 only with the bed sensor information. Therefore, in the present embodiment, the determination unit 112 determines protrusion from the bed 90 based on both image information and bed sensor information. Here, protruding from the bed 90 means that part of the body of the care recipient 80 and/or the futon 96 protrudes from the bed 90 . Then, the determination unit 112 determines an object protruding from the bed 90 based on image information (information obtained from the camera 103) and bed sensor information (information obtained from the bed sensor 95). Below, the object of the care recipient 80 on the image is the care recipient object 800, the object of the mattress 94 is the mattress object 940 (shaded area in FIG. 9), the object of the bed sensor 95 is the bed sensor object 950, the futon 96 objects are called futon objects 960 .

(1)判定パターン1
図9に示すように、判定部112は、マットレスオブジェクト940を含む所定領域(一点鎖線で示す撮影領域)Aの周辺において画像に変化が無く(すなわち所定領域の内側から外側へ移動する物体が無く)、かつベッドセンサー95からのベッドセンサー情報が「重み有り」である場合(ベッドセンサーオブジェクト950が薄いグレーで示されている)、ベッド90からの「はみ出し無し」と判定する。より具体的には、判定部112は、各被看介護者80の体重に対応して設定された、荷重に関する所定の閾値を超えることにより、荷重の有無を検出(判定)する。荷重に関する所定の閾値は、被看介護者80ごとに予め設定され、演算制御部101のRAMに記憶されうる。所定領域Aは、マットレスオブジェクト940よりもひと回り大きい大きさに設定されている。すなわち、マットレスオブジェクトの940の外縁に沿って、マットレスオブジェクトの940の外縁からmだけ離れた位置に所定領域Aの外縁が設定されうる。これは、臥床した状態の被看介護者80に適切に布団96が掛けられている場合であっても、布団オブジェクト960がマットレスオブジェクト940からある程度はみ出ることが想定されるためである。
(1) Judgment pattern 1
As shown in FIG. 9, the determination unit 112 determines that there is no change in the image around a predetermined area (imaging area indicated by a dashed line) A including the mattress object 940 (that is, there is no object moving from the inside to the outside of the predetermined area). ) and the bed sensor information from the bed sensor 95 is "weighted" (the bed sensor object 950 is shown in light gray), it is determined that the bed 90 is "not protruding". More specifically, the determination unit 112 detects (determines) the presence or absence of a load when the load exceeds a predetermined threshold value set corresponding to the weight of each cared person 80 . A predetermined threshold for load can be set in advance for each care recipient 80 and stored in the RAM of the arithmetic control unit 101 . The predetermined area A is set to a size slightly larger than the mattress object 940 . That is, along the outer edge of the mattress object 940 , the outer edge of the predetermined area A can be set at a position separated by m from the outer edge of the mattress object 940 . This is because it is assumed that the bedding object 960 protrudes from the mattress object 940 to some extent even when the bedding 96 is appropriately placed on the cared person 80 lying in bed.

なお、図9には、説明を簡略化するため、所定領域Aの一部について例示されているが、監視領域外のマットレスオブジェクト940の外縁についても、マットレスオブジェクトの940の外縁からmだけ離れた位置に所定領域Aの外縁が設定されうる。所定領域Aの外縁の設定に関しては、以下の図10~図14においても同様である。 Note that FIG. 9 illustrates a part of the predetermined area A for the sake of simplification of explanation, but the outer edge of the mattress object 940 outside the monitoring area is also separated from the outer edge of the mattress object 940 by m. An outer edge of the predetermined area A can be set at the position. The setting of the outer edge of the predetermined area A is the same in FIGS. 10 to 14 below.

さらに、判定部112は、ベッド90からのはみ出しが無いことから、被看介護者80が臥床していると判定する(図8を参照)。 Furthermore, since there is no protrusion from the bed 90, the determination unit 112 determines that the cared person 80 is lying down (see FIG. 8).

(2)判定パターン2
図10は、被看介護者80が離床している場合の画像を例示する模式図である。判定部112は、所定領域Aの周辺において画像に変化が無い(時間差分法や背景差分法によって移動物体が検出されていない)場合であり、ベッドセンサー95からのベッドセンサー情報が「重み無し」である場合は、ベッド90からの「はみ出し無し」と判定する。例えば、被看介護者80がゆっくりと移動した場合、所定領域Aの周辺において画像に変化が生じないことがありうる。判定部112は、画像情報から移動物体を検出できない場合であっても、ベッドセンサー情報が「重み無し」であるので、被看介護者80が離床していると判定する。
(2) Judgment pattern 2
FIG. 10 is a schematic diagram illustrating an image when the cared person 80 is out of bed. The determination unit 112 determines that the image does not change around the predetermined area A (no moving object is detected by the time subtraction method or the background subtraction method), and the bed sensor information from the bed sensor 95 is "unweighted." , it is determined that there is no protrusion from the bed 90 . For example, when the cared person 80 moves slowly, the image around the predetermined area A may not change. Even if the moving object cannot be detected from the image information, the determination unit 112 determines that the cared person 80 is out of bed because the bed sensor information is "no weight".

(3)判定パターン3
図11は布団オブジェクト960が所定領域Aからはみ出している場合の画像を例示する模式図であり、図12は被看介護者オブジェクト800の一部(足)が所定領域Aからはみ出している場合の画像を例示する模式図である。判定部112は、所定領域Aの周辺において画像に変化が有り、かつベッドセンサー95からのベッドセンサー情報が「重み有り」である場合は、「物体のはみ出し有り」と判定する。所定領域Aからはみ出すものが、被看介護者オブジェクト800、および布団オブジェクト960以外には無い場合、被看介護者オブジェクト800、および布団オブジェクト960のいずれか、あるいはそれらの両方がはみ出したと推定される。したがって、判定部112は、被看介護者80の状態は、少なくともずり落ち、または離床ではないことから、臥床、または身体の一部がはみ出していると判定する。
(3) Judgment pattern 3
FIG. 11 is a schematic diagram illustrating an image when the futon object 960 protrudes from the predetermined area A, and FIG. 4 is a schematic diagram illustrating an image; FIG. If there is a change in the image around the predetermined region A and the bed sensor information from the bed sensor 95 is "weighted", the determination unit 112 determines that "the object protrudes". If there is nothing protruding from the predetermined area A other than the care recipient object 800 and the futon object 960, it is estimated that either or both of the care recipient object 800 and the futon object 960 have protruded. . Therefore, the determination unit 112 determines that the cared person 80 is lying down or that a part of the body protrudes from the state that the care recipient 80 is not at least slipping down or getting out of bed.

(4)判定パターン4
図13は被看介護者80が離床している場合の画像を例示する模式図であり、図14は被看介護者80がずり落ちした場合の画像を例示する模式図である。判定部112は、所定領域Aの周辺において画像に変化が有り、ベッドセンサー95からのベッドセンサー情報が「重み無し」である場合は、ベッド90からの「被看介護者のはみ出し有り」と判定する。さらに、判定部112は、被看介護者オブジェクト800が所定領域Aの外側に移動し、マットレスオブジェクト940上に存在しないことから、被看介護者80は離床、またはずり落ちしたと判定する。
(4) Judgment pattern 4
FIG. 13 is a schematic diagram illustrating an image when the cared-for person 80 is out of bed, and FIG. 14 is a schematic diagram illustrating an image when the cared-for person 80 slips down. When there is a change in the image around the predetermined area A and the bed sensor information from the bed sensor 95 is "no weight", the determination unit 112 determines that "the care recipient protrudes from the bed 90". do. Further, the determination unit 112 determines that the care recipient object 800 has moved out of the predetermined area A and does not exist on the mattress object 940, so that the care recipient 80 has left the bed or slipped down.

次に、判定結果を出力する(ステップS104)。出力部113は、ベッド90からのはみ出しの判定結果、および/または被看介護者80の状態の判定結果を出力する。判定結果は、携帯端末30へサーバー20を介して送信される。出力部113は、例えば、臥床や被看介護者80の身体の一部がはみ出している場合では判定結果を出力せず、ずり落ち、転倒、転落等の、看介護者70が一刻も早く被看介護者80のもとへ駆けつける必要がある場合では判定結果を出力するように構成できる。また、出力部113は、ずり落ち、転倒、転落等の場合では判定結果を出力するとともに、アラームを発報するように携帯端末30に指示を送ったり、看介護者70が被看介護者80の状態を確認できる画像を携帯端末30へサーバー20を介して送ったりすることもできる。また、出力部113は、離床の場合では判定結果を出力するとともに、被看介護者80の要介護度等に応じて、看介護者70に報知するように構成してもよい。また、出力部113は、例えば、被看介護者80の身体の一部、または布団96が長時間はみ出ている場合には、被看介護者80の安全や体調面の観点から判定結果を出力して、看介護者70に報知するように構成してもよい。 Next, the determination result is output (step S104). The output unit 113 outputs the determination result of protrusion from the bed 90 and/or the determination result of the state of the cared person 80 . The determination result is transmitted to the mobile terminal 30 via the server 20 . The output unit 113 does not output the determination result when, for example, the nursing caregiver 80 is lying down or a part of the body of the nursing caregiver 80 protrudes. When it is necessary to rush to the nursing caregiver 80, the determination result can be output. In addition, the output unit 113 outputs the determination result in the case of slipping, tumbling, falling, etc., and also sends an instruction to the mobile terminal 30 to issue an alarm. It is also possible to send an image for confirming the state of the mobile terminal 30 via the server 20. - 特許庁In addition, the output unit 113 may be configured to output the determination result in the case of getting out of bed, and to inform the nursing caregiver 70 according to the level of care required of the nursing caregiver 80 and the like. In addition, for example, when a part of the body of the care recipient 80 or the futon 96 protrudes for a long time, the output unit 113 outputs the determination result from the viewpoint of the safety and physical condition of the care recipient 80. and the caregiver 70 may be notified.

このように、図7に示すフローチャートの監視方法の処理では、画像情報、およびベッドセンサー情報を取得し、画像情報、およびベッドセンサー情報の両方に基づき、ベッド90からのはみ出しを判定する。 In this way, in the processing of the monitoring method of the flowchart shown in FIG. 7, image information and bed sensor information are acquired, and protrusion from the bed 90 is determined based on both the image information and bed sensor information.

以上で説明した本実施形態の検出装置10は、カメラ103から得られた情報、およびベッドセンサー95から得られた情報に基づき、ベッド90からはみ出した物体の判定を行うので、被看介護者80がベッド90からずり落ちたり、転倒したりした場合等、報知が必要な被看介護者80の状態について誤報および失報を防止、または抑制できる。 Since the detecting device 10 of this embodiment described above determines an object protruding from the bed 90 based on the information obtained from the camera 103 and the information obtained from the bed sensor 95, the cared person 80 erroneous and unreported information about the condition of the cared person 80 who needs to be notified, such as when the patient slips off the bed 90 or falls down, can be prevented or suppressed.

(第2の実施形態)
第2の実施形態では、画像における物体が所定領域Aの外側の下方へ移動した場合について、ベッドセンサー情報に基づき、ベッド90からのはみ出しを判定する場合について説明する。なお、以下では、説明の重複を避けるため、第1の実施形態と同一の構成については、詳細な説明を省略する。
(Second embodiment)
In the second embodiment, a case in which an object in an image has moved downward outside the predetermined area A will be described, based on bed sensor information to determine whether the object protrudes from the bed 90 . In the following description, detailed descriptions of the same configurations as those of the first embodiment will be omitted in order to avoid duplication of description.

図15は初期状態として、被看介護者80が臥床している場合の画像を例示する模式図であり、図16は画像情報、およびベッドセンサー情報に基づく、ベッド90からのはみ出し判定を例示する図である。また、図17は被看介護者80が転倒、または転落した場合の画像を例示する模式図であり、図18は布団オブジェクト960の一部が所定領域Aからはみ出している場合の画像を例示する模式図である。なお、説明を簡略化するため、図15,図17,図18において、フットボード93に対応するオブジェクトについては図示を省略している。 FIG. 15 is a schematic diagram illustrating an image when the care recipient 80 is in bed as an initial state, and FIG. 16 illustrates determination of protrusion from the bed 90 based on image information and bed sensor information. It is a diagram. 17 is a schematic diagram illustrating an image when the cared person 80 falls or falls, and FIG. 18 illustrates an image when a part of the futon object 960 protrudes from the predetermined area A. It is a schematic diagram. 15, 17, and 18, the illustration of the object corresponding to the footboard 93 is omitted for the sake of simplicity of explanation.

本実施形態では、物体が所定領域Aの外側において上方へ移動したか、あるいは下方へ移動したかを区別するための閾値THが設定される。閾値THは、例えば、画像上におけるマットレスオブジェクト940の上端部の位置に設定される。判定部112は、画像上における縦方向の物体の位置が閾値THを超えている場合、物体が画像において所定領域Aの外側の上方に移動したと判定する。一方、判定部112は、物体の位置が閾値TH未満である場合、下方に移動したと判定する。 In this embodiment, a threshold value TH is set for distinguishing whether the object has moved upward or downward outside the predetermined area A. FIG. The threshold TH is set, for example, to the position of the upper end of the mattress object 940 on the image. If the position of the object in the vertical direction on the image exceeds the threshold value TH, the determination unit 112 determines that the object has moved outside and above the predetermined area A in the image. On the other hand, when the position of the object is less than the threshold TH, the determination unit 112 determines that the object has moved downward.

図16に示すように、判定部112は、所定領域Aの外側の下方において画像に変化が有り、ベッドセンサー95からのベッドセンサー情報が「重み無し」である場合は、ベッド90からの「被看介護者のはみ出し有り」と判定する。 As shown in FIG. 16, when there is a change in the image below the predetermined area A and the bed sensor information from the bed sensor 95 is "no weight", the determination unit 112 determines that the "weight" from the bed 90 is "not weighted". There is protruding caregiver".

さらに、図17に示すように、判定部112は、画像上の被看介護者オブジェクト800が所定領域Aの外側に移動し、マットレスオブジェクト940上に存在しないことから、被看介護者80は転倒、または転落したと判定する。 Furthermore, as shown in FIG. 17, the determination unit 112 determines that the care recipient object 800 on the image has moved outside the predetermined region A and does not exist on the mattress object 940, so that the care recipient 80 falls. , or fall.

一方、判定部112は、画像において所定領域Aの外側の下方において画像に変化が有り、ベッドセンサー95からのベッドセンサー情報が「重み有り」である場合は、ベッド90からの「物体のはみ出し有り」と判定する。所定領域Aからはみ出すものが、被看介護者オブジェクト800、および布団オブジェクト960以外には無い場合、被看介護者オブジェクト800、および布団オブジェクト960のいずれか、あるいはそれらの両方がはみ出したと推定される。図18は、布団オブジェクト960が所定領域Aからはみ出している場合を例示している。 On the other hand, if there is a change in the image below the outside of the predetermined area A in the image and the bed sensor information from the bed sensor 95 is "weighted", the determination unit 112 determines that "there is an object protruding from the bed 90". ” is determined. If there is nothing protruding from the predetermined area A other than the care recipient object 800 and the futon object 960, it is estimated that either or both of the care recipient object 800 and the futon object 960 have protruded. . FIG. 18 exemplifies a case where the futon object 960 protrudes from the predetermined area A. As shown in FIG.

このように、本実施形態では、画像における物体が所定領域Aの外側の下方へ移動した場合について、ベッドセンサー情報に基づき、ベッド90からのはみ出しを判定する。したがって、判定部112は、所定領域Aの外側の下方へ移動した何らかの物体が被看介護者80のはみ出しによるものか、あるいは布団96のはみ出しによるものかを判定できる。さらに、判定部112は、被看介護者80の状態が転倒、または転落であるのか、あるいは臥床(転倒、または転落ではない)であるのかを判定できる。 As described above, in the present embodiment, when the object in the image moves downward outside the predetermined area A, it is determined whether the object protrudes from the bed 90 based on the bed sensor information. Therefore, the determination unit 112 can determine whether some object that has moved downward outside the predetermined area A is due to the protrusion of the cared person 80 or the protrusion of the futon 96 . Furthermore, the determination unit 112 can determine whether the cared person 80 is in a state of falling or falling, or is bedridden (not falling or falling).

(第3の実施形態)
第3の実施形態では、ベッドセンサー情報が「重み無し」である場合について、画像における物体が所定領域Aの外側の上方へ移動したか、あるいは下方へ移動したかに基づき、被看介護者80の状態を判定する。なお、以下では、説明の重複を避けるため、第1の実施形態と同一の構成については、詳細な説明を省略する。
(Third embodiment)
In the third embodiment, when the bed sensor information is "unweighted", based on whether the object in the image has moved upward or downward outside the predetermined area A, the cared person 80 determine the state of In the following description, detailed descriptions of the same configurations as those of the first embodiment will be omitted in order to avoid duplication of description.

図19は、第3の実施形態における検出装置10による監視方法の処理手順を例示するフローチャートである。同図のフローチャートの処理は、演算制御部101のCPUが監視プログラムを実行することにより実現される。また、図20は初期状態として、被看介護者80が臥床している場合の画像を例示する模式図であり、図21は画像情報、およびベッドセンサー情報に基づく、被看介護者80の状態判定を例示する図である。また、図22は被看介護者80が離床している場合の画像を例示する模式図であり、図23は被看介護者80が転倒、または転落した場合の画像を例示する模式図である。また、図24は比較例として被看介護者80が離床している場合の画像を例示する模式図であり、図25は比較例として被看介護者80が転倒、または転落した場合の画像を例示する模式図である。なお、説明を簡略化するため、図20,図22~図25において、フットボード93に対応するオブジェクトについては図示を省略している。 FIG. 19 is a flow chart illustrating the processing procedure of the monitoring method by the detecting device 10 according to the third embodiment. The processing of the flowchart in FIG. 1 is realized by the CPU of the arithmetic control unit 101 executing the monitoring program. FIG. 20 is a schematic diagram illustrating an image when the care recipient 80 is in bed as an initial state, and FIG. 21 is a state of the care recipient 80 based on image information and bed sensor information. It is a figure which illustrates determination. FIG. 22 is a schematic diagram illustrating an image when the care recipient 80 is out of bed, and FIG. 23 is a schematic diagram illustrating an image when the care recipient 80 falls or falls. . Further, FIG. 24 is a schematic diagram illustrating an image when the care recipient 80 is out of bed as a comparative example, and FIG. 25 is an image when the care recipient 80 falls or falls as a comparative example. It is a schematic diagram to illustrate. 20 and 22 to 25, the illustration of the object corresponding to the footboard 93 is omitted in order to simplify the explanation.

図19に示すように、まず、カメラ103により監視領域内の撮影を開始する(ステップS201)。演算制御部101は、カメラ103を制御して、監視領域内の撮影を開始(または継続)する。本実施形態においても、第2の実施形態と同様に、初期状態として、被看介護者80が臥床している場合を想定し、所定領域Aの外側に移動した物体が所定領域Aの外側の上方へ移動したか、あるいは下方へ移動したかを区別するための閾値THが設定される(図20を参照)。 As shown in FIG. 19, first, the camera 103 starts photographing the monitored area (step S201). The arithmetic control unit 101 controls the camera 103 to start (or continue) photographing within the monitoring area. In this embodiment, as in the second embodiment, as an initial state, it is assumed that the cared person 80 is lying down, and an object that has moved outside the predetermined area A is outside the predetermined area A. A threshold TH is set for distinguishing between upward movement and downward movement (see FIG. 20).

次に、ベッドセンサー情報を取得する(ステップS202)。取得部111は、ベッドセンサー95の検知結果をベッドセンサー情報として判定部112に送信する。 Next, bed sensor information is acquired (step S202). Acquisition unit 111 transmits the detection result of bed sensor 95 to determination unit 112 as bed sensor information.

次に、ベッドセンサー情報が「重み無し」であるか否かを判定する(ステップS203)。図21に示すように、ベッドセンサー情報が「重み無し」である場合(ステップS203:YES)、画像の認識感度を変更する(ステップS204)。演算制御部101は、ベッド90の周辺について、画像の認識感度を高めるようにカメラ103を制御する。例えば、演算制御部101は、カメラ103による撮影のフレームレートを上げることにより、画像の認識感度を高めるように制御する。フレームレートが上がることにより、画質が向上し、画像における物体の位置の検出精度が向上する。一方、ベッドセンサー情報が「重み無し」ではない、すなわち、「重み有り」である場合(ステップS203:NO)、画像の認識感度を変更せずに次のステップS205の処理に移行する。なお、「重み有り」である場合は、被看介護者80がベッド90から移動していないため、画像の認識感度を高める必要がない。 Next, it is determined whether or not the bed sensor information is "no weight" (step S203). As shown in FIG. 21, when the bed sensor information is "unweighted" (step S203: YES), the image recognition sensitivity is changed (step S204). The arithmetic control unit 101 controls the camera 103 so as to increase the recognition sensitivity of the image around the bed 90 . For example, the arithmetic control unit 101 controls to increase the image recognition sensitivity by increasing the frame rate of photographing by the camera 103 . By increasing the frame rate, the image quality is improved, and the detection accuracy of the position of the object in the image is improved. On the other hand, if the bed sensor information is not "unweighted", ie, "weighted" (step S203: NO), the image recognition sensitivity is not changed, and the process proceeds to the next step S205. In the case of "weighted", the cared person 80 has not moved from the bed 90, so there is no need to increase the image recognition sensitivity.

次に、画像情報を取得する(ステップS205)。取得部111は、カメラ103によって撮影された画像を取得し、画像情報として判定部112に送信する。 Next, image information is acquired (step S205). Acquisition unit 111 acquires an image captured by camera 103 and transmits it to determination unit 112 as image information.

次に、被看介護者80の状態を判定する(ステップS206)。図22に示すように、判定部112は、所定領域Aの外側において上方へ移動した何らかの物体が有る場合、被看介護者80が離床(転倒、または転落ではない)と判定する。また、図23に示すように、判定部112は、所定領域Aの外側において下方へ移動した何らかの物体が有り、かつ上方へ移動した物体が無い場合、被看介護者80が転倒、または転落したと判定する。 Next, the state of the cared person 80 is determined (step S206). As shown in FIG. 22 , when there is some object that has moved upward outside the predetermined area A, the determining unit 112 determines that the cared person 80 has left the bed (falling or not falling). Further, as shown in FIG. 23, when there is some object that has moved downward outside the predetermined area A and there is no object that has moved upward, the determination unit 112 determines that the cared person 80 has fallen or has fallen. I judge.

一方、図24に示すように、ベッドセンサー95がマットレス94に配置されていない場合、ベッドセンサー情報が得られないため、画像の認識感度は変更されない。したがって、判定部112は、被看介護者80が離床しても検出できない可能性がある。同様に、図25に示すように、ベッドセンサー95がマットレス94に配置されていない場合、被看介護者80が転倒、または転落しても検出できない可能性がある。 On the other hand, as shown in FIG. 24, when the bed sensor 95 is not arranged on the mattress 94, the bed sensor information cannot be obtained, so the image recognition sensitivity is not changed. Therefore, there is a possibility that the determination unit 112 cannot detect even if the cared person 80 leaves the bed. Similarly, as shown in FIG. 25, if the bed sensor 95 is not placed on the mattress 94, there is a possibility that the bed sensor 95 may not be detected even if the cared person 80 falls or falls.

次に、判定結果を出力する(ステップS207)。出力部113は、被看介護者80の状態の判定結果を出力する。判定結果は、携帯端末30へサーバー20を介して送信される。 Next, the determination result is output (step S207). The output unit 113 outputs the determination result of the condition of the care recipient 80 . The determination result is transmitted to the mobile terminal 30 via the server 20 .

このように、図19に示すフローチャートの処理では、ベッドセンサー情報を取得し、ベッドセンサー情報が「重み無し」である場合、画像の認識感度を変更した後、画像情報を取得し、画像情報およびベッドセンサー情報に基づき、被看介護者80の状態を判定する。 In this way, in the processing of the flowchart shown in FIG. 19, the bed sensor information is acquired, and if the bed sensor information is "unweighted", the image recognition sensitivity is changed, then the image information is acquired, and the image information and The state of the care recipient 80 is determined based on the bed sensor information.

以上で説明した本実施形態の検出装置10によれば、被看介護者80がベッドからずり落ちたり、転倒したりした場合等、報知が必要な被看介護者80の状態について誤報および失報を防止、または抑制できる。 According to the detecting device 10 of the present embodiment described above, when the cared person 80 slips off the bed or falls, etc., the state of the cared person 80 that needs to be notified is false or missing. can be prevented or suppressed.

以上説明した監視システム1の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変できる。 The configuration of the monitoring system 1 described above is the main configuration for describing the features of the above-described embodiment, and is not limited to the above-described configuration, and can be variously modified within the scope of the claims.

例えば、上述した第1~第3の実施形態では、検出装置10をヘッドボード92に設置する場合について説明したが、検出装置10は、例えば、フットボード93等、ヘッドボード92以外の場所に設置されてもよい。また、検出装置10は、ヘッドボード92、フットボード93の上端部に限らず、例えば、ベッド90の中心に向いている面内に設置することもできる。 For example, in the first to third embodiments described above, the case where the detection device 10 is installed on the headboard 92 has been described, but the detection device 10 may be installed on a location other than the headboard 92, such as the footboard 93. may be Further, the detection device 10 is not limited to the upper end portions of the headboard 92 and the footboard 93, and can be installed, for example, in the plane facing the center of the bed 90. FIG.

また、上述した第1~第3の実施形態では、画像情報の所定領域Aの周辺における変化の有無と、ベッドセンサー情報の重みの有無とに基づいて、判定部112が、ベッド90からの物体のはみ出しの判定を行う場合について説明した。しかしながら、本発明はこのような場合に限定されず、判定部112が、公知の画像認識技術、パターンマッチング技術、機械学習技術等を利用して、カメラ103によって撮像された画像を解析し、画像の解析結果と、ベッドセンサー情報の重みの有無とに基づいて、ベッド90からの物体のはみ出しの判定を行うように構成されてもよい。 Further, in the above-described first to third embodiments, the determination unit 112 detects an object from the bed 90 based on whether there is a change in the vicinity of the predetermined area A of the image information and whether there is weight in the bed sensor information. The case of judging the protrusion of is described above. However, the present invention is not limited to such a case. and whether or not the weight of the bed sensor information is weighted.

ベッド90からの物体のはみ出しには、布団96のみ、布団96および被看介護者80の身体の一部、または被看介護者80の身体の一部のみのはみ出しが考えられる。機械学習技術を利用して画像解析を行う場合、判定部112は、例えば、以下のようにして、はみ出した物体を判定しうる。予め、ベッド90上における布団96の位置や状態等の条件を変えて布団96のみがベッド90からはみ出しているときの所定領域Aおよびその周辺を撮影し、撮影された複数の画像および正解ラベルを教師データとしてディープニューラルネットワークに入力して学習させる。この場合、正解ラベルは、布団96のみがベッド90からはみ出している確率(尤度)が100%、布団96および被看介護者80の身体の一部がはみ出している確率が0%、被看介護者80の身体の一部のみはみ出している確率が0%とされる。被看介護者80の監視時において、判定部112は、カメラ103から得られた画像(情報)をディープニューラルネットワークに入力し、布団96のみがベッド90からはみ出している確率等を解析結果として得る。判定部112は、解析結果、およびベッドセンサー情報(ベッドセンサー95から得られた情報)に基づき、ベッド90からはみ出した物体が、布団96のみか、あるいは少なくとも身体の一部が含まれているかを判定する。例えば、判定部112は、布団96のみがベッド90からはみ出している確率が所定値以上で、かつベッドセンサー情報が「重み有り」である場合、ベッド90からはみ出した物体が、布団96のみであると判定する。一方、判定部112は、布団96のみがベッド90からはみ出している確率が所定値未満で、かつベッドセンサー情報が「重み有り」である場合、ベッド90からはみ出した物体には、少なくとも被看介護者80の身体の一部が含まれていると判定する。 An object protruding from the bed 90 may be only the futon 96 , the futon 96 and a part of the body of the cared person 80 , or only a part of the body of the cared person 80 . When image analysis is performed using a machine learning technique, the determination unit 112 can determine a protruding object, for example, as follows. In advance, conditions such as the position and state of the futon 96 on the bed 90 are changed, and the predetermined region A and its surroundings are photographed when only the futon 96 protrudes from the bed 90, and a plurality of photographed images and correct labels are displayed. It is input to the deep neural network as training data and made to learn. In this case, the correct labels are: 100% probability (likelihood) that only the futon 96 protrudes from the bed 90; The probability that only a part of the body of the caregiver 80 protrudes is assumed to be 0%. During monitoring of the cared person 80, the determination unit 112 inputs the image (information) obtained from the camera 103 to the deep neural network, and obtains the probability that only the futon 96 protrudes from the bed 90 as an analysis result. . Based on the analysis result and the bed sensor information (information obtained from the bed sensor 95), the determination unit 112 determines whether the object protruding from the bed 90 is only the futon 96 or includes at least a part of the body. judge. For example, when the probability that only the futon 96 protrudes from the bed 90 is equal to or greater than a predetermined value and the bed sensor information is "weighted", the determination unit 112 determines that the futon 96 is the only object protruding from the bed 90. I judge. On the other hand, when the probability that only the futon 96 protrudes from the bed 90 is less than the predetermined value and the bed sensor information is "weighted", the determination unit 112 determines that the object protruding from the bed 90 is at least It is determined that a part of the body of the person 80 is included.

判定部112により、ベッド90からはみ出した物体が、布団96のみと判定された場合、判定結果を出力(報知)しない制御を行う。これにより、報知が必要ない被看介護者80の状態について発報する誤報を防止できる。その結果、看介護者70の負担を軽減できる。一方、出力部113は、判定部112により、ベッド90からはみ出した物体が、少なくとも身体の一部が含まれていると判定された場合、判定結果を出力する制御を行う。 When the determination unit 112 determines that the only object protruding from the bed 90 is the futon 96, control is performed so as not to output (notify) the determination result. As a result, it is possible to prevent erroneous reporting of the condition of the cared person 80 that does not require reporting. As a result, the burden on the caregiver 70 can be reduced. On the other hand, when the determination unit 112 determines that at least part of the body is included in the object protruding from the bed 90, the output unit 113 performs control to output the determination result.

また、判定部112が、画像解析を行う場合について説明したが、本発明は、このような場合に限定されない。例えば、カメラ103において所定領域A、およびその周辺の画像を解析してベッド90からのはみ出しの判定を行い、判定部112が、カメラ103による判定結果、およびベッドセンサー情報に基づいて、ベッド90からはみ出した物体の判定を行うように構成することもできる。また、カメラ103によって撮像された画像(画像情報)を解析せずにそのままサーバー20に送信し、サーバー20において画像を解析してベッド90からのはみ出しの判定を行い、判定結果、およびベッドセンサー情報に基づいて、ベッド90からはみ出した物体の判定を行うように構成することもできる。 Moreover, although the case where the determination part 112 performs image analysis was demonstrated, this invention is not limited to such a case. For example, the camera 103 analyzes the image of the predetermined area A and its surroundings to determine whether or not the bed 90 protrudes. It can also be configured to determine protruding objects. In addition, the image (image information) captured by the camera 103 is transmitted to the server 20 as it is without analysis, and the image is analyzed in the server 20 to determine whether the bed 90 protrudes. It is also possible to determine an object protruding from the bed 90 based on.

また、ベッドセンサー95がベッド90上の荷重(荷重情報)を検出し、検出された荷重情報を解析してベッド90からのはみ出しの判定を行い、判定部112が、画像情報、および荷重情報の解析結果に基づき、ベッド90からはみ出した物体の判定を行うように構成することもできる。また、ベッドセンサー95によって検出された荷重情報を解析せずにそのままサーバー20に送信し、サーバー20において、ベッド90上の荷重情報を解析してベッド90からのはみ出しの判定を行い、画像情報、および荷重情報の解析結果に基づき、ベッド90からはみ出した物体の判定を行うように構成することもできる。 Further, the bed sensor 95 detects the load (load information) on the bed 90, analyzes the detected load information, and determines whether or not the bed 90 protrudes. It can also be configured to determine an object protruding from the bed 90 based on the analysis result. Further, the load information detected by the bed sensor 95 is transmitted to the server 20 as it is without being analyzed, and the server 20 analyzes the load information on the bed 90 to determine whether the bed 90 protrudes from the bed 90. Image information, And, based on the analysis result of the load information, it is also possible to determine an object protruding from the bed 90 .

また、上述したフローチャートにおいては、フローチャートに示したステップ以外のステップを含んでもよく、一部のステップを含まなくてもよい。また、ステップの順序は、上述した実施形態に限定されない。さらに、各ステップは、他のステップと組み合わされて一つのステップとして実行されてもよく、他のステップに含まれて実行されてもよく、複数のステップに分割されて実行されてもよい。 Further, the above-described flowchart may include steps other than the steps shown in the flowchart, or may not include some steps. Also, the order of steps is not limited to the embodiment described above. Furthermore, each step may be combined with other steps and executed as one step, may be executed while being included in other steps, or may be divided into a plurality of steps and executed.

また、上述した実施形態における各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)-ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてその検出部等の装置のソフトウエアに組み込まれてもよい。 Also, the means and methods for performing various processes in the above-described embodiments can be realized either by dedicated hardware circuits or programmed computers. The program may be provided by a computer-readable recording medium such as a USB memory or a DVD (Digital Versatile Disc)-ROM, or may be provided online via a network such as the Internet. In this case, the program recorded on the computer-readable recording medium is usually transferred to and stored in a storage unit such as a hard disk. Further, the program may be provided as independent application software, or may be incorporated as a function into the software of the device such as the detection unit.

1 監視システム、
10 検出装置、
101 演算制御部、
102 通信部、
103 カメラ、
111 取得部、
112 判定部、
113 出力部、
20 サーバー、
201 演算制御部、
202 通信部、
203 記憶部、
30 携帯端末、
31 アクセスポイント、
90 ベッド、
91 フレーム部、
92 ヘッドボード、
93 フットボード、
94 マットレス、
95 センサー部、
96 布団。
1 surveillance system,
10 detection device,
101 arithmetic control unit,
102 communication unit,
103 camera,
111 acquisition unit;
112 determination unit,
113 output unit,
20 servers,
201 arithmetic control unit,
202 communication unit;
203 storage unit,
30 mobile terminals,
31 access points,
90 beds,
91 frame part,
92 headboards,
93 footboards,
94 mattresses,
95 sensor unit,
96 futons.

Claims (22)

少なくともベッドを含む撮影領域を撮像する撮像部と、
前記ベッド上の荷重を検出するベッドセンサーと、
前記撮像部から得られた情報および前記ベッドセンサーから得られた情報に基づき、前記ベッドからはみ出した物体の判定を行う判定部と、を備えた監視システム。
an imaging unit that captures an imaging area including at least the bed;
a bed sensor that detects a load on the bed;
a determination unit that determines an object protruding from the bed based on information obtained from the imaging unit and information obtained from the bed sensor.
前記判定部は、前記撮像部から得られた情報および前記ベッドセンサーから得られた情報に基づき、前記ベッドからはみ出した物体が、布団のみか少なくとも身体の一部が含まれているかを判定する、請求項1に記載の監視システム。 The determination unit determines whether the object protruding from the bed includes only the futon or at least a part of the body, based on the information obtained from the imaging unit and the information obtained from the bed sensor. A surveillance system according to claim 1 . 前記ベッドからはみ出した物体が、布団のみと判定された場合、判定結果を報知しない制御を行う制御部をさらに備えた請求項2に記載の監視システム。 3. The monitoring system according to claim 2, further comprising a control unit that performs control not to report the determination result when it is determined that the object protruding from the bed is only the futon. 前記ベッドからはみ出した物体が、少なくとも身体の一部が含まれていると判定された場合、判定結果を報知する制御を行う制御部をさらに備えた請求項2に記載の監視システム。 3. The monitoring system according to claim 2, further comprising a control unit that, when it is determined that at least a part of the body is included in the object protruding from the bed, performs control to report a determination result. 前記撮像部から得られた情報は、前記撮像部において、撮像された画像の解析を行った情報である、請求項1~4のいずれか1項に記載の監視システム。 5. The monitoring system according to any one of claims 1 to 4, wherein the information obtained from said imaging unit is information obtained by analyzing an image taken by said imaging unit. 前記ベッドセンサーから得られた情報は、前記ベッドセンサーにおいて、検出された荷重の解析を行った情報である、請求項1~5のいずれか1項に記載の監視システム。 The monitoring system according to any one of claims 1 to 5, wherein the information obtained from the bed sensor is information obtained by analyzing the load detected by the bed sensor. 前記撮像部から得られた情報は、前記撮像部によって撮像された画像情報である、請求項1~4、6のいずれか1項に記載の監視システム。 7. The monitoring system according to any one of claims 1 to 4 and 6, wherein the information obtained from said imaging unit is image information captured by said imaging unit. 前記ベッドセンサーから得られた情報は、前記ベッドセンサーによって検出された荷重情報である、請求項1~5、7のいずれか1項に記載の監視システム。 The monitoring system according to any one of claims 1 to 5 and 7, wherein the information obtained from the bed sensor is load information detected by the bed sensor. 前記ベッドセンサーから情報を取得し、前記ベッドセンサーから得られた情報に基づき、画像の認識感度を変更した後、前記画像情報を取得する取得部をさらに有する、請求項7に記載の監視システム。 8. The monitoring system according to claim 7, further comprising an acquisition unit that acquires information from the bed sensor, changes image recognition sensitivity based on the information acquired from the bed sensor, and then acquires the image information. 前記ベッドに設置された前記撮像部から前記画像情報を取得する取得部をさらに有する、請求項7に記載の監視システム。 8. The monitoring system according to claim 7, further comprising an acquisition section that acquires the image information from the imaging section installed on the bed. 前記判定部の判定結果を出力する出力部をさらに備える、請求項1~10のいずれか1項に記載の監視システム。 11. The monitoring system according to any one of claims 1 to 10, further comprising an output section for outputting the judgment result of said judgment section. 撮像部が少なくともベッドを含む撮影領域を撮像する撮像ステップと、
ベッドセンサーが前記ベッド上の荷重を検出する検出ステップと、
前記撮像部から得られた情報と、前記ベッドセンサーから得られた情報とに基づき、前記ベッドからはみ出した物体の判定を行う判定ステップと、を含む、監視方法。
an imaging step in which the imaging unit images an imaging region including at least the bed;
a detection step in which a bed sensor detects a load on the bed;
a determination step of determining an object protruding from the bed based on information obtained from the imaging unit and information obtained from the bed sensor.
前記判定ステップにおいて、前記撮像部から得られた情報および前記ベッドセンサーから得られた情報に基づき、前記ベッドからはみ出した物体が布団のみか少なくとも身体の一部が含まれているかを判定する、請求項12に記載の監視方法。 In the determination step, it is determined whether the object protruding from the bed includes only the futon or at least a part of the body, based on the information obtained from the imaging unit and the information obtained from the bed sensor. Item 13. The monitoring method according to Item 12. 前記判定ステップにおいて、前記ベッドからはみ出した物体が、布団のみと判定された場合、判定結果を報知しない制御を行う制御ステップをさらに含む、請求項13に記載の監視方法。 14. The monitoring method according to claim 13, further comprising a control step of not notifying the determination result when it is determined in the determination step that the only object protruding from the bed is the futon. 前記判定ステップにおいて、前記ベッドからはみ出した物体が、少なくとも身体の一部が含まれていると判定された場合、判定結果を報知する制御を行う制御ステップをさらに含む、請求項13に記載の監視方法。 14. The monitoring according to claim 13, further comprising a control step of notifying the determination result when it is determined in the determination step that the object protruding from the bed includes at least a part of the body. Method. 前記撮像部から得られた情報は、前記撮像部において、撮像された画像の解析を行った情報である、請求項12~15のいずれか1項に記載の監視方法。 16. The monitoring method according to any one of claims 12 to 15, wherein the information obtained from said imaging unit is information obtained by analyzing an image taken by said imaging unit. 前記ベッドセンサーから得られた情報は、前記ベッドセンサーにおいて、検出された荷重の解析を行った情報である、請求項12~16のいずれか1項に記載の監視方法。 The monitoring method according to any one of claims 12 to 16, wherein the information obtained from the bed sensor is information obtained by analyzing the load detected by the bed sensor. 前記撮像部から得られた情報は、前記撮像部によって撮像された画像情報である、請求項12~15、17のいずれか1項に記載の監視方法。 18. The monitoring method according to any one of claims 12 to 15 and 17, wherein the information obtained from said imaging unit is image information captured by said imaging unit. 前記ベッドセンサーから得られた情報は、前記ベッドセンサーによって検出された荷重情報である、請求項12~16、18のいずれか1項に記載の監視方法。 The monitoring method according to any one of claims 12 to 16 and 18, wherein the information obtained from said bed sensor is load information detected by said bed sensor. 前記ベッドセンサーから情報を取得し、前記ベッドセンサーから得られた情報に基づき、画像の認識感度を変更した後、前記画像情報を取得する、請求項18に記載の監視方法。 19. The monitoring method according to claim 18, wherein information is obtained from the bed sensor, image recognition sensitivity is changed based on the information obtained from the bed sensor, and then the image information is obtained. 前記判定ステップにおける判定結果を出力する出力ステップをさらに含む、請求項12~20のいずれか1項に記載の監視方法。 21. The monitoring method according to any one of claims 12 to 20, further comprising an output step of outputting the determination result of said determination step. 請求項12~21のいずれか1項に記載の監視方法をコンピューターに実行させるための監視プログラム。
A monitoring program for causing a computer to execute the monitoring method according to any one of claims 12 to 21.
JP2021148373A 2021-09-13 2021-09-13 Monitor system, monitor method, and monitor program Pending JP2023041168A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021148373A JP2023041168A (en) 2021-09-13 2021-09-13 Monitor system, monitor method, and monitor program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021148373A JP2023041168A (en) 2021-09-13 2021-09-13 Monitor system, monitor method, and monitor program

Publications (1)

Publication Number Publication Date
JP2023041168A true JP2023041168A (en) 2023-03-24

Family

ID=85641404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021148373A Pending JP2023041168A (en) 2021-09-13 2021-09-13 Monitor system, monitor method, and monitor program

Country Status (1)

Country Link
JP (1) JP2023041168A (en)

Similar Documents

Publication Publication Date Title
JP6171415B2 (en) Information processing apparatus, information processing method, and program
JP6167563B2 (en) Information processing apparatus, information processing method, and program
JP6717235B2 (en) Monitoring support system and control method thereof
WO2012043020A1 (en) Safe nursing system and method for controlling safe nursing system
JP4841462B2 (en) Bed equipment
JP6915421B2 (en) Watching support system and its control method
JP6757155B2 (en) Status judgment device
JP6273944B2 (en) Status detection method, apparatus, and program
US20210219873A1 (en) Machine vision to predict clinical patient parameters
JP7403132B2 (en) Nursing care recording device, nursing care recording system, nursing care recording program, and nursing care recording method
CN108814614B (en) Method, device and system for monitoring user action
JP5068602B2 (en) Bed equipment
JP5111889B2 (en) Bed equipment
JP4342298B2 (en) Device usage status determination method and device usage status determination device
JP2008212306A (en) Bed apparatus
JPWO2017183603A1 (en) Monitored person monitoring system and monitored person monitoring method
JP6791731B2 (en) Posture judgment device and reporting system
JP2023041168A (en) Monitor system, monitor method, and monitor program
JP2006223650A (en) Bed, sit-up detecting device and program
JP3138451B2 (en) Patient monitoring device
WO2018235628A1 (en) Monitoring assistance system, control method therefor, and program
JP6607253B2 (en) Image analysis apparatus, image analysis method, and image analysis program
JP5870230B1 (en) Watch device, watch method and watch program
JP7172483B2 (en) STATE DETECTION DEVICE, STATE DETECTION METHOD, AND PROGRAM
JP2023025761A (en) Watching system, watching device, watching method, and watching program