JP6822326B2 - Watching support system and its control method - Google Patents

Watching support system and its control method Download PDF

Info

Publication number
JP6822326B2
JP6822326B2 JP2017123009A JP2017123009A JP6822326B2 JP 6822326 B2 JP6822326 B2 JP 6822326B2 JP 2017123009 A JP2017123009 A JP 2017123009A JP 2017123009 A JP2017123009 A JP 2017123009A JP 6822326 B2 JP6822326 B2 JP 6822326B2
Authority
JP
Japan
Prior art keywords
state
image
subject
person
bed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017123009A
Other languages
Japanese (ja)
Other versions
JP2019008515A (en
Inventor
純平 松永
純平 松永
田中 清明
清明 田中
信二 高橋
信二 高橋
達哉 村上
達哉 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2017123009A priority Critical patent/JP6822326B2/en
Priority to PCT/JP2018/021983 priority patent/WO2018235628A1/en
Publication of JP2019008515A publication Critical patent/JP2019008515A/en
Application granted granted Critical
Publication of JP6822326B2 publication Critical patent/JP6822326B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop

Description

本発明は、ベッド上の対象者の見守りを支援するための技術に関する。 The present invention relates to a technique for assisting in watching over a subject on a bed.

ベッドからの転落事故などを未然に防ぐため、病院や介護施設などにおける患者の見守りを支援するシステムが知られている。特許文献1には、ベッドの斜め上方に設置したカメラで撮影した画像から患者の頭部を検出し、ベッド上に設定した境界線を頭部が超えたことをもって起床動作と判定し、看護師等へ通知を行うシステムが提案されている。 In order to prevent accidents such as falling from the bed, a system that supports watching over patients in hospitals and long-term care facilities is known. In Patent Document 1, the patient's head is detected from an image taken by a camera installed diagonally above the bed, and when the head crosses the boundary line set on the bed, it is determined that the patient is getting up. A system for notifying such people has been proposed.

特開2012−071004号公報Japanese Unexamined Patent Publication No. 2012-071004

従来システムは、画像から患者の頭部を検出し、頭部の位置や動きから患者の行動(起床や離床など)を推定するという方法が一般的であった。しかしながら、このような従来方法は、画像から頭部を検出できなかった場合、もしくは誤って検出した場合に、患者の行動を正しく推定できないという課題がある。例えば、患者が布団を被っていたり、患者以外の人や紛らわしい物体が周囲に存在したり、照明環境が変化したりするなど、外乱や環境に依存して検出精度にバラツキが生じると、危険行動の見過ごしや誤報(不要な警報)が発生し、システムの信頼性を著しく低下させてしまうおそれがある。 In the conventional system, a method of detecting the patient's head from an image and estimating the patient's behavior (getting up, getting out of bed, etc.) from the position and movement of the head has been common. However, such a conventional method has a problem that the behavior of the patient cannot be correctly estimated when the head cannot be detected from the image or when the head is erroneously detected. For example, if the patient is wearing a futon, there is a person other than the patient or a confusing object in the surroundings, the lighting environment changes, etc., and the detection accuracy varies depending on the disturbance or environment, it is a dangerous behavior. There is a risk that the system will be overlooked or false alarms (unnecessary alarms) will occur, significantly reducing the reliability of the system.

本発明は、上記実情に鑑みなされたものであって、ベッド上の対象者の状態ないし行動を高精度かつ高信頼に検知するための技術を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique for detecting the state or behavior of a subject on a bed with high accuracy and high reliability.

上記目的を達成するために、本発明では、ベッドと人の状態のパターンを機械学習した回帰器を用いて、監視画像から見守り対象者の状態を推定し、当該対象者の行動を検知する、という方法を採用する。 In order to achieve the above object, in the present invention, the state of the monitoring target person is estimated from the monitoring image by using a regression device that machine-learns the pattern of the state of the bed and the person, and the behavior of the target person is detected. The method is adopted.

具体的には、本発明の第一態様は、ベッド上の対象者の見守りを支援する見守り支援システムであって、ベッドと人が写る画像を入力し、前記ベッドに対する前記人の状態を示すスコアを出力するように機械学習されている回帰器と、前記対象者のベッドを含む監視領域を撮影するように設置された撮像装置から画像を取得する画像取得部と、前記画像取得部により得られた前記監視領域の画像を前記回帰器に入力することにより得られたスコアに基づいて、前記対象者の行動を判定する判定部と、前記判定部の判定結果に基づく通知を行う出力部と、を有することを特徴とする見守り支援システムを提供する。 Specifically, the first aspect of the present invention is a watching support system that supports watching over a subject on a bed, in which an image of the bed and a person is input and a score indicating the state of the person with respect to the bed. An image acquisition unit that acquires an image from an image pickup device installed so as to capture a monitoring area including a bed of the subject, and an image acquisition unit that is machine-learned to output the image. A determination unit that determines the behavior of the target person based on the score obtained by inputting the image of the monitoring area into the regression device, and an output unit that gives a notification based on the determination result of the determination unit. It provides a watching support system characterized by having a bed.

この構成によれば、回帰器を用いて入力画像における対象者の状態を推定する。したがって、未知の入力画像に対して高精度な状態推定を行うことができる。また、回帰器のスコアは連続値で出力されるので、対象者の状態が明確に分類できないものであったとしても、妥当な推定結果を得ることができる。さらに、対象者が布団を被っていたり、対象者の周囲にまぎらわしい人や物体が存在していたり、照明環境が通常と異なるなど、頭部検出が困難な画像であっても、妥当な推定結果を得ることができるという利点もある。 According to this configuration, the state of the subject in the input image is estimated using a regression device. Therefore, it is possible to perform highly accurate state estimation for an unknown input image. Moreover, since the score of the regression device is output as a continuous value, a reasonable estimation result can be obtained even if the state of the subject cannot be clearly classified. Furthermore, even if the image is difficult to detect the head, such as when the subject is wearing a futon, there are confusing people or objects around the subject, or the lighting environment is different from normal, a reasonable estimation result is obtained. There is also an advantage that can be obtained.

前記回帰器は、ニューラルネットワークであるとよい。ニューラルネットワークを用い
ることにより、高精度かつ頑健性の高い状態推定を行うことができる。
The regressor may be a neural network. By using a neural network, it is possible to perform state estimation with high accuracy and high robustness.

前記ベッドに対する前記人の状態があらかじめ複数の類型に分類され、かつ、前記複数の類型のそれぞれに異なるスコアが割り当てられており、前記回帰器は、前記人の状態が2つの類型のあいだの状態である場合に、前記2つの類型のスコアのあいだの値を出力するように構成されているとよい。このような設計とすることにより、人がとり得るさまざまな状態を一次元のスコアで表現できるようになるので、「人の状態」を数学的にあるいはプログラムにおいて取り扱うのが容易になり、例えば後段の処理(判定部による判定ロジックなど)を極めて簡易に構築できる。 The state of the person with respect to the bed is classified into a plurality of types in advance, and different scores are assigned to each of the plurality of types, and the regressionr is a state in which the state of the person is between two types. In the case of, it is preferable that the value between the scores of the two types is output. With such a design, various states that a person can take can be expressed by a one-dimensional score, so that it becomes easy to handle the "human state" mathematically or in a program. For example, the latter stage. Processing (judgment logic by the judgment unit, etc.) can be constructed extremely easily.

例えば、前記複数の類型は、前記人が前記ベッドに寝ている状態0、前記人が前記ベッド上で起き上がっている状態1、および、前記人が前記ベッドから離れている状態2を含むとよい。少なくとも状態0〜状態2の3種類の状態が判別できれば、見守りのニーズが高い「起床」と「離床」の検知が可能になるからである。 For example, the plurality of types may include a state 0 in which the person is sleeping on the bed, a state 1 in which the person is awake on the bed, and a state 2 in which the person is away from the bed. .. This is because if at least three types of states 0 to 2 can be discriminated, it is possible to detect "wake up" and "get out of bed", which are highly needed for watching.

前記判定部は、前記スコアにより推定された前記対象者の状態の時間的な変化に基づいて、前記対象者の行動を判定するとよい。対象者の一時的な状態ではなく、対象者の状態の時間的な変化(状態遷移)に基づいて対象者の行動を判定することで、行動判定の精度を向上することができる。 The determination unit may determine the behavior of the subject based on the temporal change in the state of the subject estimated from the score. By determining the behavior of the target person based on the temporal change (state transition) of the target person's state instead of the temporary state of the target person, the accuracy of the behavior determination can be improved.

例えば、前記判定部は、前記対象者の状態が前記状態0から前記状態1に遷移した場合、又は、前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1が所定時間続いた場合に、前記対象者が起床したと判定するとよい。 For example, in the determination unit, when the state of the target person changes from the state 0 to the state 1, or the state of the target person changes from the state 0 to the state 1, the state 1 further changes. If it continues for a predetermined time, it may be determined that the subject has woken up.

また、前記判定部は、前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1から前記状態2に遷移した場合、又は、前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1から前記状態2に遷移し、さらに、前記状態2が所定時間続いた場合に、又は、前記対象者の状態が前記状態0から前記状態2に遷移した場合、又は、前記対象者の状態が前記状態0から前記状態2に遷移し、さらに、前記状態2が所定時間続いた場合に、前記対象者が離床したと判定するとよい。 Further, in the determination unit, when the state of the target person transitions from the state 0 to the state 1 and further transitions from the state 1 to the state 2, or the state of the target person changes from the state 0. Transition to the state 1, further transition from the state 1 to the state 2, and further, when the state 2 continues for a predetermined time, or the state of the subject transitions from the state 0 to the state 2. In this case, or when the state of the subject transitions from the state 0 to the state 2 and the state 2 continues for a predetermined time, it may be determined that the subject has left the bed.

なお、本発明は、上記構成ないし機能の少なくとも一部を有する見守り支援システムとして捉えることができる。また、本発明は、上記処理の少なくとも一部を含む、見守り支援方法又は見守り支援システムの制御方法や、これらの方法をコンピュータに実行させるためのプログラム、又は、そのようなプログラムを非一時的に記録したコンピュータ読取可能な記録媒体として捉えることもできる。上記構成及び処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。 The present invention can be regarded as a watching support system having at least a part of the above-mentioned configuration or function. Further, the present invention provides a monitoring support method or a control method of a watching support system including at least a part of the above processing, a program for causing a computer to execute these methods, or a program such as such. It can also be regarded as a recorded computer-readable recording medium. Each of the above configurations and processes can be combined with each other to construct the present invention as long as there is no technical contradiction.

本発明によれば、ベッド上の対象者の状態ないし行動を高精度かつ高信頼に検知することができる。 According to the present invention, the state or behavior of the subject on the bed can be detected with high accuracy and high reliability.

図1は第1実施形態の見守り支援システムのハードウェア構成および機能構成を模式的に示すブロック図である。FIG. 1 is a block diagram schematically showing a hardware configuration and a functional configuration of the monitoring support system of the first embodiment. 図2は撮像装置の設置例を示す図である。FIG. 2 is a diagram showing an installation example of an imaging device. 図3は画像に対し設定された監視領域の例である。FIG. 3 is an example of a monitoring area set for an image. 図4は人の状態の類型と画像の例である。FIG. 4 is an example of a human state type and an image. 図5は回帰器の機械学習を模式的に示す図である。FIG. 5 is a diagram schematically showing machine learning of the regression device. 図6は回帰器の能力を模式的に示す図である。FIG. 6 is a diagram schematically showing the ability of the regressor. 図7は状態監視処理のフローチャートである。FIG. 7 is a flowchart of the state monitoring process. 図8は行動判定のフローチャートである。FIG. 8 is a flowchart of action determination. 図9は判定ロジックの例である。FIG. 9 is an example of the determination logic.

本発明は、ベッド上の対象者の見守りを支援するための技術に関する。この技術は、病院や介護施設などにおいて、患者や要介護者などの離床・起床行動を自動で検知し、危険な状態が発生した場合などに必要な通知を行うシステムに適用することができる。このシステムは、例えば、高齢者、認知症患者、子供などの見守り支援に好ましく利用することができる。 The present invention relates to a technique for assisting in watching over a subject on a bed. This technology can be applied to a system in hospitals, long-term care facilities, etc. that automatically detects the behavior of patients and people requiring long-term care to get out of bed and wake up, and gives necessary notifications when a dangerous situation occurs. This system can be preferably used, for example, to support watching over elderly people, dementia patients, children and the like.

以下、図面を参照して本発明を実施するための好ましい形態の一例を説明する。ただし、以下の実施形態に記載されている装置の構成や動作は一例であり、本発明の範囲をそれらのみに限定する趣旨のものではない。 Hereinafter, an example of a preferred embodiment for carrying out the present invention will be described with reference to the drawings. However, the configurations and operations of the devices described in the following embodiments are examples, and the scope of the present invention is not limited to them.

(システム構成)
図1と図2を参照して、本発明の実施形態に係る見守り支援システムの構成を説明する。図1は、見守り支援システム1のハードウェア構成および機能構成を模式的に示すブロック図であり、図2は、撮像装置の設置例を示す図である。
(System configuration)
The configuration of the monitoring support system according to the embodiment of the present invention will be described with reference to FIGS. 1 and 2. FIG. 1 is a block diagram schematically showing a hardware configuration and a functional configuration of the monitoring support system 1, and FIG. 2 is a diagram showing an installation example of an imaging device.

見守り支援システム1は、主なハードウェア構成として、撮像装置10と情報処理装置11を有している。撮像装置10と情報処理装置11の間は有線又は無線により接続されている。図1では、1つの撮像装置10のみ示しているが、複数台の撮像装置10を情報処理装置11に接続してもよい。 The monitoring support system 1 has an image pickup device 10 and an information processing device 11 as main hardware configurations. The image pickup device 10 and the information processing device 11 are connected by wire or wirelessly. Although only one image pickup device 10 is shown in FIG. 1, a plurality of image pickup devices 10 may be connected to the information processing device 11.

撮像装置10は、ベッド上の対象者を撮影して画像データを取り込むためのデバイスである。撮像装置10としては、モノクロ又はカラーの可視光カメラ、赤外線カメラ、三次元カメラなどを用いることができる。本実施形態では、夜間でも(部屋内が暗い場合でも)対象者の見守りを可能とするため、赤外線LED照明100と近赤外線カメラ101で構成される撮像装置10を採用する。撮像装置10は、図2に示すように、ベッド20の頭側上方から足側に向かって、ベッド20の全体を俯瞰するように設置される。撮像装置10は所定の時間間隔(例えば、30fps)で撮影を行い、その画像データは情報処理装置11に順次取り込まれる。 The image pickup device 10 is a device for photographing a subject on a bed and capturing image data. As the image pickup apparatus 10, a monochrome or color visible light camera, an infrared camera, a three-dimensional camera, or the like can be used. In the present embodiment, in order to enable watching over the subject even at night (even when the room is dark), an image pickup device 10 composed of an infrared LED illumination 100 and a near infrared camera 101 is adopted. As shown in FIG. 2, the image pickup apparatus 10 is installed so as to give a bird's-eye view of the entire bed 20 from above the head side to the foot side of the bed 20. The image pickup apparatus 10 takes pictures at predetermined time intervals (for example, 30 fps), and the image data is sequentially taken into the information processing apparatus 11.

情報処理装置11は、撮像装置10から取り込まれる画像データをリアルタイムに分析し、ベッド20上の対象者21の起床行動や離床行動を自動で検知し、必要な場合に通知を行う機能を備える装置である。情報処理装置11は、具体的な機能モジュールとして、画像取得部110、領域設定部111、前処理部112、回帰器113、スコア安定化部114、判定部115、出力部116、記憶部117を有している。 The information processing device 11 has a function of analyzing image data captured from the image pickup device 10 in real time, automatically detecting the wake-up behavior and the wake-up behavior of the subject 21 on the bed 20, and notifying the subject 21 when necessary. Is. The information processing device 11 includes an image acquisition unit 110, an area setting unit 111, a preprocessing unit 112, a regression device 113, a score stabilization unit 114, a determination unit 115, an output unit 116, and a storage unit 117 as specific functional modules. Have.

本実施形態の情報処理装置11は、CPU(プロセッサ)、メモリ、ストレージ(HDD、SSDなど)、入力デバイス(キーボード、マウス、タッチパネルなど)、出力デバイス(ディスプレイ、スピーカなど)、通信インタフェースなどを具備する汎用のコンピュータにより構成され、上述した情報処理装置11の各モジュールは、ストレージ又はメモリに格納されたプログラムをCPUが実行することにより実現される。ただし、情報処理装置11の構成はこの例に限られない。例えば、複数台のコンピュータによる分散コンピューティングを行ってもよいし、上記モジュールの一部をクラウドサーバにより実行してもよいし、上記モジュールの一部をASICやFPGAのような回路で構成してもよい。 The information processing device 11 of the present embodiment includes a CPU (processor), a memory, a storage (HDD, SSD, etc.), an input device (keyboard, mouse, touch panel, etc.), an output device (display, speaker, etc.), a communication interface, and the like. Each module of the information processing apparatus 11 described above is realized by executing a program stored in a storage or a memory by a CPU. However, the configuration of the information processing device 11 is not limited to this example. For example, distributed computing by a plurality of computers may be performed, a part of the module may be executed by a cloud server, or a part of the module may be configured by a circuit such as an ASIC or FPGA. May be good.

画像取得部110は、撮像装置10により撮影された画像を取得するためのモジュールである。画像取得部110より入力された画像データは一時的にメモリ又はストレージに記憶され、後述する領域設定処理や状態監視処理に供される。 The image acquisition unit 110 is a module for acquiring an image captured by the image pickup apparatus 10. The image data input from the image acquisition unit 110 is temporarily stored in a memory or a storage, and is used for an area setting process and a state monitoring process described later.

領域設定部111は、撮像装置10により撮影される画像に対し監視領域を設定するためのモジュールである。監視領域は、撮像装置10の視野のうち状態監視処理の対象となる範囲(言い換えると、回帰器113の入力として用いられる画像範囲)である。領域設定処理の詳細は後述する。 The area setting unit 111 is a module for setting a monitoring area for an image captured by the image pickup apparatus 10. The monitoring area is a range of the field of view of the image pickup apparatus 10 that is the target of the state monitoring process (in other words, the image range used as the input of the regressor 113). The details of the area setting process will be described later.

前処理部112は、状態監視処理において、画像取得部110より入力された画像(以後「オリジナル画像」と呼ぶ)に対し必要な前処理を施すためのモジュールである。例えば、前処理部112は、オリジナル画像から監視領域内の画像をクリップする処理を行う(クリップされた画像を以後「監視領域画像」と呼ぶ)。また、前処理部112は、監視領域画像に対して、リサイズ(縮小)、アフィン変換、輝度補正などの処理を施してもよい。リサイズ(縮小)は、回帰器113の演算時間を短縮する効果がある。リサイズには既存のどのような手法を用いてもよいが、演算コストと品質のバランスがよいバイリニア法が好ましい。アフィン変換は、例えば、画像において台形状に写るベッドを長方形状に変形するなど、必要な歪み補正を行うことで、回帰器113への入力画像を規格化し、推定精度を向上する効果が期待できる。輝度補正は、例えば、照明環境の影響を低減することで、推定精度を向上する効果が期待できる。なお、オリジナル画像をそのまま回帰器113に入力する場合には、前処理部112は省略してもよい。 The pre-processing unit 112 is a module for performing necessary pre-processing on an image (hereinafter referred to as "original image") input from the image acquisition unit 110 in the state monitoring process. For example, the preprocessing unit 112 performs a process of clipping an image in the monitoring area from the original image (the clipped image is hereinafter referred to as a “monitoring area image”). Further, the preprocessing unit 112 may perform processing such as resizing (reduction), affine transformation, and luminance correction on the monitored area image. Resizing (reduction) has the effect of shortening the calculation time of the regressor 113. Any existing method may be used for resizing, but the bilinear method, which has a good balance between calculation cost and quality, is preferable. The affine transformation can be expected to have the effect of standardizing the input image to the retriever 113 and improving the estimation accuracy by performing necessary distortion correction such as deforming the bed appearing in a trapezoidal shape in the image into a rectangular shape. .. Luminance correction can be expected to have the effect of improving estimation accuracy by, for example, reducing the influence of the lighting environment. When the original image is input to the regression unit 113 as it is, the preprocessing unit 112 may be omitted.

回帰器113は、監視領域画像が与えられたときに、当該監視領域画像に写る対象者21の状態(例えば、就床状態、起床状態、離床状態)を示すスコアを出力するためのモジュールである。回帰器113は、ベッドと人が写る画像を入力とし、ベッドに対する人の状態を示すスコアを出力するように、入力画像の特徴と人の状態との関係モデルを機械学習により構築したものである。回帰器113のトレーニングは、多数のトレーニング用画像を用いて、学習装置12によって事前に(システムの出荷前ないし稼働前に)行われているものとする。なお、回帰器113の学習モデルとしては、ニューラルネットワーク、ランダムフォレスト、サポートベクターマシンなど、どのようなモデルを用いてもよい。本実施形態では、画像認識に好適な畳み込みニューラルネットワーク(CNN)を用いる。 The regressor 113 is a module for outputting a score indicating a state (for example, a bed state, a wake-up state, a bed-off state) of the target person 21 reflected in the monitoring area image when the monitoring area image is given. .. The regressor 113 takes an image of a bed and a person as an input, and constructs a relational model between the characteristics of the input image and the state of the person by machine learning so as to output a score indicating the state of the person with respect to the bed. .. It is assumed that the training of the regressor 113 is performed in advance by the learning device 12 (before the system is shipped or before the system is put into operation) using a large number of training images. As the learning model of the regressor 113, any model such as a neural network, a random forest, or a support vector machine may be used. In this embodiment, a convolutional neural network (CNN) suitable for image recognition is used.

スコア安定化部114は、回帰器113から出力されるスコアの急激な変化やばたつきを抑制するためのモジュールである。スコア安定化部114は、例えば、現在のフレームの画像から得られた現在スコアと、直前の2フレームの画像からそれぞれ得られた過去スコアの平均を計算し、安定化スコアとして出力する。この処理は、スコアの時系列データに時間的なローパスフィルタをかけることと等価である。なお、スコアの安定化が不要であれば、スコア安定化部114は省略してもよい。 The score stabilizing unit 114 is a module for suppressing a sudden change or fluttering of the score output from the regressor 113. The score stabilization unit 114 calculates, for example, the average of the current score obtained from the image of the current frame and the past score obtained from the images of the immediately preceding two frames, and outputs the result as the stabilization score. This process is equivalent to applying a temporal low-pass filter to the time series data of the score. If it is not necessary to stabilize the score, the score stabilization unit 114 may be omitted.

判定部115は、回帰器113により得られたスコアに基づいて、対象者の行動を判定するためのモジュールである。具体的には、判定部115は、スコアの時間的な変化(つまり、スコアが示す「対象者の状態」の遷移)に基づいて、対象者がどのような行動(例えば、起床行動、離床行動など)をとったのかを推定する。判定部115の処理の詳細は後述する。 The determination unit 115 is a module for determining the behavior of the subject based on the score obtained by the regression device 113. Specifically, the determination unit 115 determines what kind of behavior (for example, getting up behavior, getting out of bed) of the subject based on the temporal change of the score (that is, the transition of the “subject's state” indicated by the score). Etc.) is estimated. Details of the processing of the determination unit 115 will be described later.

出力部116は、判定部115の判定結果に基づいて、必要な通知を行うモジュールである。例えば、出力部116は、対象者21の状態や行動に応じて、通知の要否(例えば、危険な状態の場合のみ通知を行う)、通知の内容(例えばメッセージの内容)、通知手段(例えば音声、メール、ブザー、警告灯)、通知先(例えば看護師、医師、介護者)、
通知の頻度などを切り替えることができる。
The output unit 116 is a module that gives necessary notifications based on the determination result of the determination unit 115. For example, the output unit 116 determines the necessity of notification (for example, notifying only in the case of a dangerous state), the content of the notification (for example, the content of the message), and the notification means (for example, depending on the state or action of the target person 21). Voice, email, buzzer, warning light), notification destination (eg nurse, doctor, caregiver),
You can switch the frequency of notifications.

記憶部117は、見守り支援システム1が処理に用いる各種のデータを記憶するモジュールである。記憶部117には、例えば、監視領域の設定情報、前処理で用いるパラメータ、スコア安定化処理で用いるパラメータ、スコアの時系列データ、判定処理で用いるパラメータなどが記憶される。 The storage unit 117 is a module that stores various data used for processing by the monitoring support system 1. The storage unit 117 stores, for example, monitoring area setting information, parameters used in preprocessing, parameters used in score stabilization processing, time-series data of scores, parameters used in determination processing, and the like.

(監視領域の設定)
撮像装置10の画角内にはベッド20や対象者21以外にさまざまな物が写り込んでいる。対象者21の状態や行動を検知するにあたっては、ベッド20と対象者21以外の物はノイズとして作用する可能性があるため、出来る限り除外することが好ましい。また、回帰器113に入力する画像については、画像サイズ(幅、高さ)および画像内のベッドの位置・範囲・大きさなどが規格化されているほうが、推定精度の向上が図りやすい。そこで、本実施形態では、ベッド20を基準にした所定の範囲を監視領域に設定し、後述する状態監視処理では監視領域内の画像をクリッピングして回帰器113の入力画像とする。
(Setting of monitoring area)
Various objects other than the bed 20 and the subject 21 are reflected in the angle of view of the image pickup apparatus 10. In detecting the state and behavior of the subject 21, it is preferable to exclude the bed 20 and objects other than the subject 21 as much as possible because they may act as noise. Further, for the image to be input to the regression device 113, it is easier to improve the estimation accuracy if the image size (width, height) and the position / range / size of the bed in the image are standardized. Therefore, in the present embodiment, a predetermined range based on the bed 20 is set in the monitoring area, and in the state monitoring process described later, the image in the monitoring area is clipped and used as the input image of the regressor 113.

監視領域の設定は、手動で行ってもよいし自動で行ってもよい。手動設定の場合、領域設定部111は、画像内のベッド20の領域ないし監視領域そのものをユーザに入力させるためのユーザインタフェースを提供するとよい。自動設定の場合、領域設定部111は、物体認識処理により画像からベッド20を検出し、検出したベッド20の領域を包含するように監視領域を設定するとよい。なお、領域設定処理は、監視領域が未設定の場合(例えば、システムの設置時など)、ベッド20や撮像装置10の移動に伴い監視領域を更新する必要がある場合などに実行される。 The monitoring area may be set manually or automatically. In the case of manual setting, the area setting unit 111 may provide a user interface for allowing the user to input the area of the bed 20 in the image or the monitoring area itself. In the case of automatic setting, the area setting unit 111 may detect the bed 20 from the image by the object recognition process, and set the monitoring area so as to include the detected area of the bed 20. The area setting process is executed when the monitoring area is not set (for example, when the system is installed), or when it is necessary to update the monitoring area due to the movement of the bed 20 or the imaging device 10.

図3Aは、オリジナル画像に対し設定された監視領域の例である。本実施形態では、ベッド20の領域の左側・右側・上側(足側)にそれぞれ所定幅のマージンを付加した範囲を、監視領域30に設定する。マージンの幅は、ベッド20上で起き上がっている人(図3B参照)の全身が監視領域30内に入るように設定される。 FIG. 3A is an example of a monitoring area set for the original image. In the present embodiment, the monitoring area 30 is set to a range in which a margin of a predetermined width is added to the left side, the right side, and the upper side (foot side) of the area of the bed 20. The width of the margin is set so that the whole body of the person standing up on the bed 20 (see FIG. 3B) is within the monitoring area 30.

(状態の類型と機械学習)
本システムでは、人の状態を回帰で取り扱うために、「ベッドに対する人の状態」をあらかじめ第0〜第2の3つの類型に分類する。「第0類型」は、人がベッドに寝ている状態(「就床状態」又は「状態0」と呼ぶ)、「第1類型」は、人がベッド上で起き上がっている状態(「起床状態」又は「状態1」と呼ぶ)、「第2類型」は、人がベッドから離れている(降りている)状態(「離床状態」又は「状態2」と呼ぶ)である。図4は、寝ていた人が起き上がり、ベッドから離れる、という一連の行動を表す時系列画像と、3つの類型との対応を示す例である。
(State typology and machine learning)
In this system, in order to handle the human condition by regression, the "human condition with respect to the bed" is classified into the third to second three types in advance. "Type 0" is a state in which a person is sleeping on the bed (referred to as "sleeping state" or "state 0"), and "type 1" is a state in which a person is awake on the bed ("wakening state"). "Or" state 1 ")," type 2 "is a state in which a person is away from (getting off) the bed (referred to as" getting out of bed "or" state 2 "). FIG. 4 is an example showing the correspondence between the three types and a time-series image showing a series of actions of a sleeping person getting up and getting out of bed.

図5は、回帰器113の機械学習を模式的に示している。まず、実際の病室等を撮影した画像を集め、各画像を第0類型〜第2類型に分類する。そして、各画像の監視領域に相当する部分をクリッピングし、類型の番号(0,1,2)をラベルとして割り当て、トレーニング用画像のセットを生成する。回帰の精度向上のため、十分な数の画像を用意することが好ましく、またそれぞれの類型についてさまざまなバリエーションの画像を用意することが好ましい。ただし、人の状態がどちらの類型に属するかあいまいな画像は、トレーニング用画像に適さないので、除外することが好ましい。 FIG. 5 schematically shows the machine learning of the regressor 113. First, images of actual hospital rooms and the like are collected, and each image is classified into the 0th type to the 2nd type. Then, the portion corresponding to the monitoring area of each image is clipped, the type numbers (0, 1, 2) are assigned as labels, and a set of training images is generated. In order to improve the accuracy of regression, it is preferable to prepare a sufficient number of images, and it is preferable to prepare images of various variations for each type. However, it is preferable to exclude an image in which it is unclear which type the human condition belongs to because it is not suitable for a training image.

学習装置12は、トレーニング用画像のセットを用い、各入力画像に対してそのラベルと同じスコア(つまり、第1類型に属する入力画像であればスコア=1)を出力するように、畳み込みニューラルネットワークのトレーニングを行う。そして、学習装置12は、
学習結果であるニューラルネットワークのパラメータ群を、本システムの回帰器113に組み込む。なお、ニューラルネットワークの具体的な層構造、フィルタ、活性化関数、入力画像の仕様などは、実装や要求精度にあわせて適宜設計すればよい。
The learning device 12 uses a set of training images, and a convolutional neural network so as to output the same score as the label for each input image (that is, score = 1 if the input image belongs to the first type). Training. And the learning device 12
The neural network parameter group, which is the learning result, is incorporated into the regression device 113 of this system. The specific layer structure, filter, activation function, input image specifications, etc. of the neural network may be appropriately designed according to the implementation and required accuracy.

図6は、回帰器113の能力を模式的に示している。回帰器113は、画像の「特徴量」と人の状態を示す「スコア」との対応関係をモデル化したものである。回帰器113は、その関係モデルに従って、入力画像から特徴量を抽出し、特徴量に対応したスコアを計算し出力する。なお、図6では、説明の便宜のため関係モデルを2次元の線型モデルで示しているが、実際の特徴量空間は多次元であり、関係モデルは非線型となる。 FIG. 6 schematically shows the capability of the regressor 113. The regressor 113 models the correspondence between the “feature amount” of the image and the “score” indicating the state of the person. The regressor 113 extracts a feature amount from the input image according to the relational model, calculates a score corresponding to the feature amount, and outputs the feature amount. In FIG. 6, the relational model is shown as a two-dimensional linear model for convenience of explanation, but the actual feature space is multidimensional, and the relational model is non-linear.

回帰器113から出力されるスコアは0〜2の範囲の実数値(連続値)である。例えば、第1類型(起床状態)の入力画像が与えられた場合は、その出力スコアは1又は1に極めて近い値となる。他の類型の場合も同様である。他方、入力画像のなかには、寝た姿勢から上半身を起こそうとしている状態や、ベッドから立ち上がろうとしている状態のように、どちらの類型に属するかあいまいな画像も存在する。そのような中間状態の画像の場合、抽出される特徴量は2つの類型のあいだの特徴量となるため、2つの類型の中間のスコアが出力されることとなる。例えば、寝た姿勢から上半身を起こそうとしている状態の画像であれば、第0類型と第1類型の中間状態ゆえ、0より大きく1より小さい値のスコアが得られる。 The score output from the regressor 113 is a real value (continuous value) in the range of 0 to 2. For example, when an input image of the first type (wake-up state) is given, the output score is 1 or a value extremely close to 1. The same applies to other types. On the other hand, some input images are ambiguous as to which type they belong to, such as a state in which the upper body is about to rise from a lying posture or a state in which the upper body is about to rise from a bed. In the case of an image in such an intermediate state, the extracted feature amount is a feature amount between the two types, so that an intermediate score between the two types is output. For example, in the case of an image in which the upper body is about to be raised from a lying posture, a score larger than 0 and smaller than 1 can be obtained because of the intermediate state between the 0th type and the 1st type.

このように、本システムでは回帰器113を用いて、入力画像における人の状態を推定する。したがって、未知の入力画像に対して高精度な状態推定を行うことができる。特に、頭部検出を利用した従来方法と比べた場合の優れた点として、以下のような利点を挙げることができる。
・中間状態の画像が入力された場合でも妥当な推定結果を得ることができる。
・対象者が布団を被っていたり、対象者の周囲にまぎらわしい人や物体が存在していたり、照明環境が通常と異なるなど、頭部検出が困難な画像であっても、妥当な推定結果を得ることができる。
As described above, in this system, the regression device 113 is used to estimate the state of a person in the input image. Therefore, it is possible to perform highly accurate state estimation for an unknown input image. In particular, the following advantages can be mentioned as advantages as compared with the conventional method using head detection.
-A reasonable estimation result can be obtained even when an image in an intermediate state is input.
・ Even if the image is difficult to detect the head, such as when the subject is wearing a futon, there are confusing people or objects around the subject, or the lighting environment is different from normal, a reasonable estimation result can be obtained. Obtainable.

(状態監視処理)
図7を参照して本システムの状態監視処理の一例を説明する。図7の処理フローは、撮像装置10から1フレームの画像が取り込まれる度に実行される。
(Status monitoring process)
An example of the state monitoring process of this system will be described with reference to FIG. 7. The processing flow of FIG. 7 is executed every time one frame of an image is captured from the image pickup apparatus 10.

ステップS70において、画像取得部110が、撮像装置10から1フレームの画像を取り込む。取得されたオリジナル画像は記憶部117に一時的に記憶される。次に前処理部112が、オリジナル画像から監視領域画像をクリップし、必要に応じてリサイズ、アフィン変換、輝度補正などを実行する(ステップS71)。次に回帰器113が、監視領域画像を入力し、対応するスコアを出力する(ステップS72)。次にスコア安定化部114が、ステップS72で得られたスコアの安定化処理を行い(ステップS73)、得られたスコアを判定部115に引き渡す。 In step S70, the image acquisition unit 110 captures an image of one frame from the image pickup apparatus 10. The acquired original image is temporarily stored in the storage unit 117. Next, the preprocessing unit 112 clips the monitoring area image from the original image, and executes resizing, affine transformation, brightness correction, and the like as necessary (step S71). Next, the regressor 113 inputs the monitoring area image and outputs the corresponding score (step S72). Next, the score stabilization unit 114 performs the score stabilization process obtained in step S72 (step S73), and delivers the obtained score to the determination unit 115.

判定部115は、まず、スコア(連続値)に基づいて、対象者21の現在の状態を第0類型(状態0)/第1類型(状態1)/第2類型(状態2)のいずれかに分類する。分類方法は問わないが、本実施形態では、スコア≦閾値th1の場合は状態0(ステップS74,S75)、閾値th1<スコア≦閾値th2の場合は状態1(ステップS76,S77)、閾値th2<スコアの場合は状態2(ステップS78)、と分類する。閾値th1、th2は、例えば、th1=0.5、th2=1.5のように設定される。閾値th1、th2を変更することで、検知感度を調整することができる。 First, the determination unit 115 sets the current state of the subject 21 to any one of the 0th type (state 0) / 1st type (state 1) / 2nd type (state 2) based on the score (continuous value). Classify into. The classification method is not limited, but in the present embodiment, when the score ≤ threshold value th1, the state 0 (steps S74, S75), and when the threshold value th1 <score ≤ threshold value th2, the state 1 (step S76, S77), the threshold value th2 < In the case of a score, it is classified as state 2 (step S78). The threshold values th1 and th2 are set, for example, th1 = 0.5 and th2 = 1.5. The detection sensitivity can be adjusted by changing the threshold values th1 and th2.

続いて、判定部115は、対象者21の状態の時間的な変化に基づいて、対象者21の
行動を判定する(ステップS79)。ステップS79において、対象者21が「起床」又は「離床」したと判定されたら、出力部116が必要な通知を行う(ステップS80)。以上のステップS70〜S80は、システムが終了するまでフレーム毎に実行される(ステップS81)。
Subsequently, the determination unit 115 determines the behavior of the subject 21 based on the temporal change of the state of the subject 21 (step S79). In step S79, when it is determined that the subject 21 has "woke up" or "get out of bed", the output unit 116 gives a necessary notification (step S80). The above steps S70 to S80 are executed frame by frame until the system is terminated (step S81).

図8及び図9を参照して、判定部115による判定ロジックを説明する。図8は、ステップS79の行動判定処理の詳細フローであり、図9は、判定ロジックの一例であり、状態遷移と判定結果と通知設定の対応関係を示している。ここで、起床準備フラグは、状態0から遷移したことを確認するためのフラグ、離床準備フラグは、状態1から遷移したことを確認するためのフラグである。起床準備フラグと離床準備フラグは状態監視処理の起動時に「OFF」で初期化されるものとする。 The determination logic by the determination unit 115 will be described with reference to FIGS. 8 and 9. FIG. 8 is a detailed flow of the action determination process in step S79, and FIG. 9 is an example of determination logic, showing the correspondence between the state transition, the determination result, and the notification setting. Here, the wake-up preparation flag is a flag for confirming the transition from the state 0, and the wake-up preparation flag is a flag for confirming the transition from the state 1. It is assumed that the wake-up preparation flag and the wake-up preparation flag are initialized by "OFF" when the status monitoring process is started.

現在の状態が「0」である場合(ステップS790;YES)、判定部115は、起床準備フラグと離床準備フラグを「ON」に設定する(ステップS791)。 When the current state is "0" (step S790; YES), the determination unit 115 sets the wake-up preparation flag and the wake-up preparation flag to "ON" (step S791).

現在の状態が「1」である場合(ステップS792;YES)、判定部115は、起床準備フラグが「ON」かどうかを確認し(ステップS793)、「ON」であれば、対象者21が起床したと判定し(ステップS794)、起床準備フラグを「OFF」に、離床準備フラグを「ON」にする(ステップS795)。 When the current state is "1" (step S792; YES), the determination unit 115 confirms whether the wake-up preparation flag is "ON" (step S793), and if it is "ON", the subject 21 is It is determined that the user has woken up (step S794), the wake-up preparation flag is set to "OFF", and the wake-up preparation flag is set to "ON" (step S795).

現在の状態が「2」である場合(ステップS796;YES)、判定部115は、離床準備フラグが「ON」かどうかを確認し(ステップS797)、「ON」であれば、対象者21が離床したと判定し(ステップS798)、起床準備フラグと離床フラグを「OFF」にする(ステップS799)。 When the current state is "2" (step S796; YES), the determination unit 115 confirms whether the bed leaving preparation flag is "ON" (step S797), and if it is "ON", the subject 21 It is determined that the person has left the bed (step S798), and the wake-up preparation flag and the bed-leaving flag are set to "OFF" (step S799).

以上のような判定ロジックによれば、図9に示すように、状態0から状態1に遷移した場合に「起床」と判定され、状態0又は状態1から状態2に遷移した場合に「離床」と判定される。それ以外の場合は、判定部115は判定結果を出力しないか、「異常なし」との結果を出力する。 According to the determination logic as described above, as shown in FIG. 9, it is determined as "wake up" when transitioning from state 0 to state 1, and "getting out" when transitioning from state 0 or state 1 to state 2. Is determined. In other cases, the determination unit 115 does not output the determination result or outputs the result of "no abnormality".

以上述べた本実施形態によれば、回帰器113により対象者21の状態推定を行うので、従来方法に比べて、対象者21の状態ないし行動を精度良く判定することができる。また、対象者21の一時的な状態ではなく、対象者21の状態の時間的な変化(状態遷移)に基づいて対象者21の起床行動や離床行動を判定するので、行動判定の精度を向上することができる。しかも、起床判定や離床判定がなされて通知が行われると、起床準備フラグや離床準備フラグが一旦「OFF」になるため、対象者21が再び就床状態等に戻らない限り、起床判定や離床判定が作動しない。よって、起床・離床通知の誤報を減らすことができ、システムの信頼性を向上することができる。 According to the present embodiment described above, since the state of the target person 21 is estimated by the regression device 113, the state or behavior of the target person 21 can be determined more accurately than in the conventional method. Further, since the wake-up behavior and the wake-up behavior of the subject 21 are determined based on the temporal change (state transition) of the condition of the subject 21 instead of the temporary state of the subject 21, the accuracy of the behavior determination is improved. can do. Moreover, when the wake-up judgment or the wake-up judgment is made and the notification is given, the wake-up preparation flag and the wake-up preparation flag are once turned "OFF". Judgment does not work. Therefore, it is possible to reduce false alarms of getting up / leaving notifications and improve the reliability of the system.

<その他>
上記の各実施形態の説明は、本発明を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。
<Others>
The description of each of the above embodiments is merely an example of the present invention. The present invention is not limited to the above-mentioned specific form, and various modifications can be made within the scope of its technical idea.

例えば、上記実施形態では、状態0から状態1に遷移した場合に起床と判定したが、これに代えて、状態0から状態1に遷移した後、状態1が所定時間(例えば1秒間)続いた場合に起床と判定してもよい。これにより起床判定の信頼性をより高めることができる。同様に、状態0又は状態1から状態2に遷移した後、状態2が所定時間(例えば1秒間)続いた場合に離床と判定してもよい。これにより離床判定の信頼性をより高めることができる。 For example, in the above embodiment, it is determined that the person wakes up when the state changes from the state 0 to the state 1, but instead, the state 1 continues for a predetermined time (for example, 1 second) after the transition from the state 0 to the state 1. In some cases, it may be determined to wake up. As a result, the reliability of the wake-up determination can be further improved. Similarly, after transitioning from state 0 or state 1 to state 2, if state 2 continues for a predetermined time (for example, 1 second), it may be determined that the patient has left the bed. As a result, the reliability of the determination of getting out of bed can be further improved.

上記実施形態では、画像から就床状態/起床状態/離床状態を推定するとともに、対象者の起床行動と離床行動を検知する例を説明した。ただし、推定対象の状態や、検知対象の行動はこれらに限られない。すなわち、画像に異なる特徴が現れるものであれば、さまざまな「人の状態」や「行動」を取り扱うことが可能である。例えば、食事、読書などの行動を検知することも可能である。 In the above embodiment, an example of estimating the bedtime / wake-up state / wake-up state from the image and detecting the wake-up behavior and the wake-up behavior of the subject has been described. However, the state of the estimation target and the behavior of the detection target are not limited to these. That is, it is possible to handle various "human states" and "behaviors" as long as different features appear in the image. For example, it is possible to detect behaviors such as eating and reading.

1:見守り支援システム
10:撮像装置、11:情報処理装置、12:学習装置
100:照明、101:近赤外線カメラ、110:画像取得部、111:領域設定部、112:前処理部、113:回帰器、114:スコア安定化部、115:判定部、116:出力部、117:記憶部
20:ベッド、21:対象者
30:監視領域
1: Watching support system 10: Imaging device, 11: Information processing device, 12: Learning device 100: Lighting, 101: Near infrared camera, 110: Image acquisition unit, 111: Area setting unit, 112: Preprocessing unit, 113: Retractor, 114: Score stabilization unit, 115: Judgment unit, 116: Output unit, 117: Storage unit 20: Bed, 21: Subject 30: Monitoring area

Claims (7)

ベッド上の対象者の見守りを支援する見守り支援システムであって、
ベッドを含む所定の範囲に設定された監視領域の画像である監視領域画像を入力として与えると、前記監視領域内に存在する人の状態を示すスコアを出力するように機械学習されているニューラルネットワークで構成された回帰器と、
記監視領域を撮影するように設置された撮像装置から画像を取得する画像取得部と、
前記画像取得部により得られた画像から抽出した前記監視領域画像を前記回帰器に入力することにより得られたスコアに基づいて、前記対象者の行動を判定する判定部と、
前記判定部の判定結果に基づく通知を行う出力部と、
を有し、
前記人の状態があらかじめ複数の類型に分類され、かつ、前記複数の類型のそれぞれに異なるスコアが割り当てられており、
前記回帰器は、前記人の状態を連続値のスコアで出力するものであって、前記人の状態が2つの類型のあいだの状態である場合に、前記2つの類型のスコアのあいだの値を出力するように構成されている
ことを特徴とする見守り支援システム。
It is a watching support system that supports watching the target person on the bed.
A neural network that is machine-learned to output a score indicating the state of a person existing in the monitoring area when a monitoring area image, which is an image of the monitoring area set in a predetermined range including a bed, is given as an input. Regressor composed of
An image acquisition unit that acquires an image from the imaging device installed so as to photograph the front Ki監vision area,
A determination unit that determines the behavior of the target person based on a score obtained by inputting the monitoring area image extracted from the image obtained by the image acquisition unit into the regression unit.
An output unit that gives notification based on the determination result of the determination unit, and
Have a,
The state of the person is classified into a plurality of types in advance, and different scores are assigned to each of the plurality of types.
The regressor outputs the state of the person as a continuous value score, and when the state of the person is a state between two types, the value between the scores of the two types is output. A monitoring support system characterized by being configured to output .
前記複数の類型は、前記人が前記ベッドに寝ている状態0、前記人が前記ベッド上で起き上がっている状態1、および、前記人が前記ベッドから離れている状態2を含む
ことを特徴とする請求項に記載の見守り支援システム。
The plurality of types are characterized by including a state 0 in which the person is sleeping on the bed, a state 1 in which the person is awake on the bed, and a state 2 in which the person is away from the bed. The monitoring support system according to claim 1 .
前記判定部は、前記スコアにより推定された前記対象者の状態の時間的な変化に基づいて、前記対象者の行動を判定する
ことを特徴とする請求項に記載の見守り支援システム。
The monitoring support system according to claim 2 , wherein the determination unit determines the behavior of the subject based on a temporal change in the state of the subject estimated from the score.
前記判定部は、
前記対象者の状態が前記状態0から前記状態1に遷移した場合、又は、
前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1が所定時間続いた場合に、
前記対象者が起床したと判定する
ことを特徴とする請求項に記載の見守り支援システム。
The determination unit
When the state of the subject transitions from the state 0 to the state 1, or
When the state of the subject transitions from the state 0 to the state 1, and the state 1 continues for a predetermined time,
The monitoring support system according to claim 3 , wherein it is determined that the subject has woken up.
前記判定部は、
前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1から前記状態2に遷移した場合、又は、
前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1から前記状態2に遷移し、さらに、前記状態2が所定時間続いた場合に、又は、
前記対象者の状態が前記状態0から前記状態2に遷移した場合、又は、
前記対象者の状態が前記状態0から前記状態2に遷移し、さらに、前記状態2が所定時間続いた場合に、
前記対象者が離床したと判定する
ことを特徴とする請求項又はに記載の見守り支援システム。
The determination unit
When the state of the subject transitions from the state 0 to the state 1, and further transitions from the state 1 to the state 2, or
When the state of the subject transitions from the state 0 to the state 1, further transitions from the state 1 to the state 2, and the state 2 continues for a predetermined time, or.
When the state of the subject transitions from the state 0 to the state 2, or
When the state of the subject transitions from the state 0 to the state 2, and the state 2 continues for a predetermined time,
The monitoring support system according to claim 3 or 4 , wherein it is determined that the subject has left the bed.
ベッド上の対象者の見守りを支援する見守り支援システムの制御方法であって、
前記対象者のベッドを含む所定の範囲に設定された監視領域を撮影するように設置された撮像装置から画像を取得するステップと、
前記監視領域の画像である監視領域画像を入力として与えると、前記監視領域内に存在する人の状態を示すスコアを出力するように機械学習されているニューラルネットワークで構成された回帰器に対し、前記監視領域画像を入力するステップと、
前記回帰器から得られたスコアに基づいて、前記対象者の行動を判定するステップと、
判定結果に基づく通知を行うステップと、
を有し、
前記人の状態があらかじめ複数の類型に分類され、かつ、前記複数の類型のそれぞれに異なるスコアが割り当てられており、
前記回帰器は、前記人の状態を連続値のスコアで出力するものであって、前記人の状態が2つの類型のあいだの状態である場合に、前記2つの類型のスコアのあいだの値を出力するように構成されている
ことを特徴とする見守り支援システムの制御方法。
It is a control method of a watching support system that supports watching over the subject on the bed.
A step of acquiring an image from an imaging device installed so as to capture a monitoring area set in a predetermined range including the subject's bed, and
When a monitoring area image, which is an image of the monitoring area, is given as an input, a regressor composed of a neural network machine-learned to output a score indicating the state of a person existing in the monitoring area is subjected to. inputting the monitoring territory Ikiga image,
A step of determining the behavior of the subject based on the score obtained from the regression device, and
Steps to notify based on the judgment result and
Have a,
The state of the person is classified into a plurality of types in advance, and different scores are assigned to each of the plurality of types.
The regressor outputs the state of the person as a continuous value score, and when the state of the person is a state between two types, the value between the scores of the two types is output. A control method for a monitoring support system that is configured to output .
請求項に記載の見守り支援システムの制御方法の各ステップをコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the control method of the monitoring support system according to claim 6 .
JP2017123009A 2017-06-23 2017-06-23 Watching support system and its control method Active JP6822326B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017123009A JP6822326B2 (en) 2017-06-23 2017-06-23 Watching support system and its control method
PCT/JP2018/021983 WO2018235628A1 (en) 2017-06-23 2018-06-08 Monitoring assistance system, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017123009A JP6822326B2 (en) 2017-06-23 2017-06-23 Watching support system and its control method

Publications (2)

Publication Number Publication Date
JP2019008515A JP2019008515A (en) 2019-01-17
JP6822326B2 true JP6822326B2 (en) 2021-01-27

Family

ID=64735938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017123009A Active JP6822326B2 (en) 2017-06-23 2017-06-23 Watching support system and its control method

Country Status (2)

Country Link
JP (1) JP6822326B2 (en)
WO (1) WO2018235628A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2584644B (en) 2019-06-05 2024-01-31 Peak Medtek Ltd A fall prevention device
JP7457625B2 (en) 2020-10-07 2024-03-28 パラマウントベッド株式会社 bed system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213528A (en) * 2006-02-13 2007-08-23 Sanyo Electric Co Ltd Action recognition system
JP2007241477A (en) * 2006-03-06 2007-09-20 Fuji Xerox Co Ltd Image processor
JP6277736B2 (en) * 2014-01-23 2018-02-14 富士通株式会社 State recognition method and state recognition device
JP6348431B2 (en) * 2015-02-24 2018-06-27 株式会社日立製作所 Image processing method and image processing apparatus

Also Published As

Publication number Publication date
WO2018235628A1 (en) 2018-12-27
JP2019008515A (en) 2019-01-17

Similar Documents

Publication Publication Date Title
JP6137425B2 (en) Image processing system, image processing apparatus, image processing method, and image processing program
US10786183B2 (en) Monitoring assistance system, control method thereof, and program
JP6822328B2 (en) Watching support system and its control method
JP6915421B2 (en) Watching support system and its control method
TWI666933B (en) Method and computing device for monitoring object
WO2015118953A1 (en) Information processing device, information processing method, and program
JP6780641B2 (en) Image analysis device, image analysis method, and image analysis program
JP6822326B2 (en) Watching support system and its control method
JP6729510B2 (en) Monitoring support system and control method thereof
JP6245027B2 (en) Monitoring method, monitoring device, and monitoring program
WO2020145380A1 (en) Care recording device, care recording system, care recording program, and care recording method
JP6870514B2 (en) Watching support system and its control method
US10762761B2 (en) Monitoring assistance system, control method thereof, and program
TWI697869B (en) Posture determination method, electronic system and non-transitory computer-readable recording medium
JP6729512B2 (en) Monitoring support system and control method thereof
JP6635074B2 (en) Watching support system and control method thereof
US20220054046A1 (en) Assessing patient out-of-bed and out-of-chair activities using embedded infrared thermal cameras
TWI423148B (en) Method and system of monitoring and monitoring of fighting behavior
JP6292012B2 (en) Watch device, watch method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20201027

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R150 Certificate of patent or registration of utility model

Ref document number: 6822326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150