JP6822326B2 - Watching support system and its control method - Google Patents
Watching support system and its control method Download PDFInfo
- Publication number
- JP6822326B2 JP6822326B2 JP2017123009A JP2017123009A JP6822326B2 JP 6822326 B2 JP6822326 B2 JP 6822326B2 JP 2017123009 A JP2017123009 A JP 2017123009A JP 2017123009 A JP2017123009 A JP 2017123009A JP 6822326 B2 JP6822326 B2 JP 6822326B2
- Authority
- JP
- Japan
- Prior art keywords
- state
- image
- subject
- person
- bed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/04—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
Description
本発明は、ベッド上の対象者の見守りを支援するための技術に関する。 The present invention relates to a technique for assisting in watching over a subject on a bed.
ベッドからの転落事故などを未然に防ぐため、病院や介護施設などにおける患者の見守りを支援するシステムが知られている。特許文献1には、ベッドの斜め上方に設置したカメラで撮影した画像から患者の頭部を検出し、ベッド上に設定した境界線を頭部が超えたことをもって起床動作と判定し、看護師等へ通知を行うシステムが提案されている。
In order to prevent accidents such as falling from the bed, a system that supports watching over patients in hospitals and long-term care facilities is known. In
従来システムは、画像から患者の頭部を検出し、頭部の位置や動きから患者の行動(起床や離床など)を推定するという方法が一般的であった。しかしながら、このような従来方法は、画像から頭部を検出できなかった場合、もしくは誤って検出した場合に、患者の行動を正しく推定できないという課題がある。例えば、患者が布団を被っていたり、患者以外の人や紛らわしい物体が周囲に存在したり、照明環境が変化したりするなど、外乱や環境に依存して検出精度にバラツキが生じると、危険行動の見過ごしや誤報(不要な警報)が発生し、システムの信頼性を著しく低下させてしまうおそれがある。 In the conventional system, a method of detecting the patient's head from an image and estimating the patient's behavior (getting up, getting out of bed, etc.) from the position and movement of the head has been common. However, such a conventional method has a problem that the behavior of the patient cannot be correctly estimated when the head cannot be detected from the image or when the head is erroneously detected. For example, if the patient is wearing a futon, there is a person other than the patient or a confusing object in the surroundings, the lighting environment changes, etc., and the detection accuracy varies depending on the disturbance or environment, it is a dangerous behavior. There is a risk that the system will be overlooked or false alarms (unnecessary alarms) will occur, significantly reducing the reliability of the system.
本発明は、上記実情に鑑みなされたものであって、ベッド上の対象者の状態ないし行動を高精度かつ高信頼に検知するための技術を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique for detecting the state or behavior of a subject on a bed with high accuracy and high reliability.
上記目的を達成するために、本発明では、ベッドと人の状態のパターンを機械学習した回帰器を用いて、監視画像から見守り対象者の状態を推定し、当該対象者の行動を検知する、という方法を採用する。 In order to achieve the above object, in the present invention, the state of the monitoring target person is estimated from the monitoring image by using a regression device that machine-learns the pattern of the state of the bed and the person, and the behavior of the target person is detected. The method is adopted.
具体的には、本発明の第一態様は、ベッド上の対象者の見守りを支援する見守り支援システムであって、ベッドと人が写る画像を入力し、前記ベッドに対する前記人の状態を示すスコアを出力するように機械学習されている回帰器と、前記対象者のベッドを含む監視領域を撮影するように設置された撮像装置から画像を取得する画像取得部と、前記画像取得部により得られた前記監視領域の画像を前記回帰器に入力することにより得られたスコアに基づいて、前記対象者の行動を判定する判定部と、前記判定部の判定結果に基づく通知を行う出力部と、を有することを特徴とする見守り支援システムを提供する。 Specifically, the first aspect of the present invention is a watching support system that supports watching over a subject on a bed, in which an image of the bed and a person is input and a score indicating the state of the person with respect to the bed. An image acquisition unit that acquires an image from an image pickup device installed so as to capture a monitoring area including a bed of the subject, and an image acquisition unit that is machine-learned to output the image. A determination unit that determines the behavior of the target person based on the score obtained by inputting the image of the monitoring area into the regression device, and an output unit that gives a notification based on the determination result of the determination unit. It provides a watching support system characterized by having a bed.
この構成によれば、回帰器を用いて入力画像における対象者の状態を推定する。したがって、未知の入力画像に対して高精度な状態推定を行うことができる。また、回帰器のスコアは連続値で出力されるので、対象者の状態が明確に分類できないものであったとしても、妥当な推定結果を得ることができる。さらに、対象者が布団を被っていたり、対象者の周囲にまぎらわしい人や物体が存在していたり、照明環境が通常と異なるなど、頭部検出が困難な画像であっても、妥当な推定結果を得ることができるという利点もある。 According to this configuration, the state of the subject in the input image is estimated using a regression device. Therefore, it is possible to perform highly accurate state estimation for an unknown input image. Moreover, since the score of the regression device is output as a continuous value, a reasonable estimation result can be obtained even if the state of the subject cannot be clearly classified. Furthermore, even if the image is difficult to detect the head, such as when the subject is wearing a futon, there are confusing people or objects around the subject, or the lighting environment is different from normal, a reasonable estimation result is obtained. There is also an advantage that can be obtained.
前記回帰器は、ニューラルネットワークであるとよい。ニューラルネットワークを用い
ることにより、高精度かつ頑健性の高い状態推定を行うことができる。
The regressor may be a neural network. By using a neural network, it is possible to perform state estimation with high accuracy and high robustness.
前記ベッドに対する前記人の状態があらかじめ複数の類型に分類され、かつ、前記複数の類型のそれぞれに異なるスコアが割り当てられており、前記回帰器は、前記人の状態が2つの類型のあいだの状態である場合に、前記2つの類型のスコアのあいだの値を出力するように構成されているとよい。このような設計とすることにより、人がとり得るさまざまな状態を一次元のスコアで表現できるようになるので、「人の状態」を数学的にあるいはプログラムにおいて取り扱うのが容易になり、例えば後段の処理(判定部による判定ロジックなど)を極めて簡易に構築できる。 The state of the person with respect to the bed is classified into a plurality of types in advance, and different scores are assigned to each of the plurality of types, and the regressionr is a state in which the state of the person is between two types. In the case of, it is preferable that the value between the scores of the two types is output. With such a design, various states that a person can take can be expressed by a one-dimensional score, so that it becomes easy to handle the "human state" mathematically or in a program. For example, the latter stage. Processing (judgment logic by the judgment unit, etc.) can be constructed extremely easily.
例えば、前記複数の類型は、前記人が前記ベッドに寝ている状態0、前記人が前記ベッド上で起き上がっている状態1、および、前記人が前記ベッドから離れている状態2を含むとよい。少なくとも状態0〜状態2の3種類の状態が判別できれば、見守りのニーズが高い「起床」と「離床」の検知が可能になるからである。
For example, the plurality of types may include a
前記判定部は、前記スコアにより推定された前記対象者の状態の時間的な変化に基づいて、前記対象者の行動を判定するとよい。対象者の一時的な状態ではなく、対象者の状態の時間的な変化(状態遷移)に基づいて対象者の行動を判定することで、行動判定の精度を向上することができる。 The determination unit may determine the behavior of the subject based on the temporal change in the state of the subject estimated from the score. By determining the behavior of the target person based on the temporal change (state transition) of the target person's state instead of the temporary state of the target person, the accuracy of the behavior determination can be improved.
例えば、前記判定部は、前記対象者の状態が前記状態0から前記状態1に遷移した場合、又は、前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1が所定時間続いた場合に、前記対象者が起床したと判定するとよい。
For example, in the determination unit, when the state of the target person changes from the
また、前記判定部は、前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1から前記状態2に遷移した場合、又は、前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1から前記状態2に遷移し、さらに、前記状態2が所定時間続いた場合に、又は、前記対象者の状態が前記状態0から前記状態2に遷移した場合、又は、前記対象者の状態が前記状態0から前記状態2に遷移し、さらに、前記状態2が所定時間続いた場合に、前記対象者が離床したと判定するとよい。
Further, in the determination unit, when the state of the target person transitions from the
なお、本発明は、上記構成ないし機能の少なくとも一部を有する見守り支援システムとして捉えることができる。また、本発明は、上記処理の少なくとも一部を含む、見守り支援方法又は見守り支援システムの制御方法や、これらの方法をコンピュータに実行させるためのプログラム、又は、そのようなプログラムを非一時的に記録したコンピュータ読取可能な記録媒体として捉えることもできる。上記構成及び処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。 The present invention can be regarded as a watching support system having at least a part of the above-mentioned configuration or function. Further, the present invention provides a monitoring support method or a control method of a watching support system including at least a part of the above processing, a program for causing a computer to execute these methods, or a program such as such. It can also be regarded as a recorded computer-readable recording medium. Each of the above configurations and processes can be combined with each other to construct the present invention as long as there is no technical contradiction.
本発明によれば、ベッド上の対象者の状態ないし行動を高精度かつ高信頼に検知することができる。 According to the present invention, the state or behavior of the subject on the bed can be detected with high accuracy and high reliability.
本発明は、ベッド上の対象者の見守りを支援するための技術に関する。この技術は、病院や介護施設などにおいて、患者や要介護者などの離床・起床行動を自動で検知し、危険な状態が発生した場合などに必要な通知を行うシステムに適用することができる。このシステムは、例えば、高齢者、認知症患者、子供などの見守り支援に好ましく利用することができる。 The present invention relates to a technique for assisting in watching over a subject on a bed. This technology can be applied to a system in hospitals, long-term care facilities, etc. that automatically detects the behavior of patients and people requiring long-term care to get out of bed and wake up, and gives necessary notifications when a dangerous situation occurs. This system can be preferably used, for example, to support watching over elderly people, dementia patients, children and the like.
以下、図面を参照して本発明を実施するための好ましい形態の一例を説明する。ただし、以下の実施形態に記載されている装置の構成や動作は一例であり、本発明の範囲をそれらのみに限定する趣旨のものではない。 Hereinafter, an example of a preferred embodiment for carrying out the present invention will be described with reference to the drawings. However, the configurations and operations of the devices described in the following embodiments are examples, and the scope of the present invention is not limited to them.
(システム構成)
図1と図2を参照して、本発明の実施形態に係る見守り支援システムの構成を説明する。図1は、見守り支援システム1のハードウェア構成および機能構成を模式的に示すブロック図であり、図2は、撮像装置の設置例を示す図である。
(System configuration)
The configuration of the monitoring support system according to the embodiment of the present invention will be described with reference to FIGS. 1 and 2. FIG. 1 is a block diagram schematically showing a hardware configuration and a functional configuration of the
見守り支援システム1は、主なハードウェア構成として、撮像装置10と情報処理装置11を有している。撮像装置10と情報処理装置11の間は有線又は無線により接続されている。図1では、1つの撮像装置10のみ示しているが、複数台の撮像装置10を情報処理装置11に接続してもよい。
The
撮像装置10は、ベッド上の対象者を撮影して画像データを取り込むためのデバイスである。撮像装置10としては、モノクロ又はカラーの可視光カメラ、赤外線カメラ、三次元カメラなどを用いることができる。本実施形態では、夜間でも(部屋内が暗い場合でも)対象者の見守りを可能とするため、赤外線LED照明100と近赤外線カメラ101で構成される撮像装置10を採用する。撮像装置10は、図2に示すように、ベッド20の頭側上方から足側に向かって、ベッド20の全体を俯瞰するように設置される。撮像装置10は所定の時間間隔(例えば、30fps)で撮影を行い、その画像データは情報処理装置11に順次取り込まれる。
The
情報処理装置11は、撮像装置10から取り込まれる画像データをリアルタイムに分析し、ベッド20上の対象者21の起床行動や離床行動を自動で検知し、必要な場合に通知を行う機能を備える装置である。情報処理装置11は、具体的な機能モジュールとして、画像取得部110、領域設定部111、前処理部112、回帰器113、スコア安定化部114、判定部115、出力部116、記憶部117を有している。
The information processing device 11 has a function of analyzing image data captured from the
本実施形態の情報処理装置11は、CPU(プロセッサ)、メモリ、ストレージ(HDD、SSDなど)、入力デバイス(キーボード、マウス、タッチパネルなど)、出力デバイス(ディスプレイ、スピーカなど)、通信インタフェースなどを具備する汎用のコンピュータにより構成され、上述した情報処理装置11の各モジュールは、ストレージ又はメモリに格納されたプログラムをCPUが実行することにより実現される。ただし、情報処理装置11の構成はこの例に限られない。例えば、複数台のコンピュータによる分散コンピューティングを行ってもよいし、上記モジュールの一部をクラウドサーバにより実行してもよいし、上記モジュールの一部をASICやFPGAのような回路で構成してもよい。 The information processing device 11 of the present embodiment includes a CPU (processor), a memory, a storage (HDD, SSD, etc.), an input device (keyboard, mouse, touch panel, etc.), an output device (display, speaker, etc.), a communication interface, and the like. Each module of the information processing apparatus 11 described above is realized by executing a program stored in a storage or a memory by a CPU. However, the configuration of the information processing device 11 is not limited to this example. For example, distributed computing by a plurality of computers may be performed, a part of the module may be executed by a cloud server, or a part of the module may be configured by a circuit such as an ASIC or FPGA. May be good.
画像取得部110は、撮像装置10により撮影された画像を取得するためのモジュールである。画像取得部110より入力された画像データは一時的にメモリ又はストレージに記憶され、後述する領域設定処理や状態監視処理に供される。
The
領域設定部111は、撮像装置10により撮影される画像に対し監視領域を設定するためのモジュールである。監視領域は、撮像装置10の視野のうち状態監視処理の対象となる範囲(言い換えると、回帰器113の入力として用いられる画像範囲)である。領域設定処理の詳細は後述する。
The area setting unit 111 is a module for setting a monitoring area for an image captured by the
前処理部112は、状態監視処理において、画像取得部110より入力された画像(以後「オリジナル画像」と呼ぶ)に対し必要な前処理を施すためのモジュールである。例えば、前処理部112は、オリジナル画像から監視領域内の画像をクリップする処理を行う(クリップされた画像を以後「監視領域画像」と呼ぶ)。また、前処理部112は、監視領域画像に対して、リサイズ(縮小)、アフィン変換、輝度補正などの処理を施してもよい。リサイズ(縮小)は、回帰器113の演算時間を短縮する効果がある。リサイズには既存のどのような手法を用いてもよいが、演算コストと品質のバランスがよいバイリニア法が好ましい。アフィン変換は、例えば、画像において台形状に写るベッドを長方形状に変形するなど、必要な歪み補正を行うことで、回帰器113への入力画像を規格化し、推定精度を向上する効果が期待できる。輝度補正は、例えば、照明環境の影響を低減することで、推定精度を向上する効果が期待できる。なお、オリジナル画像をそのまま回帰器113に入力する場合には、前処理部112は省略してもよい。
The
回帰器113は、監視領域画像が与えられたときに、当該監視領域画像に写る対象者21の状態(例えば、就床状態、起床状態、離床状態)を示すスコアを出力するためのモジュールである。回帰器113は、ベッドと人が写る画像を入力とし、ベッドに対する人の状態を示すスコアを出力するように、入力画像の特徴と人の状態との関係モデルを機械学習により構築したものである。回帰器113のトレーニングは、多数のトレーニング用画像を用いて、学習装置12によって事前に(システムの出荷前ないし稼働前に)行われているものとする。なお、回帰器113の学習モデルとしては、ニューラルネットワーク、ランダムフォレスト、サポートベクターマシンなど、どのようなモデルを用いてもよい。本実施形態では、画像認識に好適な畳み込みニューラルネットワーク(CNN)を用いる。
The
スコア安定化部114は、回帰器113から出力されるスコアの急激な変化やばたつきを抑制するためのモジュールである。スコア安定化部114は、例えば、現在のフレームの画像から得られた現在スコアと、直前の2フレームの画像からそれぞれ得られた過去スコアの平均を計算し、安定化スコアとして出力する。この処理は、スコアの時系列データに時間的なローパスフィルタをかけることと等価である。なお、スコアの安定化が不要であれば、スコア安定化部114は省略してもよい。
The
判定部115は、回帰器113により得られたスコアに基づいて、対象者の行動を判定するためのモジュールである。具体的には、判定部115は、スコアの時間的な変化(つまり、スコアが示す「対象者の状態」の遷移)に基づいて、対象者がどのような行動(例えば、起床行動、離床行動など)をとったのかを推定する。判定部115の処理の詳細は後述する。
The
出力部116は、判定部115の判定結果に基づいて、必要な通知を行うモジュールである。例えば、出力部116は、対象者21の状態や行動に応じて、通知の要否(例えば、危険な状態の場合のみ通知を行う)、通知の内容(例えばメッセージの内容)、通知手段(例えば音声、メール、ブザー、警告灯)、通知先(例えば看護師、医師、介護者)、
通知の頻度などを切り替えることができる。
The
You can switch the frequency of notifications.
記憶部117は、見守り支援システム1が処理に用いる各種のデータを記憶するモジュールである。記憶部117には、例えば、監視領域の設定情報、前処理で用いるパラメータ、スコア安定化処理で用いるパラメータ、スコアの時系列データ、判定処理で用いるパラメータなどが記憶される。
The
(監視領域の設定)
撮像装置10の画角内にはベッド20や対象者21以外にさまざまな物が写り込んでいる。対象者21の状態や行動を検知するにあたっては、ベッド20と対象者21以外の物はノイズとして作用する可能性があるため、出来る限り除外することが好ましい。また、回帰器113に入力する画像については、画像サイズ(幅、高さ)および画像内のベッドの位置・範囲・大きさなどが規格化されているほうが、推定精度の向上が図りやすい。そこで、本実施形態では、ベッド20を基準にした所定の範囲を監視領域に設定し、後述する状態監視処理では監視領域内の画像をクリッピングして回帰器113の入力画像とする。
(Setting of monitoring area)
Various objects other than the
監視領域の設定は、手動で行ってもよいし自動で行ってもよい。手動設定の場合、領域設定部111は、画像内のベッド20の領域ないし監視領域そのものをユーザに入力させるためのユーザインタフェースを提供するとよい。自動設定の場合、領域設定部111は、物体認識処理により画像からベッド20を検出し、検出したベッド20の領域を包含するように監視領域を設定するとよい。なお、領域設定処理は、監視領域が未設定の場合(例えば、システムの設置時など)、ベッド20や撮像装置10の移動に伴い監視領域を更新する必要がある場合などに実行される。
The monitoring area may be set manually or automatically. In the case of manual setting, the area setting unit 111 may provide a user interface for allowing the user to input the area of the
図3Aは、オリジナル画像に対し設定された監視領域の例である。本実施形態では、ベッド20の領域の左側・右側・上側(足側)にそれぞれ所定幅のマージンを付加した範囲を、監視領域30に設定する。マージンの幅は、ベッド20上で起き上がっている人(図3B参照)の全身が監視領域30内に入るように設定される。
FIG. 3A is an example of a monitoring area set for the original image. In the present embodiment, the
(状態の類型と機械学習)
本システムでは、人の状態を回帰で取り扱うために、「ベッドに対する人の状態」をあらかじめ第0〜第2の3つの類型に分類する。「第0類型」は、人がベッドに寝ている状態(「就床状態」又は「状態0」と呼ぶ)、「第1類型」は、人がベッド上で起き上がっている状態(「起床状態」又は「状態1」と呼ぶ)、「第2類型」は、人がベッドから離れている(降りている)状態(「離床状態」又は「状態2」と呼ぶ)である。図4は、寝ていた人が起き上がり、ベッドから離れる、という一連の行動を表す時系列画像と、3つの類型との対応を示す例である。
(State typology and machine learning)
In this system, in order to handle the human condition by regression, the "human condition with respect to the bed" is classified into the third to second three types in advance. "
図5は、回帰器113の機械学習を模式的に示している。まず、実際の病室等を撮影した画像を集め、各画像を第0類型〜第2類型に分類する。そして、各画像の監視領域に相当する部分をクリッピングし、類型の番号(0,1,2)をラベルとして割り当て、トレーニング用画像のセットを生成する。回帰の精度向上のため、十分な数の画像を用意することが好ましく、またそれぞれの類型についてさまざまなバリエーションの画像を用意することが好ましい。ただし、人の状態がどちらの類型に属するかあいまいな画像は、トレーニング用画像に適さないので、除外することが好ましい。
FIG. 5 schematically shows the machine learning of the
学習装置12は、トレーニング用画像のセットを用い、各入力画像に対してそのラベルと同じスコア(つまり、第1類型に属する入力画像であればスコア=1)を出力するように、畳み込みニューラルネットワークのトレーニングを行う。そして、学習装置12は、
学習結果であるニューラルネットワークのパラメータ群を、本システムの回帰器113に組み込む。なお、ニューラルネットワークの具体的な層構造、フィルタ、活性化関数、入力画像の仕様などは、実装や要求精度にあわせて適宜設計すればよい。
The
The neural network parameter group, which is the learning result, is incorporated into the
図6は、回帰器113の能力を模式的に示している。回帰器113は、画像の「特徴量」と人の状態を示す「スコア」との対応関係をモデル化したものである。回帰器113は、その関係モデルに従って、入力画像から特徴量を抽出し、特徴量に対応したスコアを計算し出力する。なお、図6では、説明の便宜のため関係モデルを2次元の線型モデルで示しているが、実際の特徴量空間は多次元であり、関係モデルは非線型となる。
FIG. 6 schematically shows the capability of the
回帰器113から出力されるスコアは0〜2の範囲の実数値(連続値)である。例えば、第1類型(起床状態)の入力画像が与えられた場合は、その出力スコアは1又は1に極めて近い値となる。他の類型の場合も同様である。他方、入力画像のなかには、寝た姿勢から上半身を起こそうとしている状態や、ベッドから立ち上がろうとしている状態のように、どちらの類型に属するかあいまいな画像も存在する。そのような中間状態の画像の場合、抽出される特徴量は2つの類型のあいだの特徴量となるため、2つの類型の中間のスコアが出力されることとなる。例えば、寝た姿勢から上半身を起こそうとしている状態の画像であれば、第0類型と第1類型の中間状態ゆえ、0より大きく1より小さい値のスコアが得られる。
The score output from the
このように、本システムでは回帰器113を用いて、入力画像における人の状態を推定する。したがって、未知の入力画像に対して高精度な状態推定を行うことができる。特に、頭部検出を利用した従来方法と比べた場合の優れた点として、以下のような利点を挙げることができる。
・中間状態の画像が入力された場合でも妥当な推定結果を得ることができる。
・対象者が布団を被っていたり、対象者の周囲にまぎらわしい人や物体が存在していたり、照明環境が通常と異なるなど、頭部検出が困難な画像であっても、妥当な推定結果を得ることができる。
As described above, in this system, the
-A reasonable estimation result can be obtained even when an image in an intermediate state is input.
・ Even if the image is difficult to detect the head, such as when the subject is wearing a futon, there are confusing people or objects around the subject, or the lighting environment is different from normal, a reasonable estimation result can be obtained. Obtainable.
(状態監視処理)
図7を参照して本システムの状態監視処理の一例を説明する。図7の処理フローは、撮像装置10から1フレームの画像が取り込まれる度に実行される。
(Status monitoring process)
An example of the state monitoring process of this system will be described with reference to FIG. 7. The processing flow of FIG. 7 is executed every time one frame of an image is captured from the
ステップS70において、画像取得部110が、撮像装置10から1フレームの画像を取り込む。取得されたオリジナル画像は記憶部117に一時的に記憶される。次に前処理部112が、オリジナル画像から監視領域画像をクリップし、必要に応じてリサイズ、アフィン変換、輝度補正などを実行する(ステップS71)。次に回帰器113が、監視領域画像を入力し、対応するスコアを出力する(ステップS72)。次にスコア安定化部114が、ステップS72で得られたスコアの安定化処理を行い(ステップS73)、得られたスコアを判定部115に引き渡す。
In step S70, the
判定部115は、まず、スコア(連続値)に基づいて、対象者21の現在の状態を第0類型(状態0)/第1類型(状態1)/第2類型(状態2)のいずれかに分類する。分類方法は問わないが、本実施形態では、スコア≦閾値th1の場合は状態0(ステップS74,S75)、閾値th1<スコア≦閾値th2の場合は状態1(ステップS76,S77)、閾値th2<スコアの場合は状態2(ステップS78)、と分類する。閾値th1、th2は、例えば、th1=0.5、th2=1.5のように設定される。閾値th1、th2を変更することで、検知感度を調整することができる。
First, the
続いて、判定部115は、対象者21の状態の時間的な変化に基づいて、対象者21の
行動を判定する(ステップS79)。ステップS79において、対象者21が「起床」又は「離床」したと判定されたら、出力部116が必要な通知を行う(ステップS80)。以上のステップS70〜S80は、システムが終了するまでフレーム毎に実行される(ステップS81)。
Subsequently, the
図8及び図9を参照して、判定部115による判定ロジックを説明する。図8は、ステップS79の行動判定処理の詳細フローであり、図9は、判定ロジックの一例であり、状態遷移と判定結果と通知設定の対応関係を示している。ここで、起床準備フラグは、状態0から遷移したことを確認するためのフラグ、離床準備フラグは、状態1から遷移したことを確認するためのフラグである。起床準備フラグと離床準備フラグは状態監視処理の起動時に「OFF」で初期化されるものとする。
The determination logic by the
現在の状態が「0」である場合(ステップS790;YES)、判定部115は、起床準備フラグと離床準備フラグを「ON」に設定する(ステップS791)。
When the current state is "0" (step S790; YES), the
現在の状態が「1」である場合(ステップS792;YES)、判定部115は、起床準備フラグが「ON」かどうかを確認し(ステップS793)、「ON」であれば、対象者21が起床したと判定し(ステップS794)、起床準備フラグを「OFF」に、離床準備フラグを「ON」にする(ステップS795)。
When the current state is "1" (step S792; YES), the
現在の状態が「2」である場合(ステップS796;YES)、判定部115は、離床準備フラグが「ON」かどうかを確認し(ステップS797)、「ON」であれば、対象者21が離床したと判定し(ステップS798)、起床準備フラグと離床フラグを「OFF」にする(ステップS799)。
When the current state is "2" (step S796; YES), the
以上のような判定ロジックによれば、図9に示すように、状態0から状態1に遷移した場合に「起床」と判定され、状態0又は状態1から状態2に遷移した場合に「離床」と判定される。それ以外の場合は、判定部115は判定結果を出力しないか、「異常なし」との結果を出力する。
According to the determination logic as described above, as shown in FIG. 9, it is determined as "wake up" when transitioning from
以上述べた本実施形態によれば、回帰器113により対象者21の状態推定を行うので、従来方法に比べて、対象者21の状態ないし行動を精度良く判定することができる。また、対象者21の一時的な状態ではなく、対象者21の状態の時間的な変化(状態遷移)に基づいて対象者21の起床行動や離床行動を判定するので、行動判定の精度を向上することができる。しかも、起床判定や離床判定がなされて通知が行われると、起床準備フラグや離床準備フラグが一旦「OFF」になるため、対象者21が再び就床状態等に戻らない限り、起床判定や離床判定が作動しない。よって、起床・離床通知の誤報を減らすことができ、システムの信頼性を向上することができる。
According to the present embodiment described above, since the state of the
<その他>
上記の各実施形態の説明は、本発明を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。
<Others>
The description of each of the above embodiments is merely an example of the present invention. The present invention is not limited to the above-mentioned specific form, and various modifications can be made within the scope of its technical idea.
例えば、上記実施形態では、状態0から状態1に遷移した場合に起床と判定したが、これに代えて、状態0から状態1に遷移した後、状態1が所定時間(例えば1秒間)続いた場合に起床と判定してもよい。これにより起床判定の信頼性をより高めることができる。同様に、状態0又は状態1から状態2に遷移した後、状態2が所定時間(例えば1秒間)続いた場合に離床と判定してもよい。これにより離床判定の信頼性をより高めることができる。
For example, in the above embodiment, it is determined that the person wakes up when the state changes from the
上記実施形態では、画像から就床状態/起床状態/離床状態を推定するとともに、対象者の起床行動と離床行動を検知する例を説明した。ただし、推定対象の状態や、検知対象の行動はこれらに限られない。すなわち、画像に異なる特徴が現れるものであれば、さまざまな「人の状態」や「行動」を取り扱うことが可能である。例えば、食事、読書などの行動を検知することも可能である。 In the above embodiment, an example of estimating the bedtime / wake-up state / wake-up state from the image and detecting the wake-up behavior and the wake-up behavior of the subject has been described. However, the state of the estimation target and the behavior of the detection target are not limited to these. That is, it is possible to handle various "human states" and "behaviors" as long as different features appear in the image. For example, it is possible to detect behaviors such as eating and reading.
1:見守り支援システム
10:撮像装置、11:情報処理装置、12:学習装置
100:照明、101:近赤外線カメラ、110:画像取得部、111:領域設定部、112:前処理部、113:回帰器、114:スコア安定化部、115:判定部、116:出力部、117:記憶部
20:ベッド、21:対象者
30:監視領域
1: Watching support system 10: Imaging device, 11: Information processing device, 12: Learning device 100: Lighting, 101: Near infrared camera, 110: Image acquisition unit, 111: Area setting unit, 112: Preprocessing unit, 113: Retractor, 114: Score stabilization unit, 115: Judgment unit, 116: Output unit, 117: Storage unit 20: Bed, 21: Subject 30: Monitoring area
Claims (7)
ベッドを含む所定の範囲に設定された監視領域の画像である監視領域画像を入力として与えると、前記監視領域内に存在する人の状態を示すスコアを出力するように機械学習されているニューラルネットワークで構成された回帰器と、
前記監視領域を撮影するように設置された撮像装置から画像を取得する画像取得部と、
前記画像取得部により得られた画像から抽出した前記監視領域画像を前記回帰器に入力することにより得られたスコアに基づいて、前記対象者の行動を判定する判定部と、
前記判定部の判定結果に基づく通知を行う出力部と、
を有し、
前記人の状態があらかじめ複数の類型に分類され、かつ、前記複数の類型のそれぞれに異なるスコアが割り当てられており、
前記回帰器は、前記人の状態を連続値のスコアで出力するものであって、前記人の状態が2つの類型のあいだの状態である場合に、前記2つの類型のスコアのあいだの値を出力するように構成されている
ことを特徴とする見守り支援システム。 It is a watching support system that supports watching the target person on the bed.
A neural network that is machine-learned to output a score indicating the state of a person existing in the monitoring area when a monitoring area image, which is an image of the monitoring area set in a predetermined range including a bed, is given as an input. Regressor composed of
An image acquisition unit that acquires an image from the imaging device installed so as to photograph the front Ki監vision area,
A determination unit that determines the behavior of the target person based on a score obtained by inputting the monitoring area image extracted from the image obtained by the image acquisition unit into the regression unit.
An output unit that gives notification based on the determination result of the determination unit, and
Have a,
The state of the person is classified into a plurality of types in advance, and different scores are assigned to each of the plurality of types.
The regressor outputs the state of the person as a continuous value score, and when the state of the person is a state between two types, the value between the scores of the two types is output. A monitoring support system characterized by being configured to output .
ことを特徴とする請求項1に記載の見守り支援システム。 The plurality of types are characterized by including a state 0 in which the person is sleeping on the bed, a state 1 in which the person is awake on the bed, and a state 2 in which the person is away from the bed. The monitoring support system according to claim 1 .
ことを特徴とする請求項2に記載の見守り支援システム。 The monitoring support system according to claim 2 , wherein the determination unit determines the behavior of the subject based on a temporal change in the state of the subject estimated from the score.
前記対象者の状態が前記状態0から前記状態1に遷移した場合、又は、
前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1が所定時間続いた場合に、
前記対象者が起床したと判定する
ことを特徴とする請求項3に記載の見守り支援システム。 The determination unit
When the state of the subject transitions from the state 0 to the state 1, or
When the state of the subject transitions from the state 0 to the state 1, and the state 1 continues for a predetermined time,
The monitoring support system according to claim 3 , wherein it is determined that the subject has woken up.
前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1から前記状態2に遷移した場合、又は、
前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1から前記状態2に遷移し、さらに、前記状態2が所定時間続いた場合に、又は、
前記対象者の状態が前記状態0から前記状態2に遷移した場合、又は、
前記対象者の状態が前記状態0から前記状態2に遷移し、さらに、前記状態2が所定時間続いた場合に、
前記対象者が離床したと判定する
ことを特徴とする請求項3又は4に記載の見守り支援システム。 The determination unit
When the state of the subject transitions from the state 0 to the state 1, and further transitions from the state 1 to the state 2, or
When the state of the subject transitions from the state 0 to the state 1, further transitions from the state 1 to the state 2, and the state 2 continues for a predetermined time, or.
When the state of the subject transitions from the state 0 to the state 2, or
When the state of the subject transitions from the state 0 to the state 2, and the state 2 continues for a predetermined time,
The monitoring support system according to claim 3 or 4 , wherein it is determined that the subject has left the bed.
前記対象者のベッドを含む所定の範囲に設定された監視領域を撮影するように設置された撮像装置から画像を取得するステップと、
前記監視領域の画像である監視領域画像を入力として与えると、前記監視領域内に存在する人の状態を示すスコアを出力するように機械学習されているニューラルネットワークで構成された回帰器に対し、前記監視領域画像を入力するステップと、
前記回帰器から得られたスコアに基づいて、前記対象者の行動を判定するステップと、
判定結果に基づく通知を行うステップと、
を有し、
前記人の状態があらかじめ複数の類型に分類され、かつ、前記複数の類型のそれぞれに異なるスコアが割り当てられており、
前記回帰器は、前記人の状態を連続値のスコアで出力するものであって、前記人の状態が2つの類型のあいだの状態である場合に、前記2つの類型のスコアのあいだの値を出力するように構成されている
ことを特徴とする見守り支援システムの制御方法。 It is a control method of a watching support system that supports watching over the subject on the bed.
A step of acquiring an image from an imaging device installed so as to capture a monitoring area set in a predetermined range including the subject's bed, and
When a monitoring area image, which is an image of the monitoring area, is given as an input, a regressor composed of a neural network machine-learned to output a score indicating the state of a person existing in the monitoring area is subjected to. inputting the monitoring territory Ikiga image,
A step of determining the behavior of the subject based on the score obtained from the regression device, and
Steps to notify based on the judgment result and
Have a,
The state of the person is classified into a plurality of types in advance, and different scores are assigned to each of the plurality of types.
The regressor outputs the state of the person as a continuous value score, and when the state of the person is a state between two types, the value between the scores of the two types is output. A control method for a monitoring support system that is configured to output .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017123009A JP6822326B2 (en) | 2017-06-23 | 2017-06-23 | Watching support system and its control method |
PCT/JP2018/021983 WO2018235628A1 (en) | 2017-06-23 | 2018-06-08 | Monitoring assistance system, control method therefor, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017123009A JP6822326B2 (en) | 2017-06-23 | 2017-06-23 | Watching support system and its control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019008515A JP2019008515A (en) | 2019-01-17 |
JP6822326B2 true JP6822326B2 (en) | 2021-01-27 |
Family
ID=64735938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017123009A Active JP6822326B2 (en) | 2017-06-23 | 2017-06-23 | Watching support system and its control method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6822326B2 (en) |
WO (1) | WO2018235628A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2584644B (en) | 2019-06-05 | 2024-01-31 | Peak Medtek Ltd | A fall prevention device |
JP7457625B2 (en) | 2020-10-07 | 2024-03-28 | パラマウントベッド株式会社 | bed system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007213528A (en) * | 2006-02-13 | 2007-08-23 | Sanyo Electric Co Ltd | Action recognition system |
JP2007241477A (en) * | 2006-03-06 | 2007-09-20 | Fuji Xerox Co Ltd | Image processor |
JP6277736B2 (en) * | 2014-01-23 | 2018-02-14 | 富士通株式会社 | State recognition method and state recognition device |
JP6348431B2 (en) * | 2015-02-24 | 2018-06-27 | 株式会社日立製作所 | Image processing method and image processing apparatus |
-
2017
- 2017-06-23 JP JP2017123009A patent/JP6822326B2/en active Active
-
2018
- 2018-06-08 WO PCT/JP2018/021983 patent/WO2018235628A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2018235628A1 (en) | 2018-12-27 |
JP2019008515A (en) | 2019-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6137425B2 (en) | Image processing system, image processing apparatus, image processing method, and image processing program | |
US10786183B2 (en) | Monitoring assistance system, control method thereof, and program | |
JP6822328B2 (en) | Watching support system and its control method | |
JP6915421B2 (en) | Watching support system and its control method | |
TWI666933B (en) | Method and computing device for monitoring object | |
WO2015118953A1 (en) | Information processing device, information processing method, and program | |
JP6780641B2 (en) | Image analysis device, image analysis method, and image analysis program | |
JP6822326B2 (en) | Watching support system and its control method | |
JP6729510B2 (en) | Monitoring support system and control method thereof | |
JP6245027B2 (en) | Monitoring method, monitoring device, and monitoring program | |
WO2020145380A1 (en) | Care recording device, care recording system, care recording program, and care recording method | |
JP6870514B2 (en) | Watching support system and its control method | |
US10762761B2 (en) | Monitoring assistance system, control method thereof, and program | |
TWI697869B (en) | Posture determination method, electronic system and non-transitory computer-readable recording medium | |
JP6729512B2 (en) | Monitoring support system and control method thereof | |
JP6635074B2 (en) | Watching support system and control method thereof | |
US20220054046A1 (en) | Assessing patient out-of-bed and out-of-chair activities using embedded infrared thermal cameras | |
TWI423148B (en) | Method and system of monitoring and monitoring of fighting behavior | |
JP6292012B2 (en) | Watch device, watch method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200929 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20201027 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6822326 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |