WO2018235628A1 - Monitoring assistance system, control method therefor, and program - Google Patents

Monitoring assistance system, control method therefor, and program Download PDF

Info

Publication number
WO2018235628A1
WO2018235628A1 PCT/JP2018/021983 JP2018021983W WO2018235628A1 WO 2018235628 A1 WO2018235628 A1 WO 2018235628A1 JP 2018021983 W JP2018021983 W JP 2018021983W WO 2018235628 A1 WO2018235628 A1 WO 2018235628A1
Authority
WO
WIPO (PCT)
Prior art keywords
state
bed
image
subject
person
Prior art date
Application number
PCT/JP2018/021983
Other languages
French (fr)
Japanese (ja)
Inventor
純平 松永
田中 清明
信二 高橋
達哉 村上
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Publication of WO2018235628A1 publication Critical patent/WO2018235628A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop

Landscapes

  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Invalid Beds And Related Equipment (AREA)

Abstract

A monitoring assistance system for assisting in monitoring a subject in a bed, said system having: a regression device into which an image that includes a bed and a person is input, and in which mechanical learning is carried out so as to output a score indicating the state of the person with respect to the bed; an image acquisition unit for acquiring an image from an imaging device arranged so as to capture an image of a monitoring region that includes the subject's bed; a determination unit for determining a behavior of the subject on the basis of a score obtained by inputting an image of the monitoring region acquired by the image acquisition unit to the regression device; and an output unit for providing a notification based on the determination result from the determination unit.

Description

見守り支援システム及びその制御方法、及びプログラムOversight support system, control method therefor, and program
 本発明は、ベッド上の対象者の見守りを支援するための技術に関する。 TECHNICAL FIELD The present invention relates to a technique for supporting watching of a subject on a bed.
 ベッドからの転落事故などを未然に防ぐため、病院や介護施設などにおける患者の見守りを支援するシステムが知られている。特許文献1には、ベッドの斜め上方に設置したカメラで撮影した画像から患者の頭部を検出し、ベッド上に設定した境界線を頭部が超えたことをもって起床動作と判定し、看護師等へ通知を行うシステムが提案されている。 In order to prevent a fall accident from a bed and the like, a system that supports watching and listening of patients in hospitals and nursing facilities is known. In Patent Document 1, the head of a patient is detected from an image captured by a camera installed obliquely above the bed, and it is determined that the head moves up when the head exceeds a boundary set on the bed, and a nurse A system has been proposed to provide notification etc.
特開2012-071004号公報Unexamined-Japanese-Patent No. 2012-071004
 従来システムは、画像から患者の頭部を検出し、頭部の位置や動きから患者の行動(起床や離床など)を推定するという方法が一般的であった。しかしながら、このような従来方法は、画像から頭部を検出できなかった場合、もしくは誤って検出した場合に、患者の行動を正しく推定できないという課題がある。例えば、患者が布団を被っていたり、患者以外の人や紛らわしい物体が周囲に存在したり、照明環境が変化したりするなど、外乱や環境に依存して検出精度にバラツキが生じると、危険行動の見過ごしや誤報(不要な警報)が発生し、システムの信頼性を著しく低下させてしまうおそれがある。 The conventional system generally detects a patient's head from an image and estimates a patient's behavior (such as getting up or leaving) from the position and movement of the head. However, such a conventional method has a problem that the behavior of the patient can not be correctly estimated when the head can not be detected from the image or when it is detected erroneously. For example, if the detection accuracy varies depending on the disturbance or environment, such as when the patient is covered with a futon, a person other than the patient or a confusing object is present, or the lighting environment changes, dangerous behavior may occur. And false alarms (unnecessary alarms) may occur, which may significantly reduce the reliability of the system.
 本発明は、上記実情に鑑みなされたものであって、ベッド上の対象者の状態ないし行動を高精度かつ高信頼に検知するための技術を提供することを目的とする。 The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a technique for detecting the state or behavior of a subject on a bed with high accuracy and high reliability.
 上記目的を達成するために、本発明では、ベッドと人の状態のパターンを機械学習した回帰器を用いて、監視画像から見守り対象者の状態を推定し、当該対象者の行動を検知する、という方法を採用する。 In order to achieve the above object, according to the present invention, the state of the watching target is estimated from the monitoring image using a regressor that machine-learns the pattern of the bed and the state of the person, and the action of the target is detected. Adopt the method.
 具体的には、本発明の第一態様は、ベッド上の対象者の見守りを支援する見守り支援システムであって、ベッドと人が写る画像を入力し、前記ベッドに対する前記人の状態を示すスコアを出力するように機械学習されている回帰器と、前記対象者のベッドを含む監視領域を撮影するように設置された撮像装置から画像を取得する画像取得部と、前記画像取得部により得られた前記監視領域の画像を前記回帰器に入力することにより得られたスコアに基づいて、前記対象者の行動を判定する判定部と、前記判定部の判定結果に基づく通知を行う出力部と、を有することを特徴とする見守り支援システムを提供する。 Specifically, a first aspect of the present invention is a watching support system for supporting watching of a subject on a bed, and an image showing a bed and a person is input, and a score indicating the state of the person relative to the bed is input. A regressor that is machine-learned to output the image, an image acquisition unit that acquires an image from an imaging device installed to image the monitoring region including the bed of the subject, and the image acquisition unit A determination unit that determines the action of the subject based on a score obtained by inputting the image of the monitoring area to the regressor; an output unit that performs notification based on the determination result of the determination unit; To provide a watching support system characterized by having:
 この構成によれば、回帰器を用いて入力画像における対象者の状態を推定する。したがって、未知の入力画像に対して高精度な状態推定を行うことができる。また、回帰器のスコアは連続値で出力されるので、対象者の状態が明確に分類できないものであったとしても、妥当な推定結果を得ることができる。さらに、対象者が布団を被っていたり、対象者の周囲にまぎらわしい人や物体が存在していたり、照明環境が通常と異なるなど、頭部検出が困難な画像であっても、妥当な推定結果を得ることができるという利点もある。 According to this configuration, the regressor is used to estimate the state of the subject in the input image. Therefore, highly accurate state estimation can be performed on an unknown input image. Further, since the score of the regressor is output as a continuous value, it is possible to obtain a reasonable estimation result even if the condition of the subject can not be clearly classified. Furthermore, even if the target person is covered with a futon, there are strange people or objects around the target person, or the lighting environment is different from normal, etc., the image is difficult to detect the head. There is also the advantage that you can get
 前記回帰器は、ニューラルネットワークであるとよい。ニューラルネットワークを用いることにより、高精度かつ頑健性の高い状態推定を行うことができる。 The regressor may be a neural network. By using a neural network, highly accurate and highly robust state estimation can be performed.
 前記ベッドに対する前記人の状態があらかじめ複数の類型に分類され、かつ、前記複数の類型のそれぞれに異なるスコアが割り当てられており、前記回帰器は、前記人の状態が2つの類型のあいだの状態である場合に、前記2つの類型のスコアのあいだの値を出力するように構成されているとよい。このような設計とすることにより、人がとり得るさまざまな状態を一次元のスコアで表現できるようになるので、「人の状態」を数学的にあるいはプログラムにおいて取り扱うのが容易になり、例えば後段の処理(判定部による判定ロジックなど)を極めて簡易に構築できる。 The state of the person with respect to the bed is classified in advance into a plurality of types, and different scores are assigned to each of the plurality of types, and the regressor is configured to determine that the state of the person is between two types. If so, it may be configured to output a value between the two types of scores. Such a design makes it possible to express various human-readable states as a one-dimensional score, making it easy to handle "human states" mathematically or in programs, for example, The processing of (judgment logic by the judgment unit etc.) can be constructed extremely easily.
 例えば、前記複数の類型は、前記人が前記ベッドに寝ている状態0、前記人が前記ベッド上で起き上がっている状態1、および、前記人が前記ベッドから離れている状態2を含むとよい。少なくとも状態0~状態2の3種類の状態が判別できれば、見守りのニーズが高い「起床」と「離床」の検知が可能になるからである。 For example, the plurality of types may include state 0 in which the person is sleeping in the bed, state 1 in which the person is rising on the bed, and state 2 in which the person is away from the bed . This is because if it is possible to distinguish at least three types of states of state 0 to state 2, it is possible to detect “wake up” and “getting out of bed” which have a high need for watching.
 前記判定部は、前記スコアにより推定された前記対象者の状態の時間的な変化に基づいて、前記対象者の行動を判定するとよい。対象者の一時的な状態ではなく、対象者の状態の時間的な変化(状態遷移)に基づいて対象者の行動を判定することで、行動判定の精度を向上することができる。 The determination unit may determine an action of the subject based on a temporal change of the state of the subject estimated by the score. The accuracy of the action determination can be improved by determining the action of the subject based on the temporal change (state transition) of the state of the subject rather than the temporary state of the subject.
 例えば、前記判定部は、前記対象者の状態が前記状態0から前記状態1に遷移した場合、又は、前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1が所定時間続いた場合に、前記対象者が起床したと判定するとよい。 For example, when the state of the subject transits from the state 0 to the state 1, or the state of the subject transits from the state 0 to the state 1, the determination unit further determines that the state 1 is When continuing for a predetermined time, it may be determined that the subject has got up.
 また、前記判定部は、前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1から前記状態2に遷移した場合、又は、前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1から前記状態2に遷移し、さらに、前記状態2が所定時間続いた場合に、又は、前記対象者の状態が前記状態0から前記状態2に遷移した場合、又は、前記対象者の状態が前記状態0から前記状態2に遷移し、さらに、前記状態2が所定時間続いた場合に、前記対象者が離床したと判定するとよい。 In addition, when the state of the subject changes from the state 0 to the state 1 and further changes from the state 1 to the state 2, the determination unit determines the state of the subject from the state 0 The state 1 is transitioned to, the state 1 is changed to the state 2, and the state 2 continues for a predetermined time, or the state of the subject is changed from the state 0 to the state 2 Alternatively, if the state of the subject changes from the state 0 to the state 2 and the state 2 continues for a predetermined time, it may be determined that the subject has left the bed.
 なお、本発明は、上記構成ないし機能の少なくとも一部を有する見守り支援システムとして捉えることができる。また、本発明は、上記処理の少なくとも一部を含む、見守り支援方法又は見守り支援システムの制御方法や、これらの方法をコンピュータに実行させるためのプログラム、又は、そのようなプログラムを非一時的に記録したコンピュータ読取可能な記録媒体として捉えることもできる。上記構成及び処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。 The present invention can be understood as a watching support system having at least a part of the above configuration or function. The present invention also provides a watching support method or a watching support system control method including at least a part of the above-described processing, a program for causing a computer to execute these methods, or non-temporarily such a program. It can also be regarded as a recorded computer readable recording medium. Each of the above configurations and processes can be combined with each other as long as there is no technical contradiction.
 本発明によれば、ベッド上の対象者の状態ないし行動を高精度かつ高信頼に検知することができる。 According to the present invention, the state or behavior of the subject on the bed can be detected with high accuracy and high reliability.
図1は第1実施形態の見守り支援システムのハードウェア構成および機能構成を模式的に示すブロック図である。FIG. 1 is a block diagram schematically showing a hardware configuration and a functional configuration of the watching support system of the first embodiment. 図2は撮像装置の設置例を示す図である。FIG. 2 is a view showing an installation example of the imaging device. 図3A及び図3Bは画像に対し設定された監視領域の例である。FIG. 3A and FIG. 3B are examples of the monitoring area set for the image. 図4は人の状態の類型と画像の例である。FIG. 4 shows types of human states and examples of images. 図5は回帰器の機械学習を模式的に示す図である。FIG. 5 is a diagram schematically showing machine learning of the regressor. 図6は回帰器の能力を模式的に示す図である。FIG. 6 is a diagram schematically showing the ability of the regressor. 図7は状態監視処理のフローチャートである。FIG. 7 is a flowchart of the state monitoring process. 図8は行動判定のフローチャートである。FIG. 8 is a flowchart of action determination. 図9は判定ロジックの例である。FIG. 9 is an example of the determination logic.
 本発明は、ベッド上の対象者の見守りを支援するための技術に関する。この技術は、病院や介護施設などにおいて、患者や要介護者などの離床・起床行動を自動で検知し、危険な状態が発生した場合などに必要な通知を行うシステムに適用することができる。このシステムは、例えば、高齢者、認知症患者、子供などの見守り支援に好ましく利用することができる。 TECHNICAL FIELD The present invention relates to a technique for supporting watching of a subject on a bed. This technology can be applied to a system that automatically detects the getting-up and getting-up behavior of patients and care recipients in hospitals and nursing facilities, etc., and performs necessary notification when a dangerous state occurs. This system can be preferably used, for example, for watching and supporting elderly people, patients with dementia, children and the like.
 以下、図面を参照して本発明を実施するための好ましい形態の一例を説明する。ただし、以下の実施形態に記載されている装置の構成や動作は一例であり、本発明の範囲をそれらのみに限定する趣旨のものではない。 Hereinafter, an example of a preferred embodiment for carrying out the present invention will be described with reference to the drawings. However, the configurations and operations of the devices described in the following embodiments are merely examples, and the scope of the present invention is not limited thereto.
 (システム構成)
 図1と図2を参照して、本発明の実施形態に係る見守り支援システムの構成を説明する。図1は、見守り支援システム1のハードウェア構成および機能構成を模式的に示すブロック図であり、図2は、撮像装置の設置例を示す図である。
(System configuration)
The configuration of a watching support system according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2. FIG. 1 is a block diagram schematically showing a hardware configuration and a functional configuration of the watching support system 1, and FIG. 2 is a diagram showing an installation example of an imaging device.
 見守り支援システム1は、主なハードウェア構成として、撮像装置10と情報処理装置11を有している。撮像装置10と情報処理装置11の間は有線又は無線により接続されている。図1では、1つの撮像装置10のみ示しているが、複数台の撮像装置10を情報処理装置11に接続してもよい。 The watching support system 1 includes an imaging device 10 and an information processing device 11 as main hardware configurations. The imaging device 10 and the information processing device 11 are connected by wire or wirelessly. Although only one imaging device 10 is shown in FIG. 1, a plurality of imaging devices 10 may be connected to the information processing device 11.
 撮像装置10は、ベッド上の対象者を撮影して画像データを取り込むためのデバイスである。撮像装置10としては、モノクロ又はカラーの可視光カメラ、赤外線カメラ、三次元カメラなどを用いることができる。本実施形態では、夜間でも(部屋内が暗い場合でも)対象者の見守りを可能とするため、赤外線LED照明100と近赤外線カメラ101で構成される撮像装置10を採用する。撮像装置10は、図2に示すように、ベッド20の頭側上方から足側に向かって、ベッド20の全体を俯瞰するように設置される。撮像装置10は所定の時間間隔(例えば、30fps)で撮影を行い、その画像データは情報処理装置11に順次取り込まれる。 The imaging device 10 is a device for capturing a subject on a bed and capturing image data. As the imaging device 10, a monochrome or color visible light camera, an infrared camera, a three-dimensional camera or the like can be used. In the present embodiment, the imaging device 10 configured by the infrared LED illumination 100 and the near infrared camera 101 is adopted in order to enable watching of the target person even at night (even when the room is dark). As shown in FIG. 2, the imaging device 10 is installed to look over the entire bed 20 from the top of the bed 20 to the foot. The imaging device 10 captures an image at a predetermined time interval (for example, 30 fps), and the image data is sequentially captured by the information processing device 11.
 情報処理装置11は、撮像装置10から取り込まれる画像データをリアルタイムに分析し、ベッド20上の対象者21の起床行動や離床行動を自動で検知し、必要な場合に通知を行う機能を備える装置である。情報処理装置11は、具体的な機能モジュールとして、画像取得部110、領域設定部111、前処理部112、回帰器113、スコア安定化部114、判定部115、出力部116、記憶部117を有している。 The information processing apparatus 11 has a function of analyzing image data taken in from the imaging apparatus 10 in real time, automatically detecting wakeup behavior and leaving behavior of the subject 21 on the bed 20, and notifying when necessary. It is. The information processing apparatus 11 includes, as specific functional modules, an image acquisition unit 110, an area setting unit 111, a preprocessing unit 112, a regression unit 113, a score stabilization unit 114, a determination unit 115, an output unit 116, and a storage unit 117. Have.
 本実施形態の情報処理装置11は、CPU(プロセッサ)、メモリ、ストレージ(HDD、SSDなど)、入力デバイス(キーボード、マウス、タッチパネルなど)、出力デバイス(ディスプレイ、スピーカなど)、通信インタフェースなどを具備する汎用のコンピュータにより構成され、上述した情報処理装置11の各モジュールは、ストレージ又はメモリに格納されたプログラムをCPUが実行することにより実現される。ただし、情報処理装置11の構成はこの例に限られない。例えば、複数台のコンピュータによる分散コンピューティングを行ってもよいし、上記モジュールの一部をクラウドサーバにより実行してもよいし、上記モジュールの一部をASICやFPGAのような回路で構成してもよい。 The information processing apparatus 11 according to this embodiment includes a CPU (processor), memory, storage (HDD, SSD, etc.), input device (keyboard, mouse, touch panel, etc.), output device (display, speaker, etc.), communication interface, etc. Each module of the information processing apparatus 11 described above is realized by the CPU executing a program stored in the storage or the memory. However, the configuration of the information processing apparatus 11 is not limited to this example. For example, distributed computing may be performed by a plurality of computers, a part of the module may be executed by a cloud server, or a part of the module may be configured by a circuit such as an ASIC or an FPGA. It is also good.
 画像取得部110は、撮像装置10により撮影された画像を取得するためのモジュールである。画像取得部110より入力された画像データは一時的にメモリ又はストレージに記憶され、後述する領域設定処理や状態監視処理に供される。 The image acquisition unit 110 is a module for acquiring an image captured by the imaging device 10. The image data input from the image acquisition unit 110 is temporarily stored in a memory or storage, and is used for area setting processing and status monitoring processing described later.
 領域設定部111は、撮像装置10により撮影される画像に対し監視領域を設定するためのモジュールである。監視領域は、撮像装置10の視野のうち状態監視処理の対象となる範囲(言い換えると、回帰器113の入力として用いられる画像範囲)である。領域設定処理の詳細は後述する。 The area setting unit 111 is a module for setting a monitoring area for an image captured by the imaging device 10. The monitoring area is a range (in other words, an image range used as an input of the regressor 113) to be subjected to the state monitoring process in the field of view of the imaging device 10. Details of the area setting process will be described later.
 前処理部112は、状態監視処理において、画像取得部110より入力された画像(以後「オリジナル画像」と呼ぶ)に対し必要な前処理を施すためのモジュールである。例えば、前処理部112は、オリジナル画像から監視領域内の画像をクリップする処理を行う(クリップされた画像を以後「監視領域画像」と呼ぶ)。また、前処理部112は、監視領域画像に対して、リサイズ(縮小)、アフィン変換、輝度補正などの処理を施してもよい。リサイズ(縮小)は、回帰器113の演算時間を短縮する効果がある。リサイズには既存のどのような手法を用いてもよいが、演算コストと品質のバランスがよいバイリニア法が好ましい。アフィン変換は、例えば、画像において台形状に写るベッドを長方形状に変形するなど、必要な歪み補正を行うことで、回帰器113への入力画像を規格化し、推定精度を向上する効果が期待できる。輝度補正は、例えば、照明環境の影響を低減することで、推定精度を向上する効果が期待できる。なお、オリジナル画像をそのまま回帰器113に入力する場合には、前処理部112は省略してもよい。 The preprocessing unit 112 is a module for performing necessary preprocessing on an image (hereinafter referred to as an “original image”) input from the image acquisition unit 110 in the state monitoring process. For example, the preprocessing unit 112 performs processing of clipping an image within the monitoring area from the original image (hereinafter, the clipped image is referred to as a “monitoring area image”). In addition, the preprocessing unit 112 may perform processing such as resizing (reduction), affine transformation, and luminance correction on the monitoring area image. Resizing (reduction) has the effect of shortening the calculation time of the regressor 113. Although any existing method may be used for resizing, it is preferable to use a bilinear method that has a good balance of calculation cost and quality. The affine transformation can be expected to have the effect of normalizing the input image to the regressor 113 and improving the estimation accuracy by performing necessary distortion correction such as, for example, deforming a bed reflected in a trapezoidal shape in the image into a rectangular shape . The luminance correction can be expected to have an effect of improving the estimation accuracy, for example, by reducing the influence of the illumination environment. When the original image is input to the regressor 113 as it is, the preprocessing unit 112 may be omitted.
 回帰器113は、監視領域画像が与えられたときに、当該監視領域画像に写る対象者21の状態(例えば、就床状態、起床状態、離床状態)を示すスコアを出力するためのモジュールである。回帰器113は、ベッドと人が写る画像を入力とし、ベッドに対する人の状態を示すスコアを出力するように、入力画像の特徴と人の状態との関係モデルを機械学習により構築したものである。回帰器113のトレーニングは、多数のトレーニング用画像を用いて、学習装置12によって事前に(システムの出荷前ないし稼働前に)行われているものとする。なお、回帰器113の学習モデルとしては、ニューラルネットワーク、ランダムフォレスト、サポートベクターマシンなど、どのようなモデルを用いてもよい。本実施形態では、画像認識に好適な畳み込みニューラルネットワーク(CNN)を用いる。 The regressor 113 is a module for outputting a score indicating the state of the subject 21 (for example, bedtime state, wakeup state, leaving state) shown in the monitoring area image when the monitoring area image is given. . The regressor 113 is a machine learning model of a relation model between the features of the input image and the human state so as to output an image showing the bed and the person and output a score indicating the human state with respect to the bed. . It is assumed that the training of the regressor 113 is performed in advance (before shipping or operation of the system) by the learning device 12 using a large number of training images. In addition, as a learning model of the regressor 113, any model such as a neural network, a random forest, a support vector machine, etc. may be used. In this embodiment, a convolutional neural network (CNN) suitable for image recognition is used.
 スコア安定化部114は、回帰器113から出力されるスコアの急激な変化やばたつきを抑制するためのモジュールである。スコア安定化部114は、例えば、現在のフレームの画像から得られた現在スコアと、直前の2フレームの画像からそれぞれ得られた過去スコアの平均を計算し、安定化スコアとして出力する。この処理は、スコアの時系列データに時間的なローパスフィルタをかけることと等価である。なお、スコアの安定化が不要であれば、スコア安定化部114は省略してもよい。 The score stabilization unit 114 is a module for suppressing rapid change and fluttering of the score output from the regressor 113. The score stabilization unit 114, for example, calculates an average of the current score obtained from the image of the current frame and the past score obtained from the images of the immediately preceding two frames, and outputs the average as a stabilization score. This process is equivalent to applying a temporal low-pass filter to the time series data of the score. In addition, if stabilization of a score is unnecessary, the score stabilization part 114 may be abbreviate | omitted.
 判定部115は、回帰器113により得られたスコアに基づいて、対象者の行動を判定するためのモジュールである。具体的には、判定部115は、スコアの時間的な変化(つまり、スコアが示す「対象者の状態」の遷移)に基づいて、対象者がどのような行動(例えば、起床行動、離床行動など)をとったのかを推定する。判定部115の処理の詳細は後述する。 The determination unit 115 is a module for determining the action of the subject based on the score obtained by the regressor 113. Specifically, the determination unit 115 determines what kind of behavior (for example, wake-up action, leaving-behind action) of the subject based on temporal change in score (that is, transition of the “subject's state” indicated by the score). Etc.) are estimated. Details of the processing of the determination unit 115 will be described later.
 出力部116は、判定部115の判定結果に基づいて、必要な通知を行うモジュールである。例えば、出力部116は、対象者21の状態や行動に応じて、通知の要否(例えば、危険な状態の場合のみ通知を行う)、通知の内容(例えばメッセージの内容)、通知手段(例えば音声、メール、ブザー、警告灯)、通知先(例えば看護師、医師、介護者)、通知の頻度などを切り替えることができる。 The output unit 116 is a module that performs necessary notification based on the determination result of the determination unit 115. For example, the output unit 116 determines whether or not the notification is necessary (for example, notifies only in the dangerous state), the content of the notification (for example, the content of the message), the notification unit (for example, for example). Voice, mail, buzzer, warning light, notification destination (eg, nurse, doctor, carer), frequency of notification, etc. can be switched.
 記憶部117は、見守り支援システム1が処理に用いる各種のデータを記憶するモジュールである。記憶部117には、例えば、監視領域の設定情報、前処理で用いるパラメータ、スコア安定化処理で用いるパラメータ、スコアの時系列データ、判定処理で用いるパラメータなどが記憶される。 The storage unit 117 is a module for storing various data used by the watching support system 1 for processing. The storage unit 117 stores, for example, setting information of a monitoring area, parameters used in preprocessing, parameters used in score stabilization processing, time series data of scores, parameters used in determination processing, and the like.
 (監視領域の設定)
 撮像装置10の画角内にはベッド20や対象者21以外にさまざまな物が写り込んでいる。対象者21の状態や行動を検知するにあたっては、ベッド20と対象者21以外の物はノイズとして作用する可能性があるため、出来る限り除外することが好ましい。また、回帰器113に入力する画像については、画像サイズ(幅、高さ)および画像内のベッドの位置・範囲・大きさなどが規格化されているほうが、推定精度の向上が図りやすい。そこで、本実施形態では、ベッド20を基準にした所定の範囲を監視領域に設定し、後述する状態監視処理では監視領域内の画像をクリッピングして回帰器113の入力画像とする。
(Setting of monitoring area)
Various items other than the bed 20 and the target person 21 are reflected in the angle of view of the imaging device 10. When detecting the state or behavior of the target person 21, it is preferable to exclude as much as possible, since things other than the bed 20 and the target person 21 may act as noise. Further, with regard to the image input to the regressor 113, the estimation accuracy can be easily improved if the image size (width, height), and the position, range, and size of the bed in the image are standardized. Therefore, in the present embodiment, a predetermined range based on the bed 20 is set as a monitoring area, and in a state monitoring process described later, an image in the monitoring area is clipped to be an input image of the regression unit 113.
 監視領域の設定は、手動で行ってもよいし自動で行ってもよい。手動設定の場合、領域設定部111は、画像内のベッド20の領域ないし監視領域そのものをユーザに入力させるためのユーザインタフェースを提供するとよい。自動設定の場合、領域設定部111は、物体認識処理により画像からベッド20を検出し、検出したベッド20の領域を包含するように監視領域を設定するとよい。なお、領域設定処理は、監視領域が未設定の場合(例えば、システムの設置時など)、ベッド20や撮像装置10の移動に伴い監視領域を更新する必要がある場合などに実行される。 The setting of the monitoring area may be performed manually or automatically. In the case of manual setting, the area setting unit 111 may provide a user interface for allowing the user to input the area of the bed 20 in the image or the monitoring area itself. In the case of automatic setting, the area setting unit 111 may detect the bed 20 from the image by object recognition processing, and set the monitoring area so as to include the detected area of the bed 20. The area setting process is performed, for example, when the monitoring area needs to be updated along with the movement of the bed 20 or the imaging device 10 when the monitoring area is not set (for example, when the system is installed).
 図3Aは、オリジナル画像に対し設定された監視領域の例である。本実施形態では、ベッド20の領域の左側・右側・上側(足側)にそれぞれ所定幅のマージンを付加した範囲を、監視領域30に設定する。マージンの幅は、ベッド20上で起き上がっている人(図3B参照)の全身が監視領域30内に入るように設定される。 FIG. 3A is an example of the monitoring area set for the original image. In the present embodiment, a monitoring area 30 is set by adding a margin of a predetermined width to the left side, the right side, and the upper side (foot side) of the area of the bed 20. The width of the margin is set so that the whole body of the person (see FIG. 3B) rising on the bed 20 falls within the monitoring area 30.
 (状態の類型と機械学習)
 本システムでは、人の状態を回帰で取り扱うために、「ベッドに対する人の状態」をあらかじめ第0~第2の3つの類型に分類する。「第0類型」は、人がベッドに寝ている状態(「就床状態」又は「状態0」と呼ぶ)、「第1類型」は、人がベッド上で起き上がっている状態(「起床状態」又は「状態1」と呼ぶ)、「第2類型」は、人がベッドから離れている(降りている)状態(「離床状態」又は「状態2」と呼ぶ)である。図4は、寝ていた人が起き上がり、ベッドから離れる、という一連の行動を表す時系列画像と、3つの類型との対応を示す例である。
(Types of states and machine learning)
In this system, in order to treat the human condition by regression, "the human condition with respect to the bed" is classified into three types from 0 to 2 in advance. The "type 0 type" is a state in which a person is sleeping in the bed (referred to as "sleeping state" or "state 0"), the "type 1 type" is a state in which a person is rising on the bed ("wake up state Or “state 1”), “type 2” is a state in which a person is separated from the bed (dismounted) (referred to as “bed leaving state” or “state 2”). FIG. 4 is an example showing correspondence between time-series images representing a series of actions of a person who was sleeping rising and leaving the bed, and three types.
 図5は、回帰器113の機械学習を模式的に示している。まず、実際の病室等を撮影した画像を集め、各画像を第0類型~第2類型に分類する。そして、各画像の監視領域に相当する部分をクリッピングし、類型の番号(0,1,2)をラベルとして割り当て、トレーニング用画像のセットを生成する。回帰の精度向上のため、十分な数の画像を用意することが好ましく、またそれぞれの類型についてさまざまなバリエーションの画像を用意することが好ましい。ただし、人の状態がどちらの類型に属するかあいまいな画像は、トレーニング用画像に適さないので、除外することが好ましい。 FIG. 5 schematically shows the machine learning of the regressor 113. First, images obtained by photographing an actual patient room and the like are collected, and each image is classified into type 0 to type 2. Then, a portion corresponding to the monitoring area of each image is clipped, and the type number (0, 1, 2) is assigned as a label to generate a set of training images. In order to improve the accuracy of regression, it is preferable to prepare a sufficient number of images, and it is preferable to prepare images of various variations for each type. However, it is preferable to exclude the image which is ambiguous to which type of human condition belongs, because it is not suitable for the training image.
 学習装置12は、トレーニング用画像のセットを用い、各入力画像に対してそのラベルと同じスコア(つまり、第1類型に属する入力画像であればスコア=1)を出力するように、畳み込みニューラルネットワークのトレーニングを行う。そして、学習装置12は、学習結果であるニューラルネットワークのパラメータ群を、本システムの回帰器113に組み込む。なお、ニューラルネットワークの具体的な層構造、フィルタ、活性化関数、入力画像の仕様などは、実装や要求精度にあわせて適宜設計すればよい。 The learning device 12 uses a set of training images and outputs a convolutional neural network so as to output, for each input image, the same score as its label (that is, score = 1 if the input image belongs to the first type) Do training. Then, the learning device 12 incorporates the parameter group of the neural network, which is the learning result, into the regressor 113 of the present system. The specific layer structure of the neural network, the filter, the activation function, the specification of the input image, and the like may be appropriately designed according to the mounting and the required accuracy.
 図6は、回帰器113の能力を模式的に示している。回帰器113は、画像の「特徴量」と人の状態を示す「スコア」との対応関係をモデル化したものである。回帰器113は、その関係モデルに従って、入力画像から特徴量を抽出し、特徴量に対応したスコアを計算し出力する。なお、図6では、説明の便宜のため関係モデルを2次元の線型モデルで示しているが、実際の特徴量空間は多次元であり、関係モデルは非線型となる。 FIG. 6 schematically shows the ability of the regressor 113. The regressor 113 models the correspondence between the “feature amount” of the image and the “score” indicating the human state. The regressor 113 extracts the feature amount from the input image according to the relationship model, and calculates and outputs a score corresponding to the feature amount. Although FIG. 6 shows the relationship model as a two-dimensional linear model for the convenience of description, the actual feature amount space is multidimensional, and the relationship model is non-linear.
 回帰器113から出力されるスコアは0~2の範囲の実数値(連続値)である。例えば、第1類型(起床状態)の入力画像が与えられた場合は、その出力スコアは1又は1に極めて近い値となる。他の類型の場合も同様である。他方、入力画像のなかには、寝た姿勢から上半身を起こそうとしている状態や、ベッドから立ち上がろうとしている状態のように、どちらの類型に属するかあいまいな画像も存在する。そのような中間状態の画像の場合、抽出される特徴量は2つの類型のあいだの特徴量となるため、2つの類型の中間のスコアが出力されることとなる。例えば、寝た姿勢から上半身を起こそうとしている状態の画像であれば、第0類型と第1類型の中間状態ゆえ、0より大きく1より小さい値のスコアが得られる。 The score output from the regressor 113 is a real value (continuous value) in the range of 0-2. For example, when an input image of the first type (wake-up state) is given, the output score becomes 1 or a value very close to 1. The same is true for other types. On the other hand, in the input image, there is also an ambiguous image as to which type it belongs to, such as a state in which the upper body is about to wake up from the sleeping position or a state in which it is about to stand up from the bed. In the case of such an intermediate state image, the extracted feature quantity is a feature quantity between the two types, so that an intermediate score between the two types is output. For example, in the case of an image in a state in which the upper body is about to wake up from the sleeping position, a score of a value larger than 0 and smaller than 1 is obtained because it is an intermediate state between the 0th type and the 1st type.
 このように、本システムでは回帰器113を用いて、入力画像における人の状態を推定する。したがって、未知の入力画像に対して高精度な状態推定を行うことができる。特に、頭部検出を利用した従来方法と比べた場合の優れた点として、以下のような利点を挙げることができる。
 ・中間状態の画像が入力された場合でも妥当な推定結果を得ることができる。
 ・対象者が布団を被っていたり、対象者の周囲にまぎらわしい人や物体が存在していたり、照明環境が通常と異なるなど、頭部検出が困難な画像であっても、妥当な推定結果を得ることができる。
Thus, in the present system, the regressor 113 is used to estimate the human state in the input image. Therefore, highly accurate state estimation can be performed on an unknown input image. In particular, the following advantages can be mentioned as superior points as compared with the conventional method using head detection.
Even when an intermediate state image is input, a reasonable estimation result can be obtained.
・ Even if the subject is covered with a futon, there are strange people or objects around the subject, or the lighting environment is different from usual, etc., it is an image that is difficult to detect the head. You can get it.
 (状態監視処理)
 図7を参照して本システムの状態監視処理の一例を説明する。図7の処理フローは、撮像装置10から1フレームの画像が取り込まれる度に実行される。
(Status monitoring process)
An example of the state monitoring process of the present system will be described with reference to FIG. The processing flow of FIG. 7 is executed each time an image of one frame is captured from the imaging device 10.
 ステップS70において、画像取得部110が、撮像装置10から1フレームの画像を取り込む。取得されたオリジナル画像は記憶部117に一時的に記憶される。次に前処理部112が、オリジナル画像から監視領域画像をクリップし、必要に応じてリサイズ、アフィン変換、輝度補正などを実行する(ステップS71)。次に回帰器113が、監視領域画像を入力し、対応するスコアを出力する(ステップS72)。次にスコア安定化部114が、ステップS72で得られたスコアの安定化処理を行い(ステップS73)、得られたスコアを判定部115に引き渡す。 In step S <b> 70, the image acquisition unit 110 captures an image of one frame from the imaging device 10. The acquired original image is temporarily stored in the storage unit 117. Next, the preprocessing unit 112 clips the monitoring area image from the original image, and executes resizing, affine transformation, luminance correction and the like as necessary (step S71). Next, the regressor 113 inputs the monitoring area image and outputs the corresponding score (step S72). Next, the score stabilization unit 114 performs stabilization processing of the score obtained in step S72 (step S73), and delivers the obtained score to the determination unit 115.
 判定部115は、まず、スコア(連続値)に基づいて、対象者21の現在の状態を第0類型(状態0)/第1類型(状態1)/第2類型(状態2)のいずれかに分類する。分類方法は問わないが、本実施形態では、スコア≦閾値th1の場合は状態0(ステップS74,S75)、閾値th1<スコア≦閾値th2の場合は状態1(ステップS76,S77)、閾値th2<スコアの場合は状態2(ステップS78)、と分類する。閾値th1、th2は、例えば、th1=0.5、th2=1.5のように設定される。閾値th1、th2を変更することで、検知感度を調整することができる。 First, based on the score (continuous value), the determination unit 115 selects one of 0 type (state 0) / first type (state 1) / second type (state 2) as the current state of the subject 21. Classified into The classification method is not limited, but in the present embodiment, state 0 (steps S74 and S75) in the case of score ≦ threshold th1, state 1 (step S76 and S77) in the case of threshold th1 <score ≦ threshold th2, threshold th2 < In the case of the score, it is classified as state 2 (step S78). The threshold values th1 and th2 are set, for example, as th1 = 0.5 and th2 = 1.5. The detection sensitivity can be adjusted by changing the thresholds th1 and th2.
 続いて、判定部115は、対象者21の状態の時間的な変化に基づいて、対象者21の行動を判定する(ステップS79)。ステップS79において、対象者21が「起床」又は「離床」したと判定されたら、出力部116が必要な通知を行う(ステップS80)。以上のステップS70~S80は、システムが終了するまでフレーム毎に実行される(ステップS81)。 Subsequently, the determination unit 115 determines the action of the subject 21 based on the temporal change of the state of the subject 21 (step S79). If it is determined in step S79 that the target person 21 is "wake up" or "getting up", the output unit 116 performs necessary notification (step S80). The above steps S70 to S80 are executed for each frame until the system is completed (step S81).
 図8及び図9を参照して、判定部115による判定ロジックを説明する。図8は、ステップS79の行動判定処理の詳細フローであり、図9は、判定ロジックの一例であり、状態遷移と判定結果と通知設定の対応関係を示している。ここで、起床準備フラグは、状態0から遷移したことを確認するためのフラグ、離床準備フラグは、状態1から遷移したことを確認するためのフラグである。起床準備フラグと離床準備フラグは状態監視処理の起動時に「OFF」で初期化されるものとする。 The determination logic by the determination unit 115 will be described with reference to FIGS. 8 and 9. FIG. 8 is a detailed flow of the action determination process in step S79, and FIG. 9 is an example of the determination logic, showing the correspondence between the state transition, the determination result, and the notification setting. Here, the wake-up preparation flag is a flag for confirming transition from the state 0, and the bed-out preparation flag is a flag for confirming transition from the state 1. It is assumed that the wakeup preparation flag and the bed leaving preparation flag are initialized as "OFF" when the state monitoring process is started.
 現在の状態が「0」である場合(ステップS790;YES)、判定部115は、起床準備フラグと離床準備フラグを「ON」に設定する(ステップS791)。 If the current state is "0" (step S790; YES), the determination unit 115 sets the wakeup preparation flag and the bed leaving preparation flag to "ON" (step S791).
 現在の状態が「1」である場合(ステップS792;YES)、判定部115は、起床準備フラグが「ON」かどうかを確認し(ステップS793)、「ON」であれば、対象者21が起床したと判定し(ステップS794)、起床準備フラグを「OFF」に、離床準備フラグを「ON」にする(ステップS795)。 If the current state is “1” (step S 792: YES), the determination unit 115 confirms whether the wake-up preparation flag is “ON” (step S 793). If “ON”, the object person 21 is It is determined that the user gets up (step S794), the wake-up preparation flag is set to "OFF", and the bed-up preparation flag is set to "ON" (step S795).
 現在の状態が「2」である場合(ステップS796;YES)、判定部115は、離床準備フラグが「ON」かどうかを確認し(ステップS797)、「ON」であれば、対象者21が離床したと判定し(ステップS798)、起床準備フラグと離床フラグを「OFF」にする(ステップS799)。 If the current state is "2" (step S796; YES), the determination unit 115 confirms whether the bed leaving preparation flag is "ON" (step S797), and if "ON", the target person 21 is It is determined that the user has got out of bed (step S798), and the wake-up preparation flag and the release flag are set to "OFF" (step S799).
 以上のような判定ロジックによれば、図9に示すように、状態0から状態1に遷移した場合に「起床」と判定され、状態0又は状態1から状態2に遷移した場合に「離床」と判定される。それ以外の場合は、判定部115は判定結果を出力しないか、「異常なし」との結果を出力する。 According to the determination logic as described above, as shown in FIG. 9, when transitioning from state 0 to state 1, it is determined to be “wake up”, and when transitioning from state 0 or state 1 to state 2 is “leaving” It is determined that Otherwise, the determination unit 115 does not output the determination result or outputs the result of “no abnormality”.
 以上述べた本実施形態によれば、回帰器113により対象者21の状態推定を行うので、従来方法に比べて、対象者21の状態ないし行動を精度良く判定することができる。また、対象者21の一時的な状態ではなく、対象者21の状態の時間的な変化(状態遷移)に基づいて対象者21の起床行動や離床行動を判定するので、行動判定の精度を向上することができる。しかも、起床判定や離床判定がなされて通知が行われると、起床準備フラグや離床準備フラグが一旦「OFF」になるため、対象者21が再び就床状態等に戻らない限り、起床判定や離床判定が作動しない。よって、起床・離床通知の誤報を減らすことができ、システムの信頼性を向上することができる。 According to the present embodiment described above, since the state estimation of the target person 21 is performed by the regressor 113, the state or the behavior of the target person 21 can be determined with high accuracy as compared with the conventional method. In addition, since the wakeup behavior and the leaving behavior of the target person 21 are determined based on the temporal change (state transition) of the state of the target person 21 instead of the temporary state of the target person 21, the accuracy of action determination is improved. can do. Moreover, when the wakeup determination and the leave determination are made and the notification is made, the wakeup preparation flag and the stay preparation flag are temporarily set to "OFF", so the wakeup determination and the leave will be performed unless the target person 21 returns to the bed state etc. again. Judgment does not work. Therefore, false notification of wakeup and wakeup notification can be reduced, and the reliability of the system can be improved.
 <その他>
 上記の各実施形態の説明は、本発明を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。
<Others>
The above description of each embodiment merely illustrates the present invention. The present invention is not limited to the above specific embodiments, and various modifications are possible within the scope of the technical idea thereof.
 例えば、上記実施形態では、状態0から状態1に遷移した場合に起床と判定したが、これに代えて、状態0から状態1に遷移した後、状態1が所定時間(例えば1秒間)続いた場合に起床と判定してもよい。これにより起床判定の信頼性をより高めることができる。同様に、状態0又は状態1から状態2に遷移した後、状態2が所定時間(例えば1秒間)続いた場合に離床と判定してもよい。これにより離床判定の信頼性をより高めることができる。 For example, in the above embodiment, when it transits from the state 0 to the state 1, it is determined to be a wake up, but instead, the state 1 continues for a predetermined time (for example 1 second) after transitioning from the state 0 to the state 1 In this case, it may be determined that the user has got up. Thereby, the reliability of the wakeup determination can be further enhanced. Similarly, after transition from the state 0 or the state 1 to the state 2, if the state 2 continues for a predetermined time (for example, 1 second), it may be determined that the bed has left. Thereby, the reliability of the bed leaving determination can be further enhanced.
 上記実施形態では、画像から就床状態/起床状態/離床状態を推定するとともに、対象者の起床行動と離床行動を検知する例を説明した。ただし、推定対象の状態や、検知対象の行動はこれらに限られない。すなわち、画像に異なる特徴が現れるものであれば、さまざまな「人の状態」や「行動」を取り扱うことが可能である。例えば、食事、読書などの行動を検知することも可能である。 In the above-described embodiment, an example has been described in which the sleeping state / wake-up state / disengagement state is estimated from the image, and the wake-up behavior and the leaving behavior of the subject are detected. However, the state of the estimation target and the action of the detection target are not limited to these. That is, it is possible to handle various "human states" and "actions" as long as different features appear in the image. For example, it is also possible to detect actions such as eating and reading.
 1:見守り支援システム
 10:撮像装置、11:情報処理装置、12:学習装置
 100:照明、101:近赤外線カメラ、110:画像取得部、111:領域設定部、112:前処理部、113:回帰器、114:スコア安定化部、115:判定部、116:出力部、117:記憶部
 20:ベッド、21:対象者
 30:監視領域
1: Watch-over support system 10: imaging device, 11: information processing device, 12: learning device 100: illumination, 101: near infrared camera, 110: image acquisition unit, 111: area setting unit, 112: preprocessing unit, 113: Regressor, 114: Score stabilization unit, 115: Determination unit, 116: Output unit, 117: Storage unit 20: Bed, 21: Target person 30: Monitoring area

Claims (9)

  1.  ベッド上の対象者の見守りを支援する見守り支援システムであって、
     ベッドと人が写る画像を入力し、前記ベッドに対する前記人の状態を示すスコアを出力するように機械学習されている回帰器と、
     前記対象者のベッドを含む監視領域を撮影するように設置された撮像装置から画像を取得する画像取得部と、
     前記画像取得部により得られた前記監視領域の画像を前記回帰器に入力することにより得られたスコアに基づいて、前記対象者の行動を判定する判定部と、
     前記判定部の判定結果に基づく通知を行う出力部と、
    を有することを特徴とする見守り支援システム。
    It is a watching support system that supports watching of the target person on the bed,
    A regressor that is machine-learned to input an image of a bed and a person and output a score indicating the state of the person relative to the bed;
    An image acquisition unit configured to acquire an image from an imaging device installed to photograph a monitoring area including the bed of the subject;
    A determination unit that determines the action of the subject based on the score obtained by inputting the image of the monitoring area obtained by the image acquisition unit to the regressor;
    An output unit that makes a notification based on the determination result of the determination unit;
    A watching support system characterized by having.
  2.  前記回帰器は、ニューラルネットワークである
    ことを特徴とする請求項1に記載の見守り支援システム。
    The watching support system according to claim 1, wherein the regressor is a neural network.
  3.  前記ベッドに対する前記人の状態があらかじめ複数の類型に分類され、かつ、前記複数の類型のそれぞれに異なるスコアが割り当てられており、
     前記回帰器は、前記人の状態が2つの類型のあいだの状態である場合に、前記2つの類型のスコアのあいだの値を出力するように構成されている
    ことを特徴とする請求項1又は2に記載の見守り支援システム。
    The state of the person with respect to the bed is classified in advance into a plurality of types, and different scores are assigned to each of the plurality of types,
    The regressor is configured to output a value between the scores of the two types if the state of the person is a state between the two types. The watching support system described in 2.
  4.  前記複数の類型は、前記人が前記ベッドに寝ている状態0、前記人が前記ベッド上で起き上がっている状態1、および、前記人が前記ベッドから離れている状態2を含む
    ことを特徴とする請求項3に記載の見守り支援システム。
    The plurality of types include a state 0 in which the person sleeps in the bed, a state 1 in which the person stands up on the bed, and a state 2 in which the person leaves the bed. The watching support system according to claim 3.
  5.  前記判定部は、前記スコアにより推定された前記対象者の状態の時間的な変化に基づいて、前記対象者の行動を判定する
    ことを特徴とする請求項4に記載の見守り支援システム。
    5. The watching support system according to claim 4, wherein the determination unit determines an action of the subject based on a temporal change of the state of the subject estimated by the score.
  6.  前記判定部は、
      前記対象者の状態が前記状態0から前記状態1に遷移した場合、又は、
      前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1が所定時間続いた場合に、
    前記対象者が起床したと判定する
    ことを特徴とする請求項5に記載の見守り支援システム。
    The determination unit is
    When the state of the subject changes from the state 0 to the state 1, or
    When the state of the subject changes from the state 0 to the state 1 and the state 1 continues for a predetermined time,
    The watching support system according to claim 5, wherein it is determined that the target person has got up.
  7.  前記判定部は、
      前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1から前記状態2に遷移した場合、又は、
      前記対象者の状態が前記状態0から前記状態1に遷移し、さらに、前記状態1から前記状態2に遷移し、さらに、前記状態2が所定時間続いた場合に、又は、
      前記対象者の状態が前記状態0から前記状態2に遷移した場合、又は、
      前記対象者の状態が前記状態0から前記状態2に遷移し、さらに、前記状態2が所定時間続いた場合に、
    前記対象者が離床したと判定する
    ことを特徴とする請求項5又は6に記載の見守り支援システム。
    The determination unit is
    When the state of the subject changes from the state 0 to the state 1, and further from the state 1 to the state 2, or
    When the state of the subject changes from the state 0 to the state 1, and further changes from the state 1 to the state 2, and the state 2 continues for a predetermined time, or
    When the state of the subject changes from the state 0 to the state 2, or
    When the state of the subject changes from the state 0 to the state 2 and the state 2 continues for a predetermined time,
    7. The watching support system according to claim 5, wherein it is determined that the target person has left the bed.
  8.  ベッド上の対象者の見守りを支援する見守り支援システムの制御方法であって、
     前記対象者のベッドを含む監視領域を撮影するように設置された撮像装置から画像を取得するステップと、
     ベッドと人が写る画像を入力し前記ベッドに対する前記人の状態を示すスコアを出力するように機械学習されている回帰器に対し、前記監視領域の画像を入力するステップと、
     前記回帰器から得られたスコアに基づいて、前記対象者の行動を判定するステップと、
     判定結果に基づく通知を行うステップと、
    を有することを特徴とする見守り支援システムの制御方法。
    A control method of a watching support system for supporting watching of a target person on a bed,
    Acquiring an image from an imaging device installed to image a monitoring area including the bed of the subject;
    Inputting an image of the monitoring area into a regressor which is machine-learned to input an image including a bed and a person and output a score indicating the state of the person relative to the bed;
    Determining the behavior of the subject based on the score obtained from the regressor;
    Performing notification based on the determination result;
    A control method of a watching support system characterized by having.
  9.  請求項8に記載の見守り支援システムの制御方法の各ステップをコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the control method of the watching support system according to claim 8.
PCT/JP2018/021983 2017-06-23 2018-06-08 Monitoring assistance system, control method therefor, and program WO2018235628A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017123009A JP6822326B2 (en) 2017-06-23 2017-06-23 Watching support system and its control method
JP2017-123009 2017-06-23

Publications (1)

Publication Number Publication Date
WO2018235628A1 true WO2018235628A1 (en) 2018-12-27

Family

ID=64735938

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/021983 WO2018235628A1 (en) 2017-06-23 2018-06-08 Monitoring assistance system, control method therefor, and program

Country Status (2)

Country Link
JP (1) JP6822326B2 (en)
WO (1) WO2018235628A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2584644A (en) * 2019-06-05 2020-12-16 Peak Medtek Ltd A fall prevention device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7457625B2 (en) 2020-10-07 2024-03-28 パラマウントベッド株式会社 bed system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213528A (en) * 2006-02-13 2007-08-23 Sanyo Electric Co Ltd Action recognition system
JP2007241477A (en) * 2006-03-06 2007-09-20 Fuji Xerox Co Ltd Image processor
JP2015138460A (en) * 2014-01-23 2015-07-30 富士通株式会社 state recognition method and state recognition device
JP2016157219A (en) * 2015-02-24 2016-09-01 株式会社日立製作所 Image processing method, and image processor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213528A (en) * 2006-02-13 2007-08-23 Sanyo Electric Co Ltd Action recognition system
JP2007241477A (en) * 2006-03-06 2007-09-20 Fuji Xerox Co Ltd Image processor
JP2015138460A (en) * 2014-01-23 2015-07-30 富士通株式会社 state recognition method and state recognition device
JP2016157219A (en) * 2015-02-24 2016-09-01 株式会社日立製作所 Image processing method, and image processor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2584644A (en) * 2019-06-05 2020-12-16 Peak Medtek Ltd A fall prevention device
US11341832B2 (en) 2019-06-05 2022-05-24 Peak Medtek Limited Fall prevention device
GB2584644B (en) * 2019-06-05 2024-01-31 Peak Medtek Ltd A fall prevention device

Also Published As

Publication number Publication date
JP6822326B2 (en) 2021-01-27
JP2019008515A (en) 2019-01-17

Similar Documents

Publication Publication Date Title
JP6137425B2 (en) Image processing system, image processing apparatus, image processing method, and image processing program
JP6167563B2 (en) Information processing apparatus, information processing method, and program
US10786183B2 (en) Monitoring assistance system, control method thereof, and program
JP6915421B2 (en) Watching support system and its control method
JP6822328B2 (en) Watching support system and its control method
WO2015118953A1 (en) Information processing device, information processing method, and program
US11116423B2 (en) Patient monitoring system and method
JP6780641B2 (en) Image analysis device, image analysis method, and image analysis program
JP6952299B2 (en) Sleep depth judgment system, sleep depth judgment device and sleep depth judgment method
WO2018235628A1 (en) Monitoring assistance system, control method therefor, and program
JP6729510B2 (en) Monitoring support system and control method thereof
JP6870514B2 (en) Watching support system and its control method
US10762761B2 (en) Monitoring assistance system, control method thereof, and program
JP6607253B2 (en) Image analysis apparatus, image analysis method, and image analysis program
TWI697869B (en) Posture determination method, electronic system and non-transitory computer-readable recording medium
JP6729512B2 (en) Monitoring support system and control method thereof
US20220054046A1 (en) Assessing patient out-of-bed and out-of-chair activities using embedded infrared thermal cameras
JP6635074B2 (en) Watching support system and control method thereof
JP6292012B2 (en) Watch device, watch method and program
JP2023051147A (en) Nurse call system and state determination system
EP2939595A1 (en) A method and system for determining a movement of an object

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18821409

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18821409

Country of ref document: EP

Kind code of ref document: A1