JP7180601B2 - SLEEP STATE DETECTION DEVICE AND METHOD, AND MONITORED PERSON MONITORING SUPPORT SYSTEM - Google Patents

SLEEP STATE DETECTION DEVICE AND METHOD, AND MONITORED PERSON MONITORING SUPPORT SYSTEM Download PDF

Info

Publication number
JP7180601B2
JP7180601B2 JP2019535604A JP2019535604A JP7180601B2 JP 7180601 B2 JP7180601 B2 JP 7180601B2 JP 2019535604 A JP2019535604 A JP 2019535604A JP 2019535604 A JP2019535604 A JP 2019535604A JP 7180601 B2 JP7180601 B2 JP 7180601B2
Authority
JP
Japan
Prior art keywords
sleep state
sensor
detection
sleep
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019535604A
Other languages
Japanese (ja)
Other versions
JPWO2019031010A1 (en
Inventor
和馬 新田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2019031010A1 publication Critical patent/JPWO2019031010A1/en
Application granted granted Critical
Publication of JP7180601B2 publication Critical patent/JP7180601B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Alarm Systems (AREA)

Description

本発明は、睡眠状態を検出する睡眠状態検出装置および睡眠状態検出方法に関する。そして、本発明は、この睡眠状態検出装置を用いた被監視者監視支援システムに関する。 The present invention relates to a sleep state detection device and a sleep state detection method for detecting a sleep state. The present invention also relates to a monitored person monitoring support system using this sleeping state detection device.

医療や介護等の業界において、前記医療や介護等の対象者が健やかに睡眠しているか否かを確認する技術が要望されている。このような睡眠状態を検出する技術として、例えば、特許文献1や特許文献2に開示された技術がある。 2. Description of the Related Art In the medical and nursing care industries, there is a demand for a technique for confirming whether or not a person receiving medical care or nursing care is sleeping soundly. Techniques for detecting such a sleeping state include, for example, the techniques disclosed in Patent Literature 1 and Patent Literature 2.

この特許文献1に開示された睡眠深度判定装置は、所定の睡眠深度で睡眠状態にある対象者が知覚し得る最小の刺激強度である感覚閾値を利用して、前記対象者の睡眠深度を判定する睡眠深度判定装置であって、第1の刺激強度を有する第1の刺激と、前記第1の刺激強度よりも強い第2の刺激強度を有する第2の刺激とを前記対象者に付与する刺激付与手段と、前記対象者が前記第1の刺激及び前記第2の刺激を知覚したか否かを検出する知覚検出手段と、前記知覚検出手段によって、前記対象者が前記第1の刺激を知覚せず且つ前記第2の刺激を知覚したことが検出された場合に、前記対象者の睡眠深度が、前記第1の刺激強度と前記第2の刺激強度との間の感覚閾値に対応する睡眠深度であると判定する睡眠深度判定手段と、を備える。前記刺激付与手段は、対象者に対して物理的な刺激を付与する部分であり、例えば音による聴覚刺激を付与するスピーカがあり、音圧を調整することで刺激強度が変更される(特許文献1の[0023]段落)。 The sleep depth determination device disclosed in Patent Document 1 uses a sensory threshold, which is the minimum stimulus intensity that can be perceived by a subject in a sleep state at a predetermined sleep depth, to determine the depth of sleep of the subject. A device for determining depth of sleep, wherein a first stimulus having a first stimulus intensity and a second stimulus having a second stimulus intensity stronger than the first stimulus intensity are applied to the subject. The stimulus application means, the perception detection means for detecting whether or not the subject perceives the first stimulus and the second stimulus, and the perception detection means detect that the subject perceives the first stimulus. The subject's sleep depth corresponds to a sensory threshold between the first stimulus intensity and the second stimulus intensity when non-perceived and detected to perceive the second stimulus. and sleep depth determination means for determining that the sleep depth is determined. The stimulus imparting means is a part that imparts a physical stimulus to the subject. For example, there is a speaker that imparts an auditory stimulus with sound, and the stimulus intensity is changed by adjusting the sound pressure (Patent Document 1, paragraph [0023]).

前記特許文献2に開示された睡眠状態管理装置は、被測定者の体動によって前記被測定者の睡眠状態を管理する睡眠状態管理装置であって、前記被測定者が寝ている寝具の動きを検知するセンサ部と、前記センサ部からの検知信号を用いて前記被測定者の体動の有無を判定する体動判定部と、を備え、前記体動判定部は、前記検知信号を用いて体動なしと判定した体動なし期間又は前記検知信号を用いて体動ありと判定した体動あり期間が周期的に発生する第一の期間と、前記体動あり期間が所定時間以上続く第二の期間との少なくとも一方があった場合に、前記第一の期間における前記体動あり期間及び前記第二の期間の少なくとも一方を、体動なし期間として判定を修正する。 The sleep state management device disclosed in Patent Document 2 is a sleep state management device that manages the sleep state of the person to be measured based on the body movement of the person to be measured. and a body movement determination unit that determines whether or not there is body movement of the subject using a detection signal from the sensor unit, wherein the body movement determination unit uses the detection signal a first period in which a no-body-motion period in which it is determined that there is no body movement is periodically generated, or a period with body movement in which it is determined that there is body movement by using the detection signal, and the period with body-motion continues for a predetermined time or longer When there is at least one of the second period and the body motion period, at least one of the body movement period and the second period in the first period is corrected as a period without body movement.

前記特許文献1に開示された睡眠深度判定装置は、対象者に刺激を与えるアクティブ型であるため、対象者の睡眠を阻害する虞があるが、前記特許文献2に開示された睡眠状態管理装置は、被測定者が寝ている寝具の動きを検知するパッシブ型であるため、対象者の睡眠を阻害する虞が低減でき、この点で前記特許文献1に開示された睡眠深度判定装置より優れている。しかしながら、前記特許文献1に開示された睡眠深度判定装置も前記特許文献2に開示された睡眠状態管理装置も共に、対象者(被測定者)が睡眠していることを前提に、睡眠深度や睡眠状態を測定しているため、対象者(被測定者)が睡眠していない状態での、すなわち、覚醒中での、知覚検出手段やセンサ部からの出力信号によって、睡眠深度が悪い等の誤判定してしまう虞がある。 The sleep depth determination device disclosed in Patent Document 1 is an active type that stimulates the subject, so there is a risk of disturbing the subject's sleep, but the sleep state management device disclosed in Patent Document 2 Since the is a passive type that detects the movement of the bedding on which the subject is sleeping, the risk of disturbing the subject's sleep can be reduced, and in this respect it is superior to the sleep depth determination device disclosed in Patent Document 1. ing. However, both the sleep depth determination device disclosed in Patent Document 1 and the sleep state management device disclosed in Patent Document 2 are based on the premise that the subject (person to be measured) is sleeping. Since the sleep state is measured, when the subject (subject) is not asleep, that is, when the subject is awake, the output signal from the perception detection means or the sensor unit may cause the sleep depth to be poor. There is a risk of erroneous determination.

特開2010-200956号公報JP 2010-200956 A 特開2013-198654号公報JP 2013-198654 A

本発明は、上述の事情に鑑みて為された発明であり、その目的は、誤判定をより低減できる睡眠状態検出装置および睡眠状態検出方法、ならびに、この睡眠状態検出装置を用いた被監視者監視支援システムを提供することである。 The present invention has been made in view of the circumstances described above, and aims to provide a sleep state detection device and a sleep state detection method that can further reduce erroneous determinations, and a monitored person using this sleep state detection device. It is to provide a monitoring support system.

上述した目的を実現するために、本発明の一側面を反映した睡眠状態検出装置および睡眠状態検出方法ならびに被監視者監視支援システムは、第1および第2センサそれぞれで対象者を測定し、前記第1センサの第1測定結果に基づいて前記対象者の睡眠状態を判定し、前記第2センサの第2測定結果に基づいて検出タイミングを検知し、この検知結果に応じて前記睡眠状態の判定処理を制御する。 In order to achieve the above-described object, a sleep state detection device, a sleep state detection method, and a monitored person monitoring support system that reflect one aspect of the present invention measure a subject with first and second sensors, respectively, and Determining the sleep state of the subject based on the first measurement result of the first sensor, detecting detection timing based on the second measurement result of the second sensor, and determining the sleep state according to the detection result Control processing.

発明の1または複数の実施形態により与えられる利点および特徴は、以下に与えられる詳細な説明および添付図面から十分に理解される。これら詳細な説明及び添付図面は、例としてのみ与えられるものであり本発明の限定の定義として意図されるものではない。 The advantages and features provided by one or more embodiments of the invention will be fully appreciated from the detailed description and accompanying drawings provided below. These detailed descriptions and accompanying drawings are given by way of example only and are not intended as a definition of the limits of the invention.

実施形態における被監視者監視支援システムの構成を示す図である。It is a figure which shows the structure of the monitored person monitoring assistance system in embodiment. 前記被監視者監視支援システムにおける、実施形態の睡眠状態検出装置が組み込まれたセンサ装置の構成を示す図である。2 is a diagram showing the configuration of a sensor device in which the sleep state detection device of the embodiment is incorporated in the monitored person monitoring support system; FIG. サービスモードにおける、前記センサ装置の動作を示すフローチャートである。4 is a flowchart showing the operation of the sensor device in service mode; 図3に示す睡眠状態判定処理における、前記センサ装置の動作を示すフローチャートである。4 is a flowchart showing the operation of the sensor device in the sleep state determination process shown in FIG. 3; 図3に示す転落判定処理における、前記センサ装置の動作を示すフローチャートである。4 is a flowchart showing the operation of the sensor device in the fall determination process shown in FIG. 3; 図3に示す転倒判定処理における、前記センサ装置の動作を示すフローチャートである。4 is a flow chart showing the operation of the sensor device in the overturn determination process shown in FIG. 3; 図3に示す入床判定処理における、前記センサ装置の動作を示すフローチャートである。4 is a flow chart showing the operation of the sensor device in the bed entry determination process shown in FIG. 3; 図3に示す離床判定処理における、前記センサ装置の動作を示すフローチャートである。4 is a flowchart showing the operation of the sensor device in the bed leaving determination process shown in FIG. 3; 図3に示す微体動異常判定処理における、前記センサ装置の動作を示すフローチャートである。FIG. 4 is a flow chart showing the operation of the sensor device in the micro-motion abnormality determination process shown in FIG. 3; FIG. 前記端末装置に表示されるメイン画面の一例を示す図である。It is a figure which shows an example of the main screen displayed on the said terminal device. 前記端末装置に表示される第1設定画面の一例を示す図である。It is a figure which shows an example of the 1st setting screen displayed on the said terminal device. 前記端末装置に表示される第2設定画面の一例を示す図である。It is a figure which shows an example of the 2nd setting screen displayed on the said terminal device. 前記端末装置に表示される監視情報画面の一例を示す図である。It is a figure which shows an example of the monitoring information screen displayed on the said terminal device. 前記端末装置に表示される監視情報画面の他の一例を示す図である。It is a figure which shows another example of the monitoring information screen displayed on the said terminal device. 前記端末装置に表示される監視情報画面のさらに他の一例を示す図である。It is a figure which shows another example of the monitoring information screen displayed on the said terminal device.

以下、本発明にかかる実施の一形態を図面に基づいて説明する。しかしながら、発明の範囲は、開示された実施形態に限定されない。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。 BEST MODE FOR CARRYING OUT THE INVENTION An embodiment according to the present invention will be described below with reference to the drawings. However, the scope of the invention is not limited to the disclosed embodiments. It should be noted that the configurations denoted by the same reference numerals in each figure indicate the same configurations, and the description thereof will be omitted as appropriate. In the present specification, reference numerals with suffixes omitted are used when referring to generically, and reference numerals with suffixes are used when referring to individual configurations.

実施形態における被監視者監視支援システムは、対象者に対応して設けられ、前記対象者の睡眠状態を求めるセンサ装置、前記センサ装置と通信可能に接続され前記センサ装置から受信した睡眠状態を管理する中央処理装置、および、前記中央処理装置と通信可能に接続され前記中央処理装置を介して前記睡眠状態を受信して表示する端末装置を備え、前記対象者を被監視者として前記被監視者の監視を支援するための被監視者監視支援システムである。このセンサ装置は、本実施形態における睡眠状態検出装置を含む。この実施形態における睡眠状態検出装置は、対象者を測定する第1および第2センサと、睡眠状態処理として、前記第1センサの第1測定結果に基づいて前記対象者の睡眠状態を求める睡眠状態処理部と、前記第2センサの第2測定結果に基づいて検出タイミングを検知するタイミング検知部と、前記タイミング検知部の検知結果に応じて前記睡眠状態処理部を制御する処理制御部とを備える。このような睡眠状態検出装置は、前記タイミング検知部の検知結果に応じて前記睡眠状態処理部を制御するので、誤判定をより低減できる。そして、本実施形態では、被監視者(対象者)をより適切に監視する観点から、さらに、前記センサ装置は、前記被監視者(対象者)における所定の行動を検知し、前記中央処理装置は、前記センサ装置から受信した前記所定の行動に対する検知結果を管理し、前記端末装置は、前記中央処理装置を介して前記検知結果を受信して表示する。前記端末装置は、1種類の装置であって良いが、本実施形態態では、前記端末装置は、固定端末装置と携帯端末装置との2種類の装置である。これら固定端末装置と携帯端末装置との主な相違は、固定端末装置が固定的に運用される一方、携帯端末装置が例えば看護師や介護士等の監視者(ユーザ)に携行されて運用される点であり、これら固定端末装置と携帯端末装置とは、略同様である。 A monitored person monitoring support system according to an embodiment includes a sensor device that is provided corresponding to a subject to determine the sleep state of the subject, and a sleep state that is communicably connected to the sensor device and received from the sensor device. and a terminal device that is communicably connected to the central processing unit and receives and displays the sleep state via the central processing unit, wherein the subject is the monitored person. It is a monitored person monitoring support system for supporting the monitoring of. This sensor device includes the sleep state detection device in this embodiment. The sleep state detection device in this embodiment includes first and second sensors for measuring a subject, and sleep state processing for determining the sleep state of the subject based on the first measurement result of the first sensor. A processing unit, a timing detection unit that detects detection timing based on the second measurement result of the second sensor, and a processing control unit that controls the sleep state processing unit according to the detection result of the timing detection unit. . Since such a sleep state detection device controls the sleep state processing unit according to the detection result of the timing detection unit, erroneous determination can be further reduced. Further, in the present embodiment, from the viewpoint of more appropriately monitoring the person being monitored (subject), the sensor device detects a predetermined action of the person being monitored (subject), and the central processing unit manages the detection result of the predetermined action received from the sensor device, and the terminal device receives and displays the detection result via the central processing unit. The terminal device may be one type of device, but in this embodiment, the terminal device is two types of devices, a fixed terminal device and a mobile terminal device. The main difference between these fixed terminal devices and mobile terminal devices is that while fixed terminal devices are used in a fixed manner, mobile terminal devices are carried and operated by supervisors (users) such as nurses and caregivers. In that respect, the fixed terminal device and the mobile terminal device are substantially the same.

図1は、実施形態における被監視者監視支援システムの構成を示す図である。図2は、前記被監視者監視支援システムにおける、実施形態の睡眠状態検出装置が組み込まれたセンサ装置の構成を示す図である。 FIG. 1 is a diagram showing the configuration of a monitored person monitoring support system according to an embodiment. FIG. 2 is a diagram showing the configuration of a sensor device in which the sleep state detection device of the embodiment is incorporated in the monitored person monitoring support system.

より具体的には、被監視者監視支援システムMSは、例えば、図1に示すように、1または複数のセンサ装置SU(SU-1~SU-4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA-1、TA-2)と、構内交換機(PBX、Private branch exchange)CXとを備え、これらは、有線や無線で、LAN(Local Area Network)等の網(ネットワーク、通信回線)NWを介して通信可能に接続される。ネットワークNWは、通信信号を中継する例えばリピーター、ブリッジおよびルーター等の中継機が備えられても良い。図1に示す例では、これら複数のセンサ装置SU-1~SU-4、管理サーバ装置SV、固定端末装置SP、複数の携帯端末装置TA-1、TA-2および構内交換機CXは、L2スイッチの集線装置(ハブ、HUB)LSおよびアクセスポイントAPを含む有線および無線の混在したLAN(例えばIEEE802.11規格に従ったLAN等)NWによって互いに通信可能に接続されている。より詳しくは、複数のセンサ装置SU-1~SU-4、管理サーバ装置SV、固定端末装置SPおよび構内交換機CXは、集線装置LSに接続され、複数の携帯端末装置TA-1、TA-2は、アクセスポイントAPを介して集線装置LSに接続されている。そして、ネットワークNWは、TCP(Transmission control protocol)およびIP(Internet protocol)等のインターネットプロトコル群が用いられることによっていわゆるイントラネットを構成する。 More specifically, the monitored person monitoring support system MS includes, for example, one or more sensor devices SU (SU-1 to SU-4), a management server device SV, a fixed terminal, A device SP, one or a plurality of portable terminal devices TA (TA-1, TA-2), and a private branch exchange (PBX, Private branch exchange) CX, which are wired or wirelessly connected to a LAN (Local Area Network). ), etc., are communicably connected via a network (network, communication line) NW. The network NW may be provided with repeaters such as repeaters, bridges and routers for relaying communication signals. In the example shown in FIG. 1, the plurality of sensor devices SU-1 to SU-4, the management server device SV, the fixed terminal device SP, the plurality of mobile terminal devices TA-1 and TA-2, and the private branch exchange CX are L2 switches. are communicably connected to each other by a mixed wired and wireless LAN (for example, a LAN conforming to the IEEE 802.11 standard) NW including a line concentrator (hub, HUB) LS and an access point AP. More specifically, a plurality of sensor devices SU-1 to SU-4, a management server device SV, a fixed terminal device SP and a private branch exchange CX are connected to a line concentrator LS, and connected to a plurality of mobile terminal devices TA-1 and TA-2. is connected to the concentrator LS via an access point AP. The network NW constitutes a so-called intranet by using Internet protocols such as TCP (Transmission control protocol) and IP (Internet protocol).

構内交換機(回線切換機)CXは、ネットワークNWに接続され、携帯端末装置TA同士における発信、着信および通話等の内線電話の制御を行って前記携帯端末装置TA同士の内線電話を実施し、そして、例えば固定電話網や携帯電話網等の公衆電話網PNを介して例えば固定電話機や携帯電話機等の外線電話機TLに接続され、外線電話機TLと携帯端末装置TAとの間における発信、着信および通話等の外線電話の制御を行って外線電話機TLと携帯端末装置TAとの間における外線電話を実施する装置である。構内交換機CXは、例えば、デジタル交換機や、IP-PBX(Internet Protocol Private Branch eXchange)等である。 The private branch exchange (circuit switch) CX is connected to the network NW, controls extension calls such as outgoing calls, incoming calls, and conversations between the mobile terminal devices TA, implements extension calls between the mobile terminal devices TA, and , for example, is connected to an outside line telephone TL such as a fixed telephone or a mobile telephone via a public telephone network PN such as a fixed telephone network or a mobile telephone network, and originating, receiving and calling between the outside telephone TL and the mobile terminal device TA. It is a device that performs outside line telephone calls between the outside line telephone TL and the mobile terminal device TA by controlling outside line telephones such as the mobile terminal device TA. The private branch exchange CX is, for example, a digital exchange or an IP-PBX (Internet Protocol Private Branch Exchange).

被監視者監視支援システムMSは、被監視者(対象者)Obに応じて適宜な場所に配設される。被監視者(見守り対象者)Obは、例えば、病気や怪我等によって看護を必要とする者や、身体能力の低下等によって介護を必要とする者や、一人暮らしの独居者等である。特に、早期発見と早期対処とを可能にする観点から、被監視者Obは、例えば異常状態等の所定の不都合な事象がその者に生じた場合にその発見を必要としている者であることが好ましい。このため、被監視者監視支援システムMSは、被監視者Obの種類に応じて、病院、老人福祉施設および住戸等の建物に好適に配設される。図1に示す例では、被監視者監視支援システムMSは、複数の被監視者Obが入居する複数の居室RMや、ナースステーション等の複数の部屋を備える介護施設の建物に配設されている。 The monitored person monitoring support system MS is arranged at an appropriate place according to the monitored person (target person) Ob. The monitored person (person to be watched over) Ob is, for example, a person who needs nursing care due to illness or injury, a person who needs nursing care due to a decline in physical ability, a solitary person living alone, or the like. In particular, from the viewpoint of enabling early detection and early countermeasures, the monitored person Ob should be a person who needs to be found when a predetermined inconvenient event, such as an abnormal condition, occurs to him or her. preferable. Therefore, the monitored person monitoring support system MS is preferably installed in buildings such as hospitals, welfare facilities for the elderly, and dwelling units according to the type of the monitored person Ob. In the example shown in FIG. 1, the monitored person monitoring support system MS is installed in a building of a nursing care facility having a plurality of rooms RM in which a plurality of monitored persons Ob reside and a plurality of rooms such as a nurse station. .

センサ装置SUは、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能等を備え、被監視者Obに関わる所定のイベントを検知してこの検知した前記イベントを管理サーバ装置SVへ通知し、端末装置SP、TAとの間で音声通話を行い、そして、動画を含む画像を生成して端末装置SP、TAへ動画を配信する装置である。前記所定のイベント(事象)は、好ましくは、対処(対応)が必要なイベントを含む。本実施形態では、前記所定のイベントは、被監視者Obにおける睡眠状態、被監視者Obにおける、予め設定された所定の行動、および、ナースコールを含む。このようなセンサ装置SUは、例えば、図2に示すように、センサ部11と、センサ側音入出力部(SU音入出力部)12と、ナースコール受付操作部13と、センサ側制御処理部(SU制御処理部)14と、センサ側通信インターフェース部(SU通信IF部)15と、センサ側記憶部(SU記憶部)16とを備える。 The sensor device SU has a communication function or the like to communicate with other devices SV, SP, and TA via the network NW, detects a predetermined event related to the person to be monitored Ob, and reports the detected event to the management server device SV. , performs voice communication with the terminal devices SP and TA, generates images including moving images, and distributes the moving images to the terminal devices SP and TA. The predetermined event (phenomenon) preferably includes an event requiring a countermeasure (response). In this embodiment, the predetermined event includes the sleep state of the monitored person Ob, a preset predetermined action of the monitored person Ob, and a nurse call. For example, as shown in FIG. 2, such a sensor device SU includes a sensor unit 11, a sensor-side sound input/output unit (SU sound input/output unit) 12, a nurse call reception operation unit 13, and a sensor-side control processing unit. section (SU control processing section) 14 , sensor side communication interface section (SU communication IF section) 15 , and sensor side storage section (SU storage section) 16 .

センサ部11は、SU制御処理部14に接続され、SU制御処理部14の制御に従って、被監視者Obにおける予め設定された所定の諸量を測定する装置である。本実施形態では、センサ部11は、被監視者Obの睡眠状態を判定するために、対象者を測定する第1センサを備え、被監視者Obにおける前記所定の行動を判定するために、対象者を測定する第2センサを備える。 The sensor unit 11 is a device that is connected to the SU control processing unit 14 and measures various preset values of the monitored person Ob under the control of the SU control processing unit 14 . In the present embodiment, the sensor unit 11 includes a first sensor that measures the target person in order to determine the sleep state of the monitored person Ob, and measures the target person Ob in order to determine the predetermined behavior of the monitored person Ob. A second sensor is provided for measuring the person.

前記第1センサは、本実施形態では呼吸状態に基づいて被監視者Obの睡眠状態を判定するため、被監視者Obの呼吸を前記所定の諸量の1つとして測定できる任意の種類の装置であって良い。前記第1センサは、例えば、手首等に装着して脈拍を測る脈拍計等であって良いが、本実施形態では、被監視者Obに対し非接触で呼吸を測定できることから、ドップラセンサ112を備えて構成される。 Since the first sensor determines the sleep state of the monitored person Ob based on the respiratory state in this embodiment, any type of device that can measure the breathing of the monitored person Ob as one of the predetermined quantities. can be The first sensor may be, for example, a pulse meter that is worn on the wrist or the like to measure the pulse. configured with.

前記所定の行動は、例えば、本実施形態では、被監視者Obが寝具BDに入った入床、被監視者Obが寝具BDから離れた離床、被監視者Obが寝具BDから落ちた転落、被監視者Obが寝具BD外で倒れた転倒、および、被監視者の呼吸による微体動の異常である微体動異常を含む。前記第2センサは、このような所定の行動を判定できる任意の装置であって良い。本実施形態では、前記所定の行動は、入床、離床、転落および転倒を含む第1グループと、微体動異常を含む第2グループとに分けられ、前記第2センサは、前記第1グループに属する第1行動(本実施形態では入床、離床、転落および転倒)を検知するための第1サブセンサと、前記第2グループに属する第2行動(本実施形態では微体動異常)を検知するための第2サブセンサとを含む。前記第1サブセンサは、例えば、温度分布から人物領域を抽出できるサーモグラフィー装置や、距離分布から人物領域を抽出できる距離画像センサ等であっても良いが、本実施形態では、画像に基づいて前記第1グループに属する前記第1行動を判定するので、画像を前記所定の諸量の1つとして生成するカメラ111を備えて構成される。前記第2サブセンサは、本実施形態では、呼吸状態に基づいて前記第2グループに属する前記第2行動を判定するので、被監視者Obの呼吸を前記所定の諸量の1つとして測定できる装置であり、例えば、ドップラセンサ112を備えて構成される。すなわち、本実施形態では、ドップラセンサ112は、前記第1センサと前記第2サブセンサとに兼用されている。 For example, in the present embodiment, the predetermined actions include entering the bed when the monitored person Ob enters the bedding BD, leaving the bed when the monitored person Ob leaves the bedding BD, falling when the monitored person Ob falls off the bedding BD, This includes a fall in which the monitored person Ob falls outside the bedding BD, and an abnormality in microbody movement caused by breathing of the monitored person. The second sensor may be any device capable of determining such predetermined behavior. In the present embodiment, the predetermined behavior is divided into a first group including bed entry, bed leaving, falling and falling, and a second group including micromotion abnormality, and the second sensor is divided into the first group A first sub-sensor for detecting a first action (in this embodiment, getting into bed, getting out of bed, falling, and falling), and detecting a second action (in this embodiment, abnormal microbody movement) belonging to the second group. and a second sub-sensor for. The first sub-sensor may be, for example, a thermography device capable of extracting a human area from a temperature distribution, a distance image sensor capable of extracting a human area from a distance distribution, or the like. Since the first action belonging to one group is determined, it is configured with a camera 111 that generates an image as one of the predetermined quantities. In the present embodiment, the second sub-sensor determines the second behavior belonging to the second group based on the respiratory state, so the apparatus can measure the breathing of the monitored person Ob as one of the predetermined quantities. and is configured with a Doppler sensor 112, for example. That is, in this embodiment, the Doppler sensor 112 is used both as the first sensor and the second sub-sensor.

このように本実施形態では、センサ部11は、カメラ111と、ドップラセンサ112とを備える。 Thus, in this embodiment, the sensor unit 11 includes the camera 111 and the Doppler sensor 112 .

カメラ111は、SU制御処理部14に接続され、SU制御処理部14の制御に従って、画像(画像データ)を生成する装置である。前記画像には、静止画(静止画データ)および動画(動画データ)が含まれる。カメラ111は、被監視者Obが所在を予定している空間(所在空間、図1に示す例では配設場所の居室RM)を監視可能に配置され、前記所在空間を撮像対象としてその上方から撮像し、前記撮像対象を俯瞰した画像(画像データ)を生成し、前記撮像対象の画像(対象画像)をSU制御処理部14へ出力する。好ましくは、被監視者Ob全体を撮像できる蓋然性が高いことから、カメラ111は、被監視者Obが横臥する寝具(例えばベッド等)BDにおける、被監視者Obの頭部が位置すると予定されている予め設定された頭部予定位置(通常、枕の配設位置)の直上から撮像対象を撮像できるように配設される。センサ装置SUは、このカメラ111によって、被監視者Obを、被監視者Obの上方から撮像した画像、好ましくは前記頭部予定位置の直上から撮像した画像を取得する。 The camera 111 is a device that is connected to the SU control processing unit 14 and generates an image (image data) under the control of the SU control processing unit 14 . The images include still images (still image data) and moving images (moving image data). The camera 111 is arranged so as to be able to monitor the space where the person to be monitored Ob is supposed to be located (located space, in the example shown in FIG. 1, the living room RM of the installation location). It captures an image, generates an image (image data) of a bird's-eye view of the imaging target, and outputs the image of the imaging target (target image) to the SU control processing unit 14 . Preferably, since there is a high probability that the entire monitored person Ob can be imaged, the camera 111 is set so that the head of the monitored person Ob is positioned in the bedding (for example, a bed) BD on which the monitored person Ob lies. It is arranged so that an image of the object to be imaged can be imaged from directly above a predetermined head position (usually, the position where a pillow is arranged). The sensor unit SU acquires an image of the monitored person Ob from above the monitored person Ob, preferably from directly above the expected head position, using the camera 111 .

このようなカメラ111は、可視光の画像を生成する装置であって良いが、比較的暗がりでも被監視者Obを監視できるように、本実施形態では、赤外線の画像を生成するデジタル赤外線カメラである。このようなデジタル赤外線カメラ111は、例えば、本実施形態では、撮像対象における赤外の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記撮像対象における赤外の光学像を電気的な信号に変換するイメージセンサ、および、イメージセンサの出力を画像処理することで前記撮像対象における赤外の画像を表すデータである画像データを生成する画像処理部等を備えて構成される。カメラ111の前記結像光学系は、本実施形態では、その配設された居室RM全体を撮像できる画角を持つ広角な光学系(いわゆる広角レンズ(魚眼レンズを含む))であることが好ましい。 Such a camera 111 may be a device that generates a visible light image, but in this embodiment, a digital infrared camera that generates an infrared image is used so that the monitored person Ob can be monitored even in relatively dark conditions. be. For example, in this embodiment, the digital infrared camera 111 includes an imaging optical system that forms an infrared optical image of an object to be imaged on a predetermined imaging plane, and a light receiving surface that matches the imaging plane. and an image sensor that converts an infrared optical image of the imaging target into an electrical signal, and an image that is data representing the infrared image of the imaging target by image processing the output of the image sensor. It is configured by including an image processing unit for generating data and the like. In this embodiment, the imaging optical system of the camera 111 is preferably a wide-angle optical system (a so-called wide-angle lens (including a fisheye lens)) capable of imaging the entire room RM in which it is installed.

ドップラセンサ112は、SU制御処理部14に接続され、SU制御処理部14の制御に従って、被監視者Obにおける、呼吸に伴う胸部の体表の動きを測定する装置である。ドップラセンサ112は、送信波を送信し、物体で反射した前記送信波の反射波を受信し、前記送信波と前記反射波とに基づいてドップラ周波数成分のドップラ信号を出力する体動センサである。前記物体が動いている場合、いわゆるドップラ効果により前記物体の動いている速度に比例して反射波の周波数がシフトするため、送信波の周波数と反射波の周波数とに差(ドップラ周波数成分)が生じる。ドップラセンサ112は、このドップラ周波数成分の信号をドップラ信号として所定のサンプリングレートで生成し、SU制御処理部14へ出力する。SU制御処理部14は、ドップラセンサ112からドップラ信号を受信すると、この受信したドップラ信号を時系列でSU記憶部16に記憶する。前記送信波は、超音波やマイクロ波等であって良いが、本実施形態では、マイクロ波である。マイクロ波は、着衣を透過して被監視者Obの体表で反射できるため、被監視者Obが衣服を着ていても体表の動きを検知でき、好ましい。 The Doppler sensor 112 is a device that is connected to the SU control processing unit 14 and measures movement of the body surface of the chest associated with respiration in the monitored person Ob according to the control of the SU control processing unit 14 . The Doppler sensor 112 is a body motion sensor that transmits a transmitted wave, receives a reflected wave of the transmitted wave reflected by an object, and outputs a Doppler signal of a Doppler frequency component based on the transmitted wave and the reflected wave. . When the object is in motion, the frequency of the reflected wave shifts in proportion to the speed at which the object is moving due to the so-called Doppler effect. occur. The Doppler sensor 112 generates a signal of this Doppler frequency component as a Doppler signal at a predetermined sampling rate and outputs it to the SU control processing unit 14 . Upon receiving the Doppler signal from the Doppler sensor 112, the SU control processing unit 14 stores the received Doppler signal in the SU storage unit 16 in chronological order. The transmission waves may be ultrasonic waves, microwaves, or the like, but in this embodiment, they are microwaves. Microwaves can be transmitted through clothes and reflected by the body surface of the monitored person Ob, so even if the monitored person Ob is wearing clothes, the movement of the body surface can be detected, which is preferable.

SU音入出力部12は、SU制御処理部14に接続され、外部の音を取得してセンサ装置SUに入力するための回路であって、SU制御処理部14の制御に従って音を表す電気信号に応じた音を生成して出力するための回路である。SU音入出力部12は、例えば、音の音響振動を電気信号に変換するマイクロホン等と、音の電気信号を音の音響振動に変換するスピーカ等とを備えて構成される。SU音入出力部12は、外部の音を表す電気信号をSU制御処理部14へ出力し、また、SU制御処理部14から入力された電気信号を音の音響振動に変換して出力する。 The SU sound input/output unit 12 is a circuit connected to the SU control processing unit 14 for acquiring external sounds and inputting them to the sensor unit SU. It is a circuit for generating and outputting a sound according to the The SU sound input/output unit 12 includes, for example, a microphone or the like that converts acoustic vibration of sound into an electric signal, and a speaker or the like that converts the electric signal of sound into acoustic vibration of sound. The SU sound input/output unit 12 outputs an electrical signal representing an external sound to the SU control processing unit 14, converts the electrical signal input from the SU control processing unit 14 into an acoustic vibration of sound, and outputs the acoustic vibration.

ナースコール受付操作部13は、SU制御処理部14に接続され、ナースコールを当該センサ装置SUに入力するための例えば押しボタン式スイッチ等のスイッチ回路である。なお、ナースコール受付操作部13は、有線でSU制御処理部14に接続されて良く、また、例えばBluetooth(登録商標)規格等の近距離無線通信でSU制御処理部14に接続されて良い。 The nurse call reception operation unit 13 is connected to the SU control processing unit 14 and is a switch circuit such as a push-button switch for inputting a nurse call to the sensor unit SU. The nurse call reception operation unit 13 may be connected to the SU control processing unit 14 by wire, or may be connected to the SU control processing unit 14 by short-range wireless communication such as the Bluetooth (registered trademark) standard.

SU通信IF部15は、SU制御処理部14に接続され、SU制御処理部14の制御に従って通信を行うための通信回路である。SU通信IF部15は、SU制御処理部14から入力された転送すべきデータを収容した通信信号を、この被監視者監視支援システムMSのネットワークNWで用いられる通信プロトコルに従って生成し、この生成した通信信号をネットワークNWを介して他の装置SV、SP、TAへ送信する。SU通信IF部15は、ネットワークNWを介して他の装置SV、SP、TAから通信信号を受信し、この受信した通信信号からデータを取り出し、この取り出したデータをSU制御処理部14が処理可能な形式のデータに変換してSU制御処理部14へ出力する。SU通信IF部15は、例えば、IEEE802.11規格等に従った通信インターフェース回路を備えて構成される。 The SU communication IF unit 15 is a communication circuit that is connected to the SU control processing unit 14 and performs communication under the control of the SU control processing unit 14 . SU communication IF unit 15 generates a communication signal containing data to be transferred input from SU control processing unit 14 according to a communication protocol used in network NW of monitored person monitoring support system MS, and generates a It transmits communication signals to other devices SV, SP, TA via the network NW. The SU communication IF unit 15 receives communication signals from other devices SV, SP, and TA via the network NW, extracts data from the received communication signals, and the SU control processing unit 14 can process the extracted data. format data and output to the SU control processing unit 14 . The SU communication IF unit 15 includes, for example, a communication interface circuit complying with the IEEE802.11 standard.

SU記憶部16は、SU制御処理部14に接続され、SU制御処理部14の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御するSU制御プログラムや、睡眠状態処理として、センサ部11の出力に基づいて被監視者Obの睡眠状態を求める睡眠状態処理プログラムや、センサ部11の出力に基づいて検出タイミングを検知し、前記センサ部11の出力に基づいて被監視者Obにおける所定の行動を判定して管理サーバ装置SVへ通知する行動検知処理プログラム(タイミング検知プログラム)や、前記タイミング検知プログラム(行動検知処理プログラム)の検知結果に応じて前記睡眠状態処理プログラムを制御する処理制御プログラムや、ナースコール受付操作部13でナースコールを受け付けた場合にその旨を管理サーバ装置SVへ通知し、SU音入出力部12等を用いることで端末装置SP、TAとの間で音声通話を行うナースコール処理プログラムや、カメラ111で生成した動画を、その動画を要求した端末装置SP、TAへストリーミングで配信するストリーミング処理プログラム等の制御処理プログラムが含まれる。前記各種の所定のデータには、自機の、センサ装置SUを特定し識別するための識別子であるセンサ装置識別子(センサID)、および、管理サーバ装置SVの通信アドレス等の各プログラムを実行する上で必要なデータ等が含まれる。SU記憶部16は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、SU記憶部16は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆるSU制御処理部14のワーキングメモリとなるRAM(Random Access Memory)等を含む。 The SU storage unit 16 is a circuit that is connected to the SU control processing unit 14 and stores various prescribed programs and various prescribed data under the control of the SU control processing unit 14 . The various predetermined programs include, for example, an SU control program for controlling each part of the sensor device SU according to the function of each part, and sleep state processing for the monitored person Ob based on the output of the sensor unit 11. The detection timing is detected based on the sleep state processing program for obtaining the sleep state and the output of the sensor unit 11, and the predetermined behavior of the monitored person Ob is determined based on the output of the sensor unit 11, and sent to the management server device SV. A behavior detection processing program (timing detection program) to be notified, a processing control program for controlling the sleep state processing program according to the detection result of the timing detection program (behavior detection processing program), and a nurse call reception operation unit 13 A nurse call processing program that notifies the management server device SV when a call is accepted and performs a voice call between the terminal devices SP and TA by using the SU sound input/output unit 12 or the like; It includes a control processing program such as a streaming processing program for streaming the generated moving image to the terminal device SP or TA that requested the moving image. The various predetermined data include a sensor device identifier (sensor ID), which is an identifier for specifying and identifying the sensor device SU of the device itself, and a communication address of the management server device SV. It contains the data necessary for the above. The SU storage unit 16 includes, for example, a ROM (Read Only Memory) that is a non-volatile storage element, an EEPROM (Electrically Erasable Programmable Read Only Memory) that is a rewritable non-volatile storage element, and the like. The SU storage unit 16 includes a RAM (Random Access Memory) or the like that serves as a so-called working memory of the SU control processing unit 14 that stores data generated during execution of the predetermined program.

SU制御処理部14は、センサ装置SUの各部11~13、15、16を当該各部の機能に応じてそれぞれ制御し、被監視者Obに関わる所定のイベントを検知してこの検知した前記イベントを管理サーバ装置SVへ通知し、端末装置SP、TAとの間で音声通話を行い、そして、動画を含む画像を生成して端末装置SP、TAへ動画を配信するための回路である。SU制御処理部14は、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。SU制御処理部14は、前記制御処理プログラムが実行されることによって、センサ側制御部(SU制御部)141、睡眠状態処理部142、行動検知処理部(タイミング検知部)143、処理制御部144、ナースコール処理部145およびストリーミング処理部146を機能的に備える。 The SU control processing unit 14 controls each unit 11 to 13, 15, and 16 of the sensor unit SU according to the function of each unit, detects a predetermined event related to the monitored person Ob, and detects the detected event. This is a circuit for notifying the management server device SV, making a voice call with the terminal devices SP and TA, generating an image including a moving image, and distributing the moving image to the terminal devices SP and TA. The SU control processing unit 14 is composed of, for example, a CPU (Central Processing Unit) and its peripheral circuits. By executing the control processing program, the SU control processing unit 14 includes a sensor-side control unit (SU control unit) 141, a sleep state processing unit 142, an action detection processing unit (timing detection unit) 143, and a processing control unit 144. , a nurse call processing unit 145 and a streaming processing unit 146 are functionally provided.

SU制御部141は、センサ装置SUの各部11~13、15、16を当該各部の機能に応じてそれぞれ制御し、センサ装置SUの全体制御を司るものである。 The SU control section 141 controls the respective sections 11 to 13, 15, and 16 of the sensor device SU according to the functions of the respective sections, and governs the overall control of the sensor device SU.

睡眠状態処理部142は、睡眠状態処理として、センサ部11の出力、すなわち、前記第1センサの第1測定結果に基づいて被監視者Obの睡眠状態を求めて管理サーバ装置SVへ通知するものである。より具体的には、睡眠状態処理部142は、前記第1センサの第1測定結果に基づいて、被監視者Obの睡眠の深さの度合いを表す睡眠度を前記睡眠状態として求める。本実施形態では、睡眠状態処理部142は、予め設定された所定の時間間隔で、前記第1センサの一例であるドップラセンサ112のドップラ信号に基づいて睡眠状態を求める。より具体的には、睡眠状態処理部142は、測定時点から過去へ、所定時間(例えば1分や2分等)内に測定されたドップラ信号を例えば高速フーリエ変換(FFT)し、このFFTで得られたスペクトルから、一般的な呼吸の周波数に対応する周波数帯における振幅の平均値を求め、この求めた平均値と睡眠度を決めるための閾値(睡眠度区分閾値)とを比較することによって前記睡眠度を前記睡眠状態として仮に求め、前記仮に求めた睡眠度が、予め設定された継続判定時間、継続している場合に、前記仮に求めた睡眠度を最終的な睡眠度として決定する。そして、睡眠状態処理部142は、状態変数を最終的に決定した睡眠度で更新する。前記状態変数は、睡眠状態処理部142で求めた睡眠度および後述の行動検知処理部143で求めた所定の行動を格納する変数である。前記睡眠度区分閾値は、例えば、複数のサンプルを用いて適宜に設定される。本実施形態では、睡眠度は、覚醒中、眠りが相対的に浅い低睡眠度、および、眠りが相対的に深い高睡眠度であるので、前記睡眠度区分閾値は、これら覚醒中、低睡眠度および高睡眠度の3段階に分けるために、2個の第1および第2睡眠度区分閾値を含む。なお、前記睡眠度区分閾値は、さらに多段階に分けるために、3個以上の複数であって良い。覚醒中と低睡眠度とを弁別する第1睡眠度区分閾値は、低睡眠度と高睡眠度とを弁別する第2睡眠度区分閾値より大きな値に設定される(第1睡眠度区分閾値>第2睡眠度区分閾値)。 As sleep state processing, the sleep state processing unit 142 obtains the sleep state of the monitored person Ob based on the output of the sensor unit 11, that is, the first measurement result of the first sensor, and notifies the management server device SV of the sleep state. is. More specifically, the sleep state processing unit 142 obtains the degree of sleep representing the depth of sleep of the monitored person Ob as the sleep state based on the first measurement result of the first sensor. In this embodiment, the sleep state processing unit 142 obtains the sleep state based on the Doppler signal from the Doppler sensor 112, which is an example of the first sensor, at predetermined time intervals. More specifically, the sleep state processing unit 142 performs, for example, a fast Fourier transform (FFT) on Doppler signals measured within a predetermined time (for example, 1 minute or 2 minutes) from the time of measurement to the past, and with this FFT From the obtained spectrum, the average value of the amplitude in the frequency band corresponding to the general respiration frequency is obtained, and the obtained average value is compared with the threshold for determining the degree of sleep (sleep degree classification threshold). The sleep degree is provisionally obtained as the sleep state, and when the provisionally obtained sleep degree continues for a preset continuation determination time, the provisionally obtained sleep degree is determined as the final sleep degree. Then, the sleep state processing unit 142 updates the state variable with the finally determined degree of sleep. The state variable is a variable that stores the degree of sleep obtained by the sleep state processing unit 142 and a predetermined behavior obtained by the behavior detection processing unit 143, which will be described later. The sleep degree classification threshold is appropriately set using, for example, a plurality of samples. In the present embodiment, the sleep level is during wakefulness, a low sleep level in which sleep is relatively light, and a high sleep level in which sleep is relatively deep. It includes two first and second sleep intensity segmentation thresholds to divide into three stages of high sleep intensity and high sleep intensity. Note that the sleep degree classification threshold may be three or more in order to further divide into multiple stages. The first sleep level threshold for discriminating between awake and low sleep levels is set to a value larger than the second sleep level threshold for discriminating between low sleep levels and high sleep levels (first sleep level threshold> second sleep degree classification threshold).

このように睡眠状態(本実施形態では睡眠度)を求めると、睡眠状態処理部142は、被監視者Obに関わる所定のイベント(事象)の内容を表すイベント情報(事象情報)を収容した、前記イベントを通知するための通信信号(第1イベント通知通信信号)をSU通信IF部15で管理サーバ装置SVへ通知する。より詳しくは、睡眠状態処理部142は、自機のセンサID、および、前記イベントの内容を表すイベント情報を収容した第1イベント通知通信信号を、SU通信IF部15を介して管理サーバ装置SVへ送信する。前記イベント情報は、本実施形態では、睡眠度(覚醒中、低睡眠度、高睡眠度)、入床、離床、転落、転倒、微体動異常およびナースコール(NC)のうちの1または複数であり、ここでは、睡眠状態処理部142は、前記求めた睡眠度(覚醒中、低睡眠度、高睡眠度)を前記イベント情報として第1イベント通知通信信号に収容する。なお、睡眠状態処理部142は、睡眠度を求めると、カメラ111に画像を生成させ、この画像を第1イベント通知通信信号にさらに収容しても良い。前記画像は、静止画および動画のうちの少なくとも一方であって良い。 When the sleep state (sleep degree in this embodiment) is obtained in this way, the sleep state processing unit 142 stores event information (event information) representing the content of a predetermined event (event) related to the monitored person Ob. The SU communication IF unit 15 notifies the management server device SV of a communication signal (first event notification communication signal) for notifying the event. More specifically, the sleep state processing unit 142 transmits the first event notification communication signal containing the sensor ID of its own device and the event information representing the content of the event to the management server device SV via the SU communication IF unit 15. Send to In the present embodiment, the event information is one or more of sleep level (awakening, low sleep level, high sleep level), entering bed, getting out of bed, falling, falling, abnormal micromobility, and nurse call (NC) Here, the sleep state processing unit 142 stores the obtained sleep degree (awake, low sleep degree, high sleep degree) as the event information in the first event notification communication signal. Note that the sleep state processing unit 142 may cause the camera 111 to generate an image when obtaining the degree of sleep, and may further include this image in the first event notification communication signal. The image may be at least one of a still image and a moving image.

なお、睡眠状態処理部142は、さらに、前記睡眠度に対する信頼性の度合いを表す信頼度を求めて管理サーバ装置SVへ通知しても良い。この場合において、睡眠状態処理部142は、例えば、前記求めた睡眠度の継続時間を求め、この求めた睡眠度の継続時間と信頼度を決めるための閾値(信頼度区分閾値)とを比較して信頼度を求める。前記信頼度区分閾値は、例えば、複数のサンプルを用いて適宜に1または複数で設定される。例えば、前記信頼度区分閾値は、信頼度が相対的に高い高信頼度か信頼度が相対的に低い低信頼度かを弁別する1つの値であって良く、また例えば、信頼度を、信頼度が相対的に高い高信頼度、信頼度が相対的に中程度である中信頼度、および、信頼度が相対的に低い低信頼度の3段階に分けるために、全2つの各値であって良い。 In addition, the sleep state processing unit 142 may further obtain a degree of reliability representing the degree of reliability of the degree of sleep, and notify the management server device SV of the degree of reliability. In this case, the sleep state processing unit 142, for example, obtains the duration of the obtained sleep degree, and compares the obtained duration of the sleep degree with a threshold for determining reliability (reliability classification threshold). to find reliability. For example, one or a plurality of the reliability classification thresholds are appropriately set using a plurality of samples. For example, the confidence classification threshold may be a single value that distinguishes between high confidence where the confidence is relatively high and low confidence where the confidence is relatively low. In order to divide into three levels of high confidence with a relatively high level of confidence, medium confidence with a relatively medium level of confidence, and low confidence with a relatively low level of confidence, each of the two values It's okay.

行動検知処理部(タイミング検知部)143は、センサ部11の出力に基づいて検出タイミングを検知し、前記センサ部11の出力に基づいて被監視者Obにおける所定の行動を判定して管理サーバ装置SVへ通知するものである。 The behavior detection processing unit (timing detection unit) 143 detects detection timing based on the output of the sensor unit 11, determines a predetermined behavior of the monitored person Ob based on the output of the sensor unit 11, and performs the management server device. It notifies the SV.

より具体的には、検出タイミングの検知では、本実施形態では、睡眠状態の検出に適した状態であるか否かは、被監視者(対象者)Obが寝具内に居るか否かによって判定されるので、行動検知処理部(タイミング検知部)143は、センサ部11のカメラ111で生成された画像から被監視者Obが寝具内に居るか否かを判定することによって、検出タイミングを検知する。より詳しくは、対象画像中における寝具BDが配置されている領域(寝具BDの所在領域)が、前記各種データの1つとして予め記憶部16に記憶される。タイミング検知部143は、カメラ111から取得した対象画像から例えば背景差分法によって抽出した人物領域が前記寝具BDの所在領域内に完全に重なる場合(前記人物領域が完全に前記寝具BDの所在領域内となる場合)、睡眠状態の検出に適した状態であり、検出タイミングであると判定し、その他の場合、睡眠状態の検出に不適な状態であり、検出タイミングではないと判定し、この検知結果を処理制御部144へ通知(出力)する。 More specifically, in the detection of the detection timing, in the present embodiment, whether or not the state is suitable for detection of the sleeping state is determined by whether or not the monitored person (subject) Ob is in the bedding. Therefore, the behavior detection processing unit (timing detection unit) 143 detects the detection timing by determining whether or not the monitored person Ob is in the bedding from the image generated by the camera 111 of the sensor unit 11. do. More specifically, the area where the bedding BD is arranged in the target image (area where the bedding BD is located) is stored in advance in the storage unit 16 as one of the various data. The timing detection unit 143 detects when the person area extracted from the target image acquired from the camera 111 by, for example, the background subtraction method completely overlaps the location area of the bedding BD (the person area is completely within the location area of the bedding BD). ), it is determined that the state is suitable for detecting the sleep state and it is the detection timing, and in other cases, it is determined that the state is not suitable for the detection of the sleep state and is not the detection timing, and this detection result is notified (output) to the processing control unit 144 .

前記所定の行動の検知では、本実施形態では、前記所定の行動は、上述したように、入床、離床、転落、転倒および微体動異常であり、これら入床、離床、転落および転倒は、カメラ111の出力(対象画像)に基づいて検知され、微体動異常は、ドップラセンサ112の出力(ドップラ信号)に基づいて検知される。 In the detection of the predetermined behavior, in the present embodiment, the predetermined behavior is entering the bed, getting out of bed, falling, falling, and abnormal micromotion as described above. , is detected based on the output (target image) of the camera 111 , and the micro-motion abnormality is detected based on the output (Doppler signal) of the Doppler sensor 112 .

より詳しくは、入床、離床、転落、転倒および微体動異常は、次のように判定されている。なお、以下の説明における、各種の閾値や継続判定時間は、複数のサンプルから適宜に設定され、前記各種データの1つとして予め記憶部16に記憶されている。 More specifically, getting into bed, getting out of bed, falling, tumbling, and abnormal microtremors are determined as follows. Various thresholds and continuation determination times in the following description are appropriately set from a plurality of samples and stored in the storage unit 16 in advance as one of the various data.

入床の判定では、行動検知処理部143は、前回の状態変数が「離床」であって、今回、カメラ111から取得した対象画像から例えば背景差分法によって抽出した人物領域が前記寝具BDの所在領域に完全に重なる場合(前記人物領域が完全に前記寝具BDの所在領域内となる場合)、入床と仮判定し、その完全重畳状態の継続時間が入床継続判定時間を超えて継続している場合に、入床有りと最終的に判定し、前記入床を検知する。そして、行動検知処理部143は、前記状態変数を「入床」で更新する。前記入床継続判定時間は、前記抽出した人物領域と前記寝具BDの所在領域との完全に重なりによって仮に判定された入床を、最終的に入床であると判定するための閾値である。 In determining whether to enter the bed, the behavior detection processing unit 143 determines that the previous state variable was “leaving bed”, and this time, the human region extracted from the target image acquired from the camera 111 by, for example, the background subtraction method is the location of the bedding BD. When it completely overlaps with the area (when the person area is completely within the location area of the bedding BD), it is tentatively determined to be in bed, and the duration of the completely superimposed state continues beyond the in-bed continuation determination time. If so, it is finally determined that there is bed entry, and the bed entry is detected. Then, the action detection processing unit 143 updates the state variable with "entering bed". The in-bed continuation determination time is a threshold value for finally determining in-bed as in-bed tentatively determined based on the complete overlap of the extracted person area and the location area of the bedding BD.

離床の判定では、行動検知処理部143は、前回の状態変数が「入床」および「覚醒中」のうちのいずれかであって、今回、カメラ111から取得した対象画像から抽出した人物領域が前記寝具BDの所在領域からはみ出しているはみ出し領域が離床判定閾値以上である場合、離床と仮判定し、その離床判定閾値以上である状態のはみ出し領域の継続時間が離床継続判定時間を超えている場合に、離床有りと最終的に判定し、前記離床を検知する。そして、行動検知処理部143は、前記状態変数を「離床」で更新する。前記離床判定閾値は、前記はみ出し領域の大きさによって離床か否かを判別するための閾値である。前記離床継続判定時間は、前記はみ出し領域と前記離床判定閾値との比較によって仮に判定された離床を、最終的に離床であると判定するための閾値である。 In the determination of getting out of bed, the action detection processing unit 143 determines that the previous state variable is either “getting into bed” or “awakening” and that the person region extracted from the target image acquired from the camera 111 this time is When the protruding region protruding from the location region of the bedding BD is equal to or greater than the bed leaving determination threshold, it is provisionally determined to be leaving the bed, and the duration of the protruding region being equal to or greater than the bed leaving determination threshold exceeds the bed leaving continuation determination time. In this case, it is finally determined that the person has left the bed, and the person has left the bed. Then, the action detection processing unit 143 updates the state variable with "getting out of bed". The bed-leaving determination threshold is a threshold for determining whether or not the bed-leaving is based on the size of the protruding region. The bed-leaving continuation determination time is a threshold value for finally determining bed-leaving tentatively determined by comparing the protruding area and the bed-leaving determination threshold.

転落の判定では、行動検知処理部143は、今回、カメラ111から取得した対象画像から抽出した人物領域の頭部領域の大きさが横臥姿勢判定閾値以下であって、前記頭部領域の大きさの変化速度が転落判定速度閾値以上であって、前記人物領域が前記寝具BDの所在領域の周囲に設定された転落判定領域内に在る場合に、転落有りと判定し、前記転落を検知する。前記横臥姿勢判定閾値は、横臥姿勢における頭部領域の大きさであるか否かを判別するための閾値である。前記転落判定速度閾値は、前記頭部領域の大きさの変化速度によって転落であるか否かを判別するための閾値である。 In the fall determination, the action detection processing unit 143 determines that the size of the head region of the human region extracted from the target image acquired from the camera 111 is equal to or less than the lying posture determination threshold, and the size of the head region is equal to or greater than the fall determination speed threshold, and the person area is within the fall determination area set around the location area of the bedding BD, it is determined that there is a fall, and the fall is detected. . The lying posture determination threshold value is a threshold value for determining whether or not it is the size of the head region in the lying posture. The fall determination speed threshold is a threshold for determining whether or not a fall has occurred based on the change speed of the size of the head region.

転倒の判定では、行動検知処理部143は、今回、カメラ111から取得した対象画像から抽出した人物領域の頭部領域の大きさが横臥姿勢判定閾値以下であって、前記頭部領域の大きさの変化速度が転倒判定速度閾値以上であって、前記人物領域が前記寝具BDの所在領域および前記転落判定領域を除く領域に在る場合に、転倒有りと判定し、前記転倒を検知する。前記転倒判定速度閾値は、前記頭部領域の大きさの変化速度によって転倒であるか否かを判別するための閾値である。 In the fall determination, the action detection processing unit 143 determines that the size of the head region of the human region extracted from the target image acquired from the camera 111 is equal to or smaller than the lying posture determination threshold, and the size of the head region is equal to or higher than the fall determination speed threshold, and the person area is in an area excluding the location area of the bedding BD and the fall determination area, it is determined that there is a fall, and the fall is detected. The fall determination speed threshold is a threshold for determining whether or not a fall has occurred based on the change speed of the size of the head region.

微体動異常では、行動検知処理部143は、ドップラセンサ112のドップラ信号に基づいて微体動異常を判定する。より具体的には、行動検知処理部143は、睡眠状態処理部142と同様に、測定時点から過去へ、所定時間内に測定されたドップラ信号を例えば高速フーリエ変換(FFT)し、このFFTで得られたスペクトルから、一般的な呼吸の周波数に対応する周波数帯における振幅の平均値を求め、この求めた平均値と、微体動異常であるか否かを判定するための閾値(微体動異常判定閾値)とを比較し、前記求めた平均値が前記微体動異常判定閾値以下である場合、微体動異常と仮判定し、前記平均値が前記微体動異常判定閾値以下である状態の継続時間が微体動異常継続判定時間を超えて継続している場合に、微体動異常有りと最終的に判定し、前記微体動異常を検知する。この微体動異常判定閾値は、前記第2睡眠度区分閾値より小さな値に設定される(第2睡眠度区分閾値>微体動異常判定閾値)。前記微体動異常継続判定時間は、前記求めた平均値と前記微体動異常判定閾値との比較によって仮に判定された微体動異常を、最終的に微体動異常であると判定するための閾値である。 As for the abnormal minute body movement, the action detection processing unit 143 determines the abnormal minute body movement based on the Doppler signal of the Doppler sensor 112 . More specifically, like the sleep state processing unit 142, the behavior detection processing unit 143 performs, for example, a fast Fourier transform (FFT) on Doppler signals measured within a predetermined time from the time of measurement to the past, and with this FFT From the obtained spectrum, the average value of the amplitude in the frequency band corresponding to the general respiratory frequency is obtained, and the obtained average value and the threshold value for determining whether or not there is an abnormality in microtremor (microscopic movement abnormality determination threshold value), and if the obtained average value is equal to or less than the minute body movement abnormality determination threshold value, it is tentatively determined as minute body movement abnormality, and if the average value is equal to or less than the minute body movement abnormality determination threshold value When the continuation time of a certain state continues beyond the micro-motion abnormality continuation determination time, it is finally determined that there is a micro-motion abnormality, and the micro-motion abnormality is detected. The threshold value for determining abnormality in minute body movement is set to a value smaller than the threshold for second sleep degree classification (threshold for second sleep degree classification > threshold value for abnormality in minute body movement). The micro-motion abnormality continuation determination time is set so that the micro-motion abnormality temporarily determined by comparing the calculated average value and the micro-motion abnormality determination threshold value is finally determined to be the micro-motion abnormality. is the threshold of

このように前記所定の行動を検知すると、行動検知処理部143は、自機のセンサIDおよび前記イベント情報として入床、離床、転落、転倒および微体動異常のうちの1または複数を収容した第1イベント通知通信信号をSU通信IF部15を介して管理サーバ装置SVへ送信する。なお、行動検知処理部143は、入床、離床、転落および転倒のうちのいずれかを検知すると、前記入床、離床、転落および転倒の検知の際に用いられた対象画像を第1イベント通知通信信号にさらに収容して良く、微体動異常を検知すると、カメラ111に画像を生成させ、この画像を第1イベント通知通信信号にさらに収容しても良い。前記画像は、静止画および動画のうちの少なくとも一方であって良い。 When the predetermined behavior is detected in this manner, the behavior detection processing unit 143 stores one or more of entering the bed, leaving the bed, falling, falling, and abnormal micromotion as the sensor ID of the machine itself and the event information. A first event notification communication signal is transmitted to the management server device SV via the SU communication IF section 15 . Note that when any one of entering the bed, leaving the bed, falling, and falling is detected, the action detection processing unit 143 notifies the first event of the target image used in detecting the entering the bed, leaving the bed, falling, and the fall. It may be further included in the communication signal, and upon detection of the micro-motion anomaly, the camera 111 may generate an image, and this image may be further included in the first event notification communication signal. The image may be at least one of a still image and a moving image.

なお、タイミング検知部(行動検知処理部)143で検出タイミングを検知するために用いられる専用のセンサがセンサ装置SUに設けられて良いが、本実施形態では、上述にように、カメラ111が前記検出タイミングの検知と前記所定の行動の検知とに兼用されている。 Note that the sensor device SU may be provided with a dedicated sensor used for detecting detection timing by the timing detection unit (behavior detection processing unit) 143, but in the present embodiment, as described above, the camera 111 It is used both for detecting the detection timing and for detecting the predetermined action.

処理制御部144は、タイミング検知部(行動検知処理部)143の検知結果に応じて睡眠状態処理部142を制御するものである。より具体的には、本実施形態では、処理制御部144は、タイミング検知部(行動検知処理部)143の検知結果に応じて、睡眠状態処理部142における前記睡眠状態処理を実行するか否かを制御する。より詳しくは、例えば、処理制御部144は、行動検知処理部(タイミング検知部)143の検知結果が睡眠状態の検出に適した状態であり、検出タイミングである場合には、睡眠状態処理部142に前記睡眠状態処理を実行させ、そして、行動検知処理部(タイミング検知部)143の検知結果が睡眠状態の検出に不適な状態であり、検出タイミングではない場合には、睡眠状態処理部142に前記睡眠状態処理を実行させない。 The processing control unit 144 controls the sleep state processing unit 142 according to the detection result of the timing detection unit (behavior detection processing unit) 143 . More specifically, in this embodiment, the processing control unit 144 determines whether or not to execute the sleep state processing in the sleep state processing unit 142 according to the detection result of the timing detection unit (behavior detection processing unit) 143. to control. More specifically, for example, the processing control unit 144 detects that the detection result of the behavior detection processing unit (timing detection unit) 143 is a state suitable for detecting a sleep state, and when it is the detection timing, the sleep state processing unit 142 to execute the sleep state processing, and if the detection result of the behavior detection processing unit (timing detection unit) 143 is a state unsuitable for sleep state detection and it is not the detection timing, the sleep state processing unit 142 The sleep state processing is not executed.

ナースコール処理部145は、ナースコール受付操作部13でナースコールを受け付けた場合にその旨を前記所定のイベントの他の一例として収容した第1イベント通知通信信号を管理サーバ装置SVへ通知し、SU音入出力部12等を用いることで端末装置SP、TAとの間で音声通話を行うものである。より具体的には、ナースコール処理部145は、ナースコール受付操作部13が入力操作されると、自機のセンサIDおよび前記イベント情報としてナースコールを収容した第1イベント通知通信信号をSU通信IF部15を介して管理サーバ装置SVへ送信する。そして、ナースコール処理部145は、SU音入出力部12等を用い、端末装置SP、TAとの間で例えばVoIP(Voice over Internet Protocol)によって音声通話を行う。 When the nurse call reception operation unit 13 receives a nurse call, the nurse call processing unit 145 notifies the management server device SV of a first event notification communication signal containing the fact as another example of the predetermined event, By using the SU sound input/output unit 12 and the like, voice communication is performed between the terminal devices SP and TA. More specifically, when the nurse call reception operation unit 13 is operated for input, the nurse call processing unit 145 transmits the first event notification communication signal containing the nurse call as the sensor ID of the device itself and the event information by SU communication. It is transmitted to the management server device SV via the IF section 15 . Then, the nurse call processing unit 145 uses the SU sound input/output unit 12 and the like to perform voice communication with the terminal devices SP and TA by, for example, VoIP (Voice over Internet Protocol).

SUストリーミング処理部146は、通信IF部3を介して固定端末装置SPまたは携帯端末装置TAから動画の配信の要求があった場合に、この要求のあった固定端末装置SPまたは携帯端末装置TAへ、カメラ11で生成した動画(例えばライブの動画)をストリーミング再生でSU通信IF部15を介して配信するものである。 When a video distribution request is received from the fixed terminal SP or the mobile terminal TA via the communication IF section 3, the SU streaming processing section 146 sends a stream to the requesting fixed terminal SP or mobile terminal TA. , a moving image (for example, a live moving image) generated by the camera 11 is distributed via the SU communication IF unit 15 by streaming reproduction.

図1には、一例として、被監視者Obに対応して設けられた、4個の第1ないし第4センサ装置SU-1~SU-4が示されており、第1センサ装置SU-1は、被監視者Obの一人であるAさんOb-1の居室RM-1(不図示)に配設され、第2センサ装置SU-2は、被監視者Obの一人であるBさんOb-2の居室RM-2(不図示)に配設され、第3センサ装置SU-3は、被監視者Obの一人であるCさんOb-3の居室RM-3(不図示)に配設され、そして、第4センサ装置SU-4は、被監視者Obの一人であるDさんOb-4の居室RM-4(不図示)に配設されている。 FIG. 1 shows, as an example, four first to fourth sensor units SU-1 to SU-4 provided corresponding to the monitored person Ob. is installed in a living room RM-1 (not shown) of Mr. A Ob-1 who is one of the monitored persons Ob, and the second sensor unit SU-2 is installed in Mr. B Ob- who is one of the monitored persons Ob. 2, and the third sensor unit SU-3 is installed in the living room RM-3 (not shown) of Mr. C Ob-3, who is one of the monitored persons Ob. , and the fourth sensor unit SU-4 is installed in a living room RM-4 (not shown) of Mr. D Ob-4 who is one of the monitored persons Ob.

なお、このような構成のセンサ装置SUにおいて、センサ部11、睡眠状態処理部142、行動検知処理部(タイミング検知部)143および処理制御部144は、睡眠状態検出装置の一例を構成する。 In the sensor device SU configured as described above, the sensor unit 11, the sleep state processing unit 142, the behavior detection processing unit (timing detection unit) 143, and the processing control unit 144 constitute an example of a sleep state detection device.

管理サーバ装置SVは、ネットワークNWを介して他の装置SU、TA、SPと通信する通信機能を備え、センサ装置SUから前記第1イベント通知通信信号で前記所定のイベントの通知を受けると、被監視者Obに対する監視に関する情報(監視情報)を管理し、前記所定のイベントを第2イベント通知通信信号で所定の端末装置SP、TAへ通知(再通知、報知、送信)し、クライアント(本実施形態では端末装置SP、TA等)の要求に応じたデータを前記クライアントに提供し、被監視者監視支援システムMS全体を管理する装置である。前記監視情報は、本実施形態では、例えば、前記第1イベント通知通信信号の送信元であるセンサ装置SUのセンサID、前記所定のイベント(センサ装置SUで求めた睡眠状態(睡眠度)、センサ装置SUで検知した所定の行動の種類、および、センサ装置SUで受け付けたナースコール)、被監視者Obの画像、および、前記通知を受けた時刻(通知時刻)等であり、これらは、互いに対応付けられて記憶(記録、管理)される。前記第2イベント通知通信信号には、これら監視情報が収容される。前記第2イベント通知通信信号は、例えば同報通信(ブロードキャストやマルチキャスト)で送信されて良く、また例えば、前記第1イベント通知通信信号の送信元であるセンサ装置SUに対応付けられた1または複数の端末装置SP、TAに送信されて良い。このような管理サーバ装置SVは、例えば、通信機能付きのコンピュータによって構成可能である。 The management server device SV has a communication function for communicating with the other devices SU, TA, and SP via the network NW, and upon receiving notification of the predetermined event by the first event notification communication signal from the sensor device SU, Information (monitoring information) related to monitoring of the observer Ob is managed, the predetermined event is notified (re-notified, notified, transmitted) to the predetermined terminal devices SP and TA by the second event notification communication signal, and the client (this implementation It is a device that provides the client with data according to a request from a terminal device (SP, TA, etc.) and manages the entire monitored person monitoring support system MS. In the present embodiment, the monitoring information includes, for example, the sensor ID of the sensor device SU which is the transmission source of the first event notification communication signal, the predetermined event (sleeping state (sleep degree) obtained by the sensor device SU, the sensor The type of predetermined action detected by the device SU, the nurse call received by the sensor device SU), the image of the monitored person Ob, the time when the notification was received (notification time), etc. These are mutually They are associated and stored (recorded and managed). The monitoring information is contained in the second event notification communication signal. Said second event notification communication signal may be transmitted, for example, by broadcast communication (broadcast or multicast), and for example, one or more sensors associated with the sensor device SU from which said first event notification communication signal was transmitted. terminal devices SP, TA. Such a management server device SV can be configured by, for example, a computer with a communication function.

固定端末装置SPは、ネットワークNWを介して他の装置SU、SV、TAと通信する通信機能、所定の情報を表示する表示機能、および、所定の指示やデータを入力する入力機能等を備え、管理サーバ装置SVや携帯端末装置TAに与える所定の指示やデータを入力したり、管理サーバ装置SVからの通知によってセンサ装置SUで得られた前記監視情報を表示したり等することによって、被監視者監視支援システムMSのユーザインターフェース(UI)として機能する機器である。このような固定端末装置SPは、例えば、通信機能付きのコンピュータによって構成可能である。 The fixed terminal device SP has a communication function to communicate with other devices SU, SV, and TA via the network NW, a display function to display predetermined information, and an input function to input predetermined instructions and data. By inputting predetermined instructions and data given to the management server device SV and the portable terminal device TA, and displaying the monitoring information obtained by the sensor device SU in response to a notification from the management server device SV, It is a device that functions as a user interface (UI) of the person monitoring support system MS. Such a fixed terminal device SP can be composed of, for example, a computer with a communication function.

携帯端末装置TAは、ネットワークNWを介して他の装置SV、SP、SUと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、および、音声通話を行う通話機能等を備え、管理サーバ装置SVやセンサ装置SUに与える所定の指示やデータを入力したり、管理サーバ装置SVからの通知によってセンサ装置SUで得られた前記監視情報を表示したり、センサ装置SUとの間で音声通話によってナースコールの応答や声かけしたり等するための機器である。このような携帯端末装置TAは、例えば、いわゆるタブレット型コンピュータやスマートフォンや携帯電話機等の、持ち運び可能な通信端末装置によって構成可能である。 The mobile terminal device TA has a communication function of communicating with other devices SV, SP, and SU via the network NW, a display function of displaying predetermined information, an input function of inputting predetermined instructions and data, and a voice call. inputting predetermined instructions and data given to the management server device SV and the sensor device SU, displaying the monitoring information obtained by the sensor device SU in response to a notification from the management server device SV, It is a device for responding to a nurse call or calling out to the sensor unit SU through voice communication. Such a mobile terminal device TA can be configured by a portable communication terminal device such as a so-called tablet computer, a smart phone, or a mobile phone, for example.

次に、本実施形態の動作について説明する。図3は、サービスモードにおける、前記センサ装置の動作を示すフローチャートである。図4は、図3に示す睡眠状態判定処理における、前記センサ装置の動作を示すフローチャートである。図5は、図3に示す転落判定処理における、前記センサ装置の動作を示すフローチャートである。図6は、図3に示す転倒判定処理における、前記センサ装置の動作を示すフローチャートである。図7は、図3に示す入床判定処理における、前記センサ装置の動作を示すフローチャートである。図8は、図3に示す離床判定処理における、前記センサ装置の動作を示すフローチャートである。図9は、図3に示す微体動異常判定処理における、前記センサ装置の動作を示すフローチャートである。図10は、前記端末装置に表示されるメイン画面の一例を示す図である。図11は、前記端末装置に表示される第1設定画面の一例を示す図である。図12は、前記端末装置に表示される第2設定画面の一例を示す図である。図13は、前記端末装置に表示される監視情報画面の一例を示す図である。図14は、前記端末装置に表示される監視情報画面の他の一例を示す図である。図15は、前記端末装置に表示される監視情報画面のさらに他の一例を示す図である。図13A、図14Aおよび図15Aは、それぞれ、イベントの内容をテキストで表示した監視情報画面を示す図であり、図13B、図14Bおよび図15Bは、それぞれ、イベントの内容をアイコンで表示した監視情報画面を示す図である。 Next, the operation of this embodiment will be described. FIG. 3 is a flow chart showing the operation of the sensor device in service mode. FIG. 4 is a flow chart showing the operation of the sensor device in the sleep state determination process shown in FIG. FIG. 5 is a flow chart showing the operation of the sensor device in the fall determination process shown in FIG. FIG. 6 is a flow chart showing the operation of the sensor device in the overturn determination process shown in FIG. FIG. 7 is a flow chart showing the operation of the sensor device in the bed entry determination process shown in FIG. FIG. 8 is a flow chart showing the operation of the sensor device in the bed leaving determination process shown in FIG. FIG. 9 is a flow chart showing the operation of the sensor device in the micro-motion abnormality determination process shown in FIG. FIG. 10 is a diagram showing an example of a main screen displayed on the terminal device. FIG. 11 is a diagram showing an example of a first setting screen displayed on the terminal device. FIG. 12 is a diagram showing an example of a second setting screen displayed on the terminal device. FIG. 13 is a diagram showing an example of a monitoring information screen displayed on the terminal device. FIG. 14 is a diagram showing another example of the monitoring information screen displayed on the terminal device. FIG. 15 is a diagram showing still another example of the monitoring information screen displayed on the terminal device. FIGS. 13A, 14A, and 15A are diagrams showing monitoring information screens displaying event details in text, respectively, and FIGS. 13B, 14B, and 15B are respectively diagrams showing monitoring information screens displaying event details in icons. It is a figure which shows an information screen.

上記構成の被監視者監視支援システムMSでは、各装置SU、SV、SP、TAは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。センサ装置SUでは、その制御処理プログラムの実行によって、SU制御処理部14には、SU制御部141、睡眠状態処理部142、行動検知処理部(タイミング検知部)143、処理制御部144、ナースコール処理部145およびストリーミング処理部146が機能的に構成される。 In the monitored person monitoring support system MS configured as described above, each device SU, SV, SP, and TA initializes each necessary part when the power is turned on, and starts its operation. In the sensor device SU, by executing the control processing program, the SU control processing unit 14 includes an SU control unit 141, a sleep state processing unit 142, an action detection processing unit (timing detection unit) 143, a processing control unit 144, a nurse call A processing unit 145 and a streaming processing unit 146 are functionally configured.

電源が投入され、その稼働を始めると、端末装置SP、TA、例えば固定端末装置SPでは、例えば看護師や介護士等の監視者(ユーザ)によるログイン操作が受け付けられる。前記ログイン操作では、前記監視者(ユーザ)におけるユーザ名等のID等が入力され、その記憶部に記憶される。ログイン操作によって固定端末装置SPが被監視者監視支援システムMSにログインすると、固定端末装置SPは、その表示部にメイン画面を表示する。 When the power is turned on and operation is started, the terminal devices SP and TA, for example, the fixed terminal device SP, accept a login operation by an observer (user) such as a nurse or caregiver. In the login operation, an ID such as a user name of the supervisor (user) is input and stored in the storage unit. When the fixed terminal device SP logs into the monitored person monitoring support system MS by a login operation, the fixed terminal device SP displays a main screen on its display unit.

前記メイン画面は、固定端末装置SPの動作モードを受け付けるための画面である。このメイン画面21は、例えば、図11に示すように、「サービスモード」ボタン211と、「設定モード」ボタン212とを備える。「サービスモード」ボタン211は、被監視者Obを監視するサービスモードを固定端末装置SPの動作モードとして要求するためのボタンであって、固定端末装置SPをサービスモードで動作させる指示(命令、コマンド)を入力するためのボタンである。「設定モード」ボタン212は、予め規定された所定のパラメータを設定する設定モードを固定端末装置SPの動作モードとして要求するためのボタンであって、固定端末装置SPを設定モードで動作させる指示を入力するためのボタンである。 The main screen is a screen for accepting the operation mode of the fixed terminal SP. The main screen 21 includes, for example, a "service mode" button 211 and a "setting mode" button 212, as shown in FIG. The "service mode" button 211 is a button for requesting a service mode for monitoring the monitored person Ob as the operation mode of the fixed terminal SP, and is an instruction (command, command) to operate the fixed terminal SP in the service mode. ) is a button for entering The "setting mode" button 212 is a button for requesting a setting mode for setting predetermined parameters as the operation mode of the fixed terminal SP, and is used to issue an instruction to operate the fixed terminal SP in the setting mode. It is a button for input.

このようなメイン画面21を表示している際に、固定端末装置SPの入力部から入力操作を受け付けると、固定端末装置SPは、その制御処理部によって、前記受け付けた入力操作が、「サービスモード」ボタン211の入力操作であるか、「設定モード」ボタン212の入力操作であるか、を判定する。 When an input operation is received from the input unit of the fixed terminal device SP while the main screen 21 is being displayed, the fixed terminal device SP causes the control processing unit of the fixed terminal device SP to change the received input operation to "service mode." ” button 211 or the “setting mode” button 212 .

この判定の結果、前記受け付けた入力操作が「サービスモード」ボタン211の入力操作である場合には、固定端末装置SPは、被監視者Obを監視するように、サービスモードで動作を始める。前記入力操作は、例えば、マウスの移動によってカーソルが「サービスモード」ボタン211上に移動され、マウスが左クリックされる操作である。 As a result of this determination, if the accepted input operation is the input operation of the "service mode" button 211, the fixed terminal device SP starts operating in the service mode so as to monitor the monitored person Ob. The input operation is, for example, an operation of moving the mouse to move the cursor onto the "service mode" button 211 and left-clicking the mouse.

一方、前記判定の結果、前記受け付けた入力操作が「設定モード」ボタン212の入力操作である場合には、固定端末装置SPは、前記所定のパラメータを設定するように、設定モードで動作を始める。 On the other hand, as a result of the determination, if the accepted input operation is the input operation of the "setting mode" button 212, the fixed terminal SP starts operating in the setting mode so as to set the predetermined parameters. .

設定モードでは、上述のように、「設定モード」ボタン212の入力操作を受け付けると、固定端末装置SPは、その表示部に設定画面を表示する。なお、本実施形態では、ユーザ名等のIDを用いて認証が実行され、設定モードには、その権限あるユーザ(設定者)のみ入ることができる。 In the setting mode, as described above, when the input operation of the "setting mode" button 212 is accepted, the fixed terminal device SP displays the setting screen on its display unit. In this embodiment, authentication is performed using an ID such as a user name, and only authorized users (configurers) can enter the setting mode.

前記設定画面は、前記所定のパラメータを入力して設定するための画面である。前記所定のパラメータは、本実施形態では、前記所定のイベントを適切に判定するために用いられる設定値であり、例えば画像から被監視者Obを抽出するための撮像条件、および、前記判定のための閾値(判定閾値)等である。より具体的には、本実施形態では、前記所定のパラメータは、フレームレート、明るさレベル、天井高さ、および、寝具BDの所在領域である。前記設定画面は、本実施形態では、2個の第1および第2設定画面を備える。前記第1設定画面は、パラメータ設定の対象となる被監視者Ob(センサ装置SU)を入力(決定)し、前記所定のパラメータのうち、主に、数値的なパラメータ(本実施形態ではフレームレート、明るさレベルおよび天井高さ)を入力して設定するための画面である。前記第2設定画面は、前記所定のパラメータのうち、数値的なパラメータを除く他のパラメータ(本実施形態では寝具BDの所在領域)を入力して設定するための画面である。 The setting screen is a screen for inputting and setting the predetermined parameters. In the present embodiment, the predetermined parameter is a set value used to appropriately determine the predetermined event. , and the like (determination threshold). More specifically, in this embodiment, the predetermined parameters are the frame rate, brightness level, ceiling height, and the area where the bedding BD is located. The setting screen includes two first and second setting screens in this embodiment. The first setting screen is used for inputting (determining) the monitored person Ob (sensor device SU) for which parameter setting is to be performed. , brightness level and ceiling height). The second setting screen is a screen for inputting and setting parameters other than numerical parameters (the location area of the bedding BD in this embodiment) among the predetermined parameters.

より具体的には、その入力部から「設定モード」ボタン212の入力操作を受け付けると、固定端末装置SPは、その制御処理部によって、その表示部4に前記第1設定画面を表示する。 More specifically, when the input operation of the "setting mode" button 212 is received from the input unit, the fixed terminal device SP displays the first setting screen on the display unit 4 by the control processing unit.

この第1設定画面22は、例えば、図12に示すように、被監視者Obの名前を入力して設定するための被監視者名入力設定領域221と、フレームレートを入力して設定するためのフレームレート入力設定領域222と、明るさレベルを入力して設定するための明るさレベル入力設定領域223と、天井高さを入力して設定するための天井高さ入力設定領域224と、「エリア設定」ボタン225と、「メイン画面に戻る」ボタン226とを備える。各入力設定領域221~224は、パラメータ値の入力欄と、前記入力欄に入力されたパラメータ値でパラメータを記憶し設定する「更新」ボタンとを備える。「エリア設定」ボタン225は、第2設定画面を要求するためのボタンであって、固定端末装置SPに第2設定画面を表示させる指示を入力するためのボタンである。「メイン画面に戻る」ボタン226は、メイン画面21を要求するためのボタンであって、固定端末装置SPにメイン画面21を表示させる指示を入力するためのボタンである。「メイン画面に戻る」ボタン226は、さらに、その記憶部にパラメータとして記憶された各パラメータ値を管理サーバ装置SVを介してセンサ装置SUに設定するためのボタンでもある。 For example, as shown in FIG. 12, the first setting screen 22 includes a monitored person name input setting area 221 for inputting and setting the name of the monitored person Ob, and an area 221 for inputting and setting the frame rate. A frame rate input setting area 222, a brightness level input setting area 223 for inputting and setting the brightness level, a ceiling height input setting area 224 for inputting and setting the ceiling height, and " It has an area setting button 225 and a return to main screen button 226 . Each of the input setting areas 221 to 224 has an input field for parameter values and an "update" button for storing and setting the parameters with the parameter values input in the input fields. The "area setting" button 225 is a button for requesting the second setting screen, and is a button for inputting an instruction to display the second setting screen on the fixed terminal device SP. The "return to main screen" button 226 is a button for requesting the main screen 21, and is a button for inputting an instruction to display the main screen 21 on the fixed terminal device SP. The "return to main screen" button 226 is also a button for setting each parameter value stored as a parameter in the storage section to the sensor device SU via the management server device SV.

この図11に示す例では、これら各入力設定領域221~224における前記各入力欄には、それぞれ、「Aさん」、「15fps」、「5」および「2.4m」が入力されている。被監視者名入力設定領域221の「更新」ボタンが入力操作されると、固定端末装置SPの制御処理部によって、パラメータ設定の対象が「Aさん」に設定され、固定端末装置SPの記憶部に記憶される。なお、「Aさん」を監視するセンサ装置SUあるいはそのセンサIDがパラメータ設定の対象として入力され設定されても良い。フレームレート入力設定領域222の「更新」ボタンが入力操作されると、固定端末装置SPの制御処理部によって、フレームレートが「15fps」に設定され、固定端末装置SPの記憶部に記憶される。本実施形態では、センサ装置SUは、フレームごとに、あるいは、数フレームおきに、イベントの検出動作を実行するので、フレームレートを設定することによって、イベントの検出動作の実行間隔が規定される。明るさレベル入力設定領域223の「更新」ボタンが入力操作されると、固定端末装置SPの制御処理部によって、明るさレベルが「5」に設定され、固定端末装置SPの記憶部に記憶される。センサ装置SUで撮像される対象画像が暗すぎたり、明るすぎたりすると、対象画像から被監視者Obの人物領域が抽出し難くなり、人物の識別もし難くなる。明るさレベルを設定することによって、適正な露出で対象画像が生成でき、前記人物領域がより適切に抽出でき、人物の識別がより適切にできる。天井高さ入力設定領域224の「更新」ボタンが入力操作されると、固定端末装置SPの制御処理部によって、天井高さが「2.4m」に設定され、固定端末装置SPの記憶部に記憶される。センサ装置SUが基準の天井高さ(例えば2.4m等)の天井に配設された場合における前記横臥姿勢判定閾値等がデフォルト値としてセンサ装置SUに予め記憶されている。天井高さを設定することによって、デフォルト値の横臥姿勢判定閾値が補正され、この補正された横臥姿勢判定閾値が上述した前記所定の行動の検知に用いられる。天井高さを設定することによって、実際に設置されたセンサ装置SUの状況に応じて横臥姿勢判定閾値が調整できる。 In the example shown in FIG. 11, "Mr. A", "15 fps", "5" and "2.4 m" are entered in the input fields in the input setting areas 221 to 224, respectively. When the "Update" button in the monitored person name input setting area 221 is operated, the control processing section of the fixed terminal SP sets the parameter setting target to "Mr. A", and the storage section of the fixed terminal SP stored in It should be noted that the sensor device SU monitoring "Mr. A" or its sensor ID may be input and set as a parameter setting target. When the "Update" button in the frame rate input setting area 222 is operated, the frame rate is set to "15 fps" by the control processing section of the fixed terminal device SP, and stored in the storage section of the fixed terminal device SP. In this embodiment, the sensor unit SU executes the event detection operation for each frame or every several frames, so setting the frame rate defines the execution interval of the event detection operation. When the "update" button in the brightness level input setting area 223 is operated, the brightness level is set to "5" by the control processing section of the fixed terminal SP and stored in the storage section of the fixed terminal SP. be. If the target image captured by the sensor unit SU is too dark or too bright, it becomes difficult to extract the person area of the monitored person Ob from the target image, and it becomes difficult to identify the person. By setting the brightness level, the target image can be generated with appropriate exposure, the person area can be extracted more appropriately, and the person can be identified more appropriately. When the "update" button in the ceiling height input setting area 224 is operated, the ceiling height is set to "2.4 m" by the control processing section of the fixed terminal device SP, and is stored in the storage section of the fixed terminal device SP. remembered. The lying posture determination threshold values and the like for when the sensor device SU is installed on a ceiling with a reference ceiling height (for example, 2.4 m) are pre-stored in the sensor device SU as default values. By setting the ceiling height, the default lying posture determination threshold value is corrected, and the corrected lying posture determination threshold value is used to detect the predetermined behavior described above. By setting the ceiling height, the lying posture determination threshold value can be adjusted according to the situation of the actually installed sensor device SU.

「エリア設定」ボタン225の入力操作を受け付けると、固定端末装置SPは、その表示部に前記第2設定画面を表示する。 When the input operation of the "area setting" button 225 is accepted, the fixed terminal device SP displays the second setting screen on its display unit.

この第2設定画面23は、例えば、図12に示すように、対象画像を表示する対象画像表示領域231と、「更新」ボタン232と、「戻る」ボタン233を備える。対象画像表示領域231には、第1設定画面22の被監視者名入力設定領域221に入力された被監視者Obの名前を持つ被監視者Ob、を監視するセンサ装置SU、のカメラ111で生成された対象画像が表示される。「更新」ボタン232は、対象画像表示領域231に表示された対象画像を参照しながらその入力部から入力された領域でパラメータの設定を要求するためのボタンである。「戻る」ボタン233は、第1設定画面22を要求するためのボタンであって、固定端末装置SPに第1設定画面22を表示させる指示を入力するためのボタンである。 The second setting screen 23 includes, for example, a target image display area 231 for displaying a target image, an "update" button 232, and a "return" button 233, as shown in FIG. In the target image display area 231, the camera 111 of the sensor unit SU that monitors the monitored person Ob having the name of the monitored person Ob input in the monitored person name input setting area 221 of the first setting screen 22 is displayed. The generated target image is displayed. The “update” button 232 is a button for requesting parameter setting in the area input from the input unit while referring to the target image displayed in the target image display area 231 . The "return" button 233 is a button for requesting the first setting screen 22, and is a button for inputting an instruction to display the first setting screen 22 on the fixed terminal device SP.

このような第2設定画面23では、第2設定画面23が表示されると、固定端末装置SPは、寝具BDの所在領域の入力を待つ。ユーザによってその入力部から寝具BDの所在領域の4頂点が入力され、「更新」ボタン232が入力操作されると、固定端末装置SPの制御処理部によって、寝具BDの所在領域の4頂点の各画素位置が入力され、その記憶部に記憶され、寝具BDの所在領域が設定される。図12には、このユーザによって寝具BDの所在領域の4頂点が入力された様子が図示されている。 In such a second setting screen 23, when the second setting screen 23 is displayed, the fixed terminal device SP waits for input of the location area of the bedding BD. When the user inputs the four vertices of the location area of the bedding BD from the input unit and operates the "update" button 232, the control processing unit of the fixed terminal device SP controls each of the four vertices of the location area of the bedding BD. A pixel position is input and stored in the storage unit, and the location area of the bedding BD is set. FIG. 12 shows how the user has input the four vertices of the location area of the bedding BD.

そして、「戻る」ボタン233が入力操作されると、第1設定画面22がその表示部4に表示される。さらに、「メイン画面に戻る」ボタン226が入力操作されると、メイン画面21が表示され、この際に、固定端末装置SPは、その記憶部にパラメータとして記憶された各パラメータ値を管理サーバ装置SVを介してセンサ装置SUに送信し、センサ装置SUは、この受信した各パラメータ値を自機SUのSU記憶部16に記憶して設定する。これによって前記所定のパラメータの各値がセンサ装置SUに設定される。 Then, when the “return” button 233 is operated for input, the first setting screen 22 is displayed on the display section 4 . Further, when the "return to main screen" button 226 is operated to input, the main screen 21 is displayed. SV to the sensor device SU, and the sensor device SU stores and sets the received parameter values in the SU storage unit 16 of its own device SU. Thereby, each value of the predetermined parameter is set in the sensor device SU.

一方、上述のメイン画面21において、「サービスモード」ボタン211の入力操作を受け付けると、固定端末装置SPは、サービスモードで動作し、被監視者監視支援システムMSは、次のように動作することによって被監視者Obを監視している。 On the other hand, when the input operation of the "service mode" button 211 is accepted on the main screen 21 described above, the fixed terminal device SP operates in the service mode, and the monitored person monitoring support system MS operates as follows. monitors the monitored person Ob.

被監視者Obの監視では、センサ装置SUは、各フレームごとに、あるいは、数フレームおきに、次のように動作することで、被監視者Obの睡眠状態を検知し、被監視者Obにおける所定の動作を検知し、また、ナースコールの受付の有無を判定している。 In monitoring the monitored person Ob, the sensor unit SU detects the sleep state of the monitored person Ob by operating as follows for each frame or every few frames. Predetermined motions are detected, and whether or not a nurse call has been received is determined.

図3において、まず、センサ装置SUは、SU制御処理部14によって、センサ部11のカメラ111から、1フレーム分の画像を対象画像として取得する(S1)。 In FIG. 3, first, the sensor unit SU acquires an image of one frame as a target image from the camera 111 of the sensor unit 11 by the SU control processing unit 14 (S1).

続いて、センサ装置SUは、SU制御処理部14の行動検知処理部(タイミング検知部)143によって、処理S1でカメラ111から取得した対象画像から例えば背景差分法によって人物領域を抽出する(S2)。 Subsequently, the sensor unit SU extracts a person area from the target image acquired from the camera 111 in the process S1 by, for example, the background subtraction method, by the behavior detection processing unit (timing detection unit) 143 of the SU control processing unit 14 (S2). .

続いて、センサ装置SUは、タイミング検知部(行動検知処理部)143によって、睡眠状態の検出タイミングであるか否かを判定する(S3)。より具体的には、本実施形態では、タイミング検知部143は、処理S2で抽出した人物領域が前記寝具BDの所在領域内に完全に重なるか否か(前記人物領域が完全に前記寝具BDの所在領域内となっているか否か)を判定する。この判定の結果、タイミング検知部143は、前記人物領域が前記寝具BDの所在領域内に完全に重なる場合、睡眠状態の検出に適した状態であり、睡眠状態の検出タイミングであると判定し(Yes)、この検知結果を処理制御部144へ通知し、次に、処理S4が実行される。一方、前記判定の結果、タイミング検知部143は、前記人物領域が前記寝具BDの所在領域内に完全に重なる場合を除く他の場合、睡眠状態の検出に不適な状態であり、睡眠状態の検出タイミングではないと判定し(No)、この検知結果を処理制御部144へ通知し、次に、処理S5が実行される。なお、睡眠状態の検出タイミングではないと判定した場合(No)、タイミング検知部143は、この検知結果を処理制御部144へ通知せずに、次に、処理S5が実行されて良い。 Subsequently, the sensor device SU determines whether or not it is time to detect a sleeping state by the timing detection unit (behavior detection processing unit) 143 (S3). More specifically, in the present embodiment, the timing detection unit 143 determines whether the person area extracted in process S2 completely overlaps the location area of the bedding BD (the person area completely overlaps the bedding BD). is within the location area). As a result of this determination, when the person area completely overlaps the location area of the bedding BD, the timing detection unit 143 determines that the state is suitable for detecting the sleeping state and that it is time to detect the sleeping state ( Yes), this detection result is notified to the process control unit 144, and then process S4 is executed. On the other hand, as a result of the determination, the timing detection unit 143 determines that the person area is not suitable for sleep state detection except when the person area completely overlaps the location area of the bedding BD. It is determined that it is not the timing (No), the detection result is notified to the process control unit 144, and then process S5 is executed. If it is determined that it is not the sleep state detection timing (No), the timing detection unit 143 may not notify the processing control unit 144 of the detection result, and the process S5 may be executed next.

処理S4では、センサ装置SUは、SU制御処理部14の処理制御部144によって、睡眠状態処理部142を制御する。 In process S<b>4 , the sensor device SU controls the sleep state processing section 142 with the processing control section 144 of the SU control processing section 14 .

より具体的には、処理制御部144は、行動検知処理部(タイミング検知部)143から、睡眠状態の検出タイミングではないとの検知結果を受け付けた場合には、睡眠状態処理部142に睡眠状態処理を実行させずに、次に、処理S10を実行し、一方、行動検知処理部(タイミング検知部)143から、睡眠状態の検出タイミングであるとの検知結果を受け付けた場合には、睡眠状態処理部142に睡眠状態処理を実行させた後に、次に、処理S10を実行する。 More specifically, when the processing control unit 144 receives from the action detection processing unit (timing detection unit) 143 a detection result indicating that it is not the sleep state detection timing, the sleep state processing unit 142 detects the sleep state. Next, without executing the process, the process S10 is executed, and on the other hand, when the detection result indicating that it is time to detect the sleep state is received from the behavior detection processing unit (timing detection unit) 143, the sleep state After causing the processing unit 142 to execute the sleep state processing, next, processing S10 is executed.

この睡眠状態処理では、図4において、まず、睡眠状態処理部142は、ドップラセンサ112のドップラ信号に基づいて睡眠状態の判定条件を満たすか否かを判定する(S41)。より詳しくは、睡眠状態処理部142は、まず、現時点から過去へ、所定時間内、例えば1分以内に測定されたドップラ信号をSU記憶部16から取得する。続いて、睡眠状態処理部142は、この取得した1分間のドップラ信号を例えば高速フーリエ変換(FFT)する。続いて、睡眠状態処理部142は、このFFTで得られたスペクトルから、一般的な呼吸の周波数に対応する周波数帯における振幅の平均値を求める。続いて、睡眠状態処理部142は、この求めた平均値と睡眠度区分閾値、本実施形態では第1および第2睡眠度区分閾値それぞれとを比較する。この比較の結果、睡眠状態処理部142は、前記求めた平均値が第1睡眠度区分閾値を超えている場合には、覚醒中と仮に求め、前記平均値が第1睡眠度区分閾値を超えている状態の継続時間が、予め設定された所定の継続判定時間(覚醒中継続判定時間)を超えている場合に、前記仮に求めた覚醒中を最終的な睡眠度として決定し(Yes)、次に、処理S42を実行する。前記比較の結果、睡眠状態処理部142は、前記求めた平均値が第1睡眠度区分閾値以下であって第2睡眠度区分閾値を超えている場合には、低睡眠度と仮に求め、前記平均値が第1睡眠度区分閾値以下であって第2睡眠度区分閾値を超えている状態の継続時間が、予め設定された所定の継続判定時間(低睡眠中継続判定時間)を超えている場合に、前記仮に求めた低睡眠度を最終的な睡眠度として決定し(Yes)、次に処理S42を実行する。前記比較の結果、睡眠状態処理部142は、前記求めた平均値が第2睡眠度区分閾値以下である場合には、高睡眠度と仮に求め、前記平均値が第2睡眠度区分閾値以下である状態の継続時間が、予め設定された所定の継続判定時間(高睡眠中継続判定時間)を超えている場合に、前記仮に求めた高睡眠度を最終的な睡眠度として決定し(Yes)、次に処理S42を実行する。そして、前記比較の結果、これを除く他の場合に、睡眠状態処理部142は、睡眠状態を仮判定中とし(No)、本睡眠状態処理を終了する。 In this sleep state processing, in FIG. 4, first, the sleep state processing unit 142 determines whether or not the sleep state determination condition is satisfied based on the Doppler signal of the Doppler sensor 112 (S41). More specifically, the sleep state processing unit 142 first acquires from the SU storage unit 16 Doppler signals measured within a predetermined period of time, for example, within one minute from the current time to the past. Subsequently, the sleep state processing unit 142 performs, for example, fast Fourier transform (FFT) on the acquired 1-minute Doppler signal. Subsequently, the sleep state processing unit 142 obtains the average value of the amplitude in the frequency band corresponding to the general respiration frequency from the spectrum obtained by this FFT. Subsequently, the sleep state processing unit 142 compares the obtained average value with the sleep degree classification thresholds, which are the first and second sleep degree classification thresholds in the present embodiment. As a result of this comparison, if the calculated average value exceeds the first sleep level threshold, the sleep state processing unit 142 temporarily determines that the user is awake, and the average exceeds the first sleep level threshold. If the duration of the state of being in a state exceeds a preset predetermined continuation determination time (continuation determination time during wakefulness), determine the tentatively obtained wakefulness as the final degree of sleep (Yes), Next, process S42 is executed. As a result of the comparison, the sleep state processing unit 142 temporarily obtains a low sleep degree when the obtained average value is equal to or less than the first sleep degree division threshold and exceeds the second sleep degree division threshold, The duration of the state in which the average value is equal to or less than the first sleep degree division threshold and exceeds the second sleep degree division threshold exceeds a preset predetermined continuation determination time (during low sleep continuation determination time). In this case, the tentatively obtained low degree of sleep is determined as the final degree of sleep (Yes), and then processing S42 is executed. As a result of the comparison, if the calculated average value is equal to or less than the second sleep degree classification threshold, the sleep state processing unit 142 temporarily obtains a high degree of sleep, and if the average value is equal to or less than the second sleep degree classification threshold, If the duration of a certain state exceeds a preset predetermined continuation determination time (during high sleep continuation determination time), the tentatively obtained high sleep level is determined as the final sleep level (Yes). , then the process S42 is executed. Then, as a result of the comparison, in other cases than this, the sleep state processing unit 142 determines that the sleep state is being provisionally determined (No), and terminates this sleep state processing.

前記処理S42では、睡眠状態処理部142は、睡眠状態を決定して睡眠状態を求めたことを表す睡眠状態検出有り情報(例えば睡眠状態検出の有無を表す睡眠状態検出フラグが「0」から「1」へ変更される)をSU記憶部16に記憶し、前記状態変数を「睡眠度(覚醒中、低睡眠度、高睡眠度のいずれか)」で更新し(状態変数←「睡眠度」)、本睡眠状態処理を終了する。 In the process S42, the sleep state processing unit 142 determines the sleep state and obtains the sleep state information indicating that the sleep state has been detected (for example, the sleep state detection flag indicating whether or not the sleep state has been detected changes from "0" to " 1") is stored in the SU storage unit 16, and the state variable is updated with "sleep level (either of awake, low sleep level, or high sleep level)" (state variable ← "sleep level" ), ending the sleep state processing.

図3に戻って、前記処理S5では、センサ装置SUは、制御処理部14の行動検知処理部143によって、前記処理S2で抽出した人物領域に基づく転落判定処理を実行する。 Returning to FIG. 3, in the process S5, the sensor device SU causes the behavior detection processing section 143 of the control processing section 14 to execute the fall determination process based on the person area extracted in the process S2.

より具体的には、この転落判定処理では、図5において、まず、行動検知処理部143は、前記処理S2で抽出した人物領域に基づいて転落の判定条件を満たすか否かを判定する(S51)。より詳しくは、行動検知処理部143は、今回、処理S2で対象画像から抽出した人物領域の頭部領域の大きさが横臥姿勢判定閾値以下であって、前記頭部領域の大きさの変化速度が転落判定速度閾値以上であって、前記人物領域が前記寝具BDの所在領域の周囲に設定された転落判定領域内に在る場合に、転落有りと判定し(Yes)、次に、処理S52を実行し、これを除く他の場合に、転落無しと判定し(No)、本転落判定処理を終了する。ここで、頭部領域の抽出は、前記人物領域から、例えば円形や楕円形のハフ変換によって、また例えば予め用意された頭部のモデル(テンプレート)を用いたパターンマッチングによって、また例えば頭部抽出用に学習したニューラルネットワークによって、抽出される。前記処理S52では、行動検知処理部143は、転落発生を決定して転落有りを表す転落有り情報(例えば転落の有無を表す転落フラグが「0」から「1」へ変更される)をSU記憶部16に記憶し、本転落判定処理を終了する。 More specifically, in this fall determination process, first, in FIG. 5, the action detection processing unit 143 determines whether or not a fall determination condition is satisfied based on the person area extracted in the process S2 (S51). ). More specifically, the action detection processing unit 143 determines that the size of the head region of the human region extracted from the target image in the process S2 is equal to or smaller than the lying posture determination threshold, and the change rate of the size of the head region is equal to or greater than the fall determination speed threshold and the person area is within the fall determination area set around the location area of the bedding BD, it is determined that there is a fall (Yes), and then the process S52 is executed, and in other cases, it is determined that there is no fall (No), and this fall determination process is terminated. Here, the head region is extracted from the human region by, for example, circular or elliptical Hough transform, pattern matching using a head model (template) prepared in advance, or head extraction. extracted by a neural network trained for In the process S52, the action detection processing unit 143 determines the occurrence of a fall and stores information indicating the presence of a fall (for example, a fall flag indicating the presence or absence of a fall is changed from "0" to "1"). The data is stored in the unit 16, and the fall determination process ends.

図3に戻って、上記処理S5に続く処理S6では、センサ装置SUは、行動検知処理部143によって、前記処理S2で抽出した人物領域に基づく転倒判定処理を実行する。 Returning to FIG. 3, in the process S6 following the process S5, the sensor device SU causes the action detection processing unit 143 to execute the fall determination process based on the person area extracted in the process S2.

より具体的には、この転倒判定処理では、図6において、まず、行動検知処理部143は、前記処理S2で抽出した人物領域に基づいて転倒の判定条件を満たすか否かを判定する(S61)。より詳しくは、行動検知処理部143は、今回、処理S2で対象画像から抽出した人物領域の頭部領域の大きさが横臥姿勢判定閾値以下であって、前記頭部領域の大きさの変化速度が転倒判定速度閾値以上であって、前記人物領域が前記寝具BDの所在領域および前記転落判定領域を除く領域に在る場合に、転倒有りと判定し(Yes)、次に、処理S62を実行し、これを除く他の場合に、転倒無しと判定し(No)、本転倒判定処理を終了する。前記処理S62では、行動検知処理部143は、転倒発生を決定して転倒有りを表す転倒有り情報(例えば転倒の有無を表す転倒フラグが「0」から「1」へ変更される)をSU記憶部16に記憶し、本転倒判定処理を終了する。 More specifically, in this fall determination process, first, in FIG. 6, the action detection processing unit 143 determines whether or not a fall determination condition is satisfied based on the person area extracted in the process S2 (S61). ). More specifically, the action detection processing unit 143 determines that the size of the head region of the human region extracted from the target image in the process S2 is equal to or smaller than the lying posture determination threshold value, and the change rate of the size of the head region is greater than or equal to the overturn determination speed threshold, and the person area is in the area excluding the location area of the bedding BD and the fall determination area, it is determined that there is overturn (Yes), and then the process S62 is executed. Otherwise, it is determined that there is no overturn (No), and the overturn determination process is terminated. In the process S62, the action detection processing unit 143 determines the occurrence of a fall and stores information indicating the presence of a fall (for example, a fall flag indicating whether or not a fall has occurred is changed from "0" to "1"). The data is stored in the unit 16, and the turnover determination process ends.

図3に戻って、上記処理S6に続く処理S7では、センサ装置SUは、行動検知処理部143によって、前記処理S2で抽出した人物領域に基づく入床判定処理を実行する。 Returning to FIG. 3, in the process S7 following the process S6, the sensor device SU causes the behavior detection processing unit 143 to execute bed-in determination processing based on the person area extracted in the process S2.

より具体的には、この入床判定処理では、図7において、まず、行動検知処理部143は、状態変数(前回の状態変数)が何であるか否かを判定する(S71)。この判定の結果、状態変数が「離床」ではない場合(No)には、行動検知処理部143は、本入床判定処理を終了する。一方、前記判定の結果、状態変数が「離床」である場合(Yes)には、行動検知処理部143は、次に、処理S72を実行する。この処理S72では、行動検知処理部143は、前記処理S2で抽出した人物領域に基づいて入床の判定条件を満たすか否かを判定する。より詳しくは、行動検知処理部143は、今回、処理S2で対象画像から抽出した人物領域が前記寝具BDの所在領域に完全に重なる場合(前記人物領域が完全に前記寝具BDの所在領域内となる場合)、入床と仮判定し、その完全重畳状態の継続時間が入床継続判定時間を超えて継続している場合に、入床有りと最終的に判定し(Yes)、次に、処理S73を実行し、これを除く他の場合に、入床無しと判定し(No)、本入床判定処理を終了する。前記処理S73では、行動検知処理部143は、入床発生を決定して入床有りを表す入床有り情報(例えば入床の有無を表す入床フラグが「0」から「1」へ変更される)をSU記憶部16に記憶する。続いて、行動検知処理部143は、前記状態変数を「入床」で更新し(状態変数←「入床」)(S74)、本入床判定処理を終了する。 More specifically, in this bed-going determination process, first, in FIG. 7, the action detection processing unit 143 determines whether or not the state variable (previous state variable) is (S71). As a result of this determination, if the state variable is not "leaving bed" (No), the action detection processing unit 143 terminates the regular bed determination processing. On the other hand, if the result of the determination is that the state variable is "getting out of bed" (Yes), the action detection processing unit 143 next executes processing S72. In this process S72, the action detection processing unit 143 determines whether or not the determination condition for entering the bed is satisfied based on the person area extracted in the process S2. More specifically, the behavior detection processing unit 143 detects the human area extracted from the target image in the process S2 this time when it completely overlaps the location area of the bedding BD (the person area is completely within the location area of the bedding BD). If it is), it is tentatively determined to be in bed, and if the duration of the complete superimposed state continues beyond the determination time of in-bed continuation, it is finally determined to be in bed (Yes), and then, Processing S73 is executed, and in other cases, it is determined that there is no bed admission (No), and the regular bed admission determination processing is terminated. In the process S73, the action detection processing unit 143 determines the occurrence of bed entry and determines whether bed entry information indicating the presence of bed entry (for example, the bed entry flag representing the presence or absence of bed entry is changed from "0" to "1"). ) is stored in the SU storage unit 16 . Subsequently, the action detection processing unit 143 updates the state variable with “entering bed” (state variable←“entering bed”) (S74), and ends the regular entering bed determination process.

図3に戻って、上記処理S7に続く処理S8では、センサ装置SUは、行動検知処理部143によって、前記処理S2で抽出した人物領域に基づく離床判定処理を実行する。 Returning to FIG. 3, in the process S8 following the process S7, the sensor device SU causes the behavior detection processing unit 143 to execute the bed leaving determination process based on the person area extracted in the process S2.

より具体的には、この離床判定処理では、図8において、まず、行動検知処理部143は、状態変数(前回の状態変数)が何であるか否かを判定する(S81)。この判定の結果、状態変数が「入床」でも「覚醒中」でもない場合(No)には、行動検知処理部143は、本離床判定処理を終了する。一方、前記判定の結果、状態変数が「入床」および「覚醒中」のうちのいずれかである場合(Yes)には、行動検知処理部143は、次に、処理S82を実行する。この処理S82では、行動検知処理部143は、前記処理S2で抽出した人物領域に基づいて離床の判定条件を満たすか否かを判定する。より詳しくは、行動検知処理部143は、今回、処理S2で対象画像から抽出した人物領域が前記寝具BDの所在領域からはみ出しているはみ出し領域が離床判定閾値以上である場合、離床と仮判定し、その離床判定閾値以上である状態のはみ出し領域の継続時間が離床継続判定時間を超えている場合に、離床有りと最終的に判定し(Yes)、次に、処理S83を実行し、これを除く他の場合に、離床無しと判定し(No)、本離床判定処理を終了する。前記処理S83では、行動検知処理部143は、離床発生を決定して離床有りを表す離床有り情報(例えば離床の有無を表す離床フラグが「0」から「1」へ変更される)をSU記憶部16に記憶する。続いて、行動検知処理部143は、前記状態変数を「離床」で更新し(状態変数←「離床」)(S84)、本離床判定処理を終了する。 More specifically, in this bed leaving determination process, first, in FIG. 8, the action detection processing unit 143 determines whether or not the state variable (previous state variable) is (S81). As a result of this determination, if the state variable is neither "entering bed" nor "awakening" (No), the behavior detection processing unit 143 terminates this bed leaving determination processing. On the other hand, if the result of the determination is that the state variable is either "entering bed" or "awakening" (Yes), the behavior detection processing unit 143 next executes processing S82. In this process S82, the action detection processing unit 143 determines whether or not the condition for determining leaving the bed is satisfied based on the person area extracted in the process S2. More specifically, the behavior detection processing unit 143 temporarily determines that the person is leaving the bed when the protruding region in which the person region extracted from the target image in the process S2 protrudes from the location region of the bedding BD is equal to or larger than the bed leaving determination threshold value. , when the duration of the protruding region in a state equal to or greater than the bed-leaving determination threshold exceeds the bed-leaving continuation determination time, it is finally determined that there is bed-leaving (Yes), and then the process S83 is executed. Otherwise, it is determined that there is no getting out of bed (No), and the process of determining getting out of bed is terminated. In the process S83, the action detection processing unit 143 determines the occurrence of leaving the bed, and stores the presence of bed leaving information indicating presence of leaving the bed (for example, the bed leaving flag indicating presence/absence of leaving the bed is changed from "0" to "1"). Store in section 16 . Subsequently, the action detection processing unit 143 updates the state variable with "getting out of bed" (state variable←"getting out of bed") (S84), and ends this bed-leaving determination process.

図3に戻って、上記処理S8に続く処理S9では、センサ装置SUは、行動検知処理部143によって、センサ部11におけるドップラセンサ112のドップラ信号に基づく微体動異常判定処理を実行する。 Returning to FIG. 3 , in process S9 subsequent to process S8, the action detection processing unit 143 of the sensor unit SU performs a subtle motion abnormality determination process based on the Doppler signal of the Doppler sensor 112 in the sensor unit 11 .

より具体的には、この微体動異常判定処理では、図9において、まず、行動検知処理部143は、ドップラセンサ112のドップラ信号に基づいて微体動異常の判定条件を満たすか否かを判定する(S91)。より詳しくは、行動検知処理部143は、まず、現時点から過去へ、所定時間内、例えば1分以内に測定されたドップラ信号をSU記憶部16から取得する。続いて、行動検知処理部143は、この取得した1分間のドップラ信号を例えば高速フーリエ変換(FFT)する。続いて、行動検知処理部143は、このFFTで得られたスペクトルから、一般的な呼吸の周波数に対応する周波数帯における振幅の平均値を求める。続いて、行動検知処理部143は、この求めた平均値と前記微体動異常判定閾値とを比較し、前記求めた平均値が前記微体動異常判定閾値以下である場合、微体動異常と仮判定し、前記平均値が前記微体動異常判定閾値以下である状態の継続時間が微体動異常継続判定時間を超えて継続している場合に、微体動異常有りと最終的に判定し(Yes)、次に、処理S92を実行し、これを除く他の場合に、微体動異常無しと判定し(No)、本微体動異常判定処理を終了する。前記処理S92では、行動検知処理部143は、微体動異常発生を決定して微体動異常有りを表す微体動異常有り情報(例えば微体動異常の有無を表す微体動異常フラグが「0」から「1」へ変更される)をSU記憶部16に記憶し、本微体動異常判定処理を終了する。 More specifically, in this micro-motion abnormality determination process, first, in FIG. Determine (S91). More specifically, the action detection processing unit 143 first acquires from the SU storage unit 16 Doppler signals measured within a predetermined period of time, for example, within one minute from the current time to the past. Subsequently, the action detection processing unit 143 performs, for example, a fast Fourier transform (FFT) on the acquired Doppler signal for one minute. Subsequently, the action detection processing unit 143 obtains the average value of the amplitude in the frequency band corresponding to the general respiration frequency from the spectrum obtained by this FFT. Subsequently, the action detection processing unit 143 compares the obtained average value with the threshold value for determining abnormality of minute body movement, and if the average value obtained is equal to or less than the threshold value for determining abnormality of minute body movement, provisionally determined, and when the duration of the state in which the average value is equal to or less than the micro-motion abnormality determination threshold continues beyond the micro-motion abnormality continuation determination time, it is finally determined that there is a micro-motion abnormality It is determined (Yes), and then the process S92 is executed. Otherwise, it is determined that there is no abnormality in minute body movement (No), and this abnormality determination process for minute body movement is finished. In the process S92, the action detection processing unit 143 determines the occurrence of an abnormality in minute body movement, and determines the presence of abnormality in minute movement (for example, the abnormality in minute movement flag indicating the presence or absence of an abnormality in minute movement). changed from "0" to "1") is stored in the SU storage unit 16, and the microbody movement abnormality determination processing is terminated.

図3に戻って、次に、センサ装置SUは、SU制御処理部14によって、所定のイベントの通知が必要か否かを判定する(S10)。より具体的には、センサ装置SUは、SU制御処理部14の睡眠状態処理部142によってSU記憶部16に睡眠状態検出有り情報や、SU制御処理部14の行動検知処理部143によってSU記憶部16に例えば前記転落有り情報や前記転倒有り情報等の、結果を記憶しているか否かを判定し、前記結果がSU記憶部16に記憶されている場合には、SU制御処理部14は、通知が必要と判定し(Yes)、次に、処理S11を実行した後に、今回の本処理を終了し、一方、前記結果がSU記憶部16に記憶されていない場合には、SU制御処理部14は、通知が不要と判定し(No)、今回の本処理を終了する。 Returning to FIG. 3, next, the sensor device SU determines whether or not notification of a predetermined event is required by the SU control processing unit 14 (S10). More specifically, the sensor device SU stores the sleep state detected information in the SU storage unit 16 by the sleep state processing unit 142 of the SU control processing unit 14, and the SU storage unit by the action detection processing unit 143 of the SU control processing unit 14. 16, for example, whether or not the result such as the falling information or the falling information is stored, and if the result is stored in the SU storage unit 16, the SU control processing unit 14 After determining that the notification is necessary (Yes), and then executing the processing S11, the present processing is terminated, and on the other hand, if the result is not stored in the SU storage unit 16, the SU control processing unit 14 determines that the notification is unnecessary (No), and terminates this processing.

この処理S11では、センサ装置SUは、SU制御処理部14によって、その結果のイベントを所定の端末装置SP、TAへ通知するために、前記イベント情報として前記結果を収容した第1イベント通知通信信号を、管理サーバ装置SVへ送信する。一具体例では、SU記憶部16に離床有り情報が記憶されている場合には、SU制御処理部14は、自機のセンサID、イベント情報としての「離床」、前記離床の判定の際に用いられた対象画像を収容した第1イベント通知通信信号を、SU通信IF部15を介して管理サーバ装置SVへ送信する。 In this process S11, the sensor device SU sends a first event notification communication signal containing the result as the event information in order to notify the result event to the predetermined terminal devices SP and TA by the SU control processing unit 14. is sent to the management server device SV. In one specific example, when the SU storage unit 16 stores information indicating that there is leaving the bed, the SU control processing unit 14 stores the sensor ID of the machine itself, "getting out of bed" as the event information, and A first event notification communication signal containing the used target image is transmitted to the management server device SV via the SU communication IF section 15 .

そして、上述のように処理S1ないし処理S11の各処理を実行している間に、センサ装置SUは、SU制御処理部14のナースコール処理部145によって、ナースコールを受け付けているか否かを判定し、ナースコールを受け付けると、そのナースコールの受付を所定の端末装置SP、TAへ通知するために、センサ装置SUは、前記イベント情報として前記受け付けたナースコールを収容した第1イベント通知通信信号を、管理サーバ装置SVへ送信する。 Then, while the processes S1 to S11 are being executed as described above, the sensor unit SU determines whether or not a nurse call is being received by the nurse call processing unit 145 of the SU control processing unit 14. Then, when the nurse call is received, the sensor device SU sends a first event notification communication signal containing the received nurse call as the event information in order to notify the reception of the nurse call to the predetermined terminal devices SP and TA. is sent to the management server device SV.

管理サーバ装置SVは、第1イベント通知通信信号をネットワークNWを介してセンサ装置SUから受信すると、この第1イベント通知通信信号に収容されたセンサIDおよびイベント情報等の各情報を、このセンサIDを持つセンサ装置SUで監視されている被監視者Obの監視情報として記憶(記録)する。すなわち、管理サーバ装置SVは、第1イベント通知通信信号に収容された、センサIDとイベント情報等の各情報と互いに対応付けて記憶する。そして、管理サーバ装置SVは、前記受信した第1イベント通知通信信号における送信元(通知元)のセンサ装置SUに対応する通知先の端末装置SP、TAへ第2イベント通知通信信号を送信する。 When the management server device SV receives the first event notification communication signal from the sensor device SU via the network NW, the management server device SV converts each information such as the sensor ID and the event information contained in the first event notification communication signal to the sensor ID. is stored (recorded) as monitoring information of the monitored person Ob who is monitored by the sensor device SU. That is, the management server device SV stores each information such as the sensor ID and the event information contained in the first event notification communication signal in association with each other. Then, the management server device SV transmits the second event notification communication signal to the terminal devices SP and TA of the notification destination corresponding to the sensor device SU that is the transmission source (notification source) in the received first event notification communication signal.

固定端末装置SPおよび携帯端末装置TAは、前記第2イベント通知通信信号をネットワークNWを介して管理サーバ装置SVから受信すると、この第2イベント通知通信信号に収容されたセンサIDおよびイベント情報等の各情報を、このセンサIDを持つセンサ装置SUで監視されている被監視者Obの監視情報として記憶(記録)し、前記監視情報を表示する。例えば、センサ装置SUが「覚醒中」を検知し第2イベント通知通信信号によってこの「覚醒中」が通知された場合では、端末装置SP、TAには、図13Aに示すイベント情報をテキストで表示した監視情報画面31aが表示される。あるいは、端末装置SP、TAには、図13Bに示すイベント情報をアイコンで表示した監視情報画面31bが表示される。また例えば、センサ装置SUが「低睡眠度」を検知し第2イベント通知通信信号によってこの「低睡眠度」が通知された場合では、端末装置SP、TAには、図14Aに示すイベント情報をテキストで表示した監視情報画面31aが表示される。あるいは、端末装置SP、TAには、図14Bに示すイベント情報をアイコンで表示した監視情報画面31bが表示される。また例えば、センサ装置SUが「高睡眠度」を検知し第2イベント通知通信信号によってこの「高睡眠度」が通知された場合では、端末装置SP、TAには、図14Aに示すイベント情報をテキストで表示した監視情報画面31aが表示される。あるいは、端末装置SP、TAには、図14Bに示すイベント情報をアイコンで表示した監視情報画面31bが表示される。 When the fixed terminal device SP and the mobile terminal device TA receive the second event notification communication signal from the management server device SV via the network NW, the fixed terminal device SP and the mobile terminal device TA receive the sensor ID and the event information contained in the second event notification communication signal. Each piece of information is stored (recorded) as monitoring information of the monitored person Ob monitored by the sensor device SU having this sensor ID, and the monitoring information is displayed. For example, when the sensor device SU detects "being awake" and is notified of this "being awake" by the second event notification communication signal, the event information shown in FIG. 13A is displayed in text on the terminal devices SP and TA. A monitoring information screen 31a is displayed. Alternatively, the monitoring information screen 31b displaying the event information shown in FIG. 13B with icons is displayed on the terminal devices SP and TA. Further, for example, when the sensor device SU detects the "low sleep level" and is notified of the "low sleep level" by the second event notification communication signal, the event information shown in FIG. 14A is sent to the terminal devices SP and TA. A monitoring information screen 31a displayed in text is displayed. Alternatively, the monitoring information screen 31b displaying the event information shown in FIG. 14B with icons is displayed on the terminal devices SP and TA. Further, for example, when the sensor device SU detects a "high sleep level" and is notified of this "high sleep level" by the second event notification communication signal, the terminal devices SP and TA receive the event information shown in FIG. 14A. A monitoring information screen 31a displayed in text is displayed. Alternatively, the monitoring information screen 31b displaying the event information shown in FIG. 14B with icons is displayed on the terminal devices SP and TA.

以上説明したように、本実施形態における被監視者監視支援システムMS、ならびに、センサ装置SUに組み込まれた睡眠状態検出装置および睡眠状態検出方法は、タイミング検知部(行動検知処理部)143の検知結果に応じて睡眠状態処理部142を制御するので、例えば、睡眠状態の検出に適した状態での、第1センサの一例であるドップラセンサ112の第1測定結果に基づいて対象者(被監視者)Obの睡眠状態を求める一方、睡眠状態の検出に不適な状態で、前記対象者Obの睡眠状態を求めないように制御することが可能となるから、上記被監視者監視支援システムMS、睡眠状態検出装置および睡眠状態検出方法は、誤判定をより低減できる。 As described above, the monitored person monitoring support system MS and the sleep state detection device and sleep state detection method incorporated in the sensor device SU according to the present embodiment are based on the detection by the timing detection unit (behavior detection processing unit) 143. Since the sleeping state processing unit 142 is controlled according to the result, for example, the subject (monitored Person) While obtaining the sleep state of Ob, it is possible to perform control so as not to obtain the sleep state of the subject Ob in a state unsuitable for detection of the sleep state. The sleep state detection device and sleep state detection method can further reduce erroneous determinations.

上記被監視者監視支援システムMS、睡眠状態検出装置および睡眠状態検出方法は、例えば、睡眠状態の検出に適した状態で睡眠状態処理を実行したり、逆に、睡眠状態の検出に不適な状態で睡眠状態処理を不実行したり等するように、睡眠状態処理部142における睡眠状態処理を制御することで、誤判定をより低減できる。 The monitored person monitoring support system MS, the sleep state detection device, and the sleep state detection method described above, for example, execute sleep state processing in a state suitable for detecting a sleep state, or conversely, perform sleep state processing in a state unsuitable for detection of a sleep state. By controlling the sleep state processing in the sleep state processing unit 142 such that the sleep state processing is not executed in , erroneous determination can be further reduced.

なお、上述の実施形態では、処理制御部144は、タイミング検知部(行動検知処理部)143の検知結果に応じて、睡眠状態処理部142における睡眠状態処理を実行するか否かを制御したが、以下の各変形形態のように、処理制御部144は、タイミング検知部(行動検知処理部)143の検知結果に応じて睡眠状態処理部142を制御しても良い。 In the above-described embodiment, the processing control unit 144 controls whether or not to execute sleep state processing in the sleep state processing unit 142 according to the detection result of the timing detection unit (behavior detection processing unit) 143. , the processing control unit 144 may control the sleep state processing unit 142 according to the detection result of the timing detection unit (behavior detection processing unit) 143, as in the following modifications.

第1変形形態では、処理制御部144は、タイミング検知部143の検知結果に応じて、睡眠状態処理部142によって求められた睡眠状態の出力を行うか否かを制御する。第1変形形態では、睡眠状態処理は、睡眠状態処理部142によって、実行されるものの、その結果の出力を制御することで、その実行の制御によって得られる効果と同等の効果が得られる。より具体的には、前記処理S4において、処理制御部144は、タイミング検知部143から、睡眠状態の検出タイミングではないとの検知結果を受け付けた場合には、睡眠状態処理部142に、その求めた睡眠度の出力を行わせずに終了し、一方、タイミング検知部143から、睡眠状態の検出タイミングであるとの検知結果を受け付けた場合には、睡眠状態処理部142に、その求めた睡眠度の出力を行わせる。このような被監視者監視支援システムMS、睡眠状態検出装置および睡眠状態検出方法は、例えば、睡眠状態の検出に適した状態で睡眠状態処理部142によって求められた睡眠状態を出力したり、逆に、睡眠状態の検出に不適な状態で睡眠状態処理部142によって求められた睡眠状態を不出力したり等するように、睡眠状態処理部142を制御することで、誤判定をより低減できる。 In the first modification, the processing control unit 144 controls whether or not to output the sleep state obtained by the sleep state processing unit 142 according to the detection result of the timing detection unit 143 . In the first modification, the sleep state processing is executed by the sleep state processing unit 142, but by controlling the output of the result, an effect equivalent to that obtained by controlling the execution can be obtained. More specifically, in the processing S4, when the processing control unit 144 receives a detection result from the timing detection unit 143 indicating that it is not the sleep state detection timing, the sleep state processing unit 142 receives the request. On the other hand, when the timing detection unit 143 receives the detection result indicating that it is time to detect the sleep state, the sleep state processing unit 142 sends the obtained sleep degree output. The monitored person monitoring support system MS, the sleep state detection device, and the sleep state detection method can, for example, output the sleep state obtained by the sleep state processing unit 142 in a state suitable for detecting the sleep state, or Further, by controlling the sleep state processing unit 142 so as not to output the sleep state obtained by the sleep state processing unit 142 in a state unsuitable for detection of the sleep state, erroneous determination can be further reduced.

第2変形形態では、処理制御部144は、タイミング検知部43の検知結果に応じて、睡眠状態処理部142によって求められた睡眠状態をタイミング検知部143の検知結果で補助するか否かを制御する。より具体的には、前記処理S4において、処理制御部144は、タイミング検知部143から、睡眠状態の検出タイミングではないとの検知結果を受け付けた場合には、睡眠状態処理部142によって求められた睡眠度に、例えば「低精度」や「低信頼性」等の睡眠状態の検出タイミングではない状態で求められた睡眠度であることを表す付加情報を付加し、一方、タイミング検知部143から、睡眠状態の検出タイミングであるとの検知結果を受け付けた場合には、睡眠状態処理部142に、その求めた睡眠度の出力をそのまま行わせる。このような被監視者監視支援システムMS、睡眠状態検出装置および睡眠状態検出方法は、例えば、睡眠状態の検出に適した状態で睡眠状態処理部142によって求められた睡眠状態をそのまま出力したり、逆に、睡眠状態の検出に不適な状態で睡眠状態処理部142によって求められた睡眠状態に、睡眠状態の検出に不適な状態であることを表す情報を付加したり等するように、睡眠状態処理部142によって求められた睡眠状態をタイミング検知部143の検知結果で補助すること等が可能となるので、誤判定をより低減できる。 In the second modification, the processing control unit 144 controls whether or not the sleep state obtained by the sleep state processing unit 142 is supplemented by the detection result of the timing detection unit 143 according to the detection result of the timing detection unit 43. do. More specifically, in the processing S4, when the processing control unit 144 receives from the timing detection unit 143 the detection result indicating that it is not the sleep state detection timing, the sleep state processing unit 142 Additional information indicating that the sleep level is obtained in a state other than the detection timing of the sleep state, such as "low accuracy" or "low reliability", is added to the sleep level, while the timing detection unit 143, When receiving the detection result indicating that it is time to detect the sleep state, the sleep state processing unit 142 is caused to output the obtained degree of sleep as it is. Such a monitored person monitoring support system MS, a sleep state detection device, and a sleep state detection method can, for example, directly output the sleep state obtained by the sleep state processing unit 142 in a state suitable for detection of the sleep state, Conversely, information indicating that the sleep state is unsuitable for detection of the sleep state is added to the sleep state obtained by the sleep state processing unit 142 in a state unsuitable for detection of the sleep state. Since it is possible to assist the sleeping state obtained by the processing unit 142 with the detection result of the timing detection unit 143, etc., erroneous determination can be further reduced.

第3変形形態では、前記睡眠状態処理は、対象者(被監視者)Obの睡眠の深さの度合い表す睡眠度を、予め設定された睡眠度判定閾値と前記第1センサの第1測定結果とを比較することによって前記睡眠状態として求める処理であり、処理制御部144は、前記制御として、タイミング検知部143の検知結果に応じて前記睡眠状度判定閾値を変更する。上述の実施形態では、前記第1および第2睡眠度区分閾値が前記睡眠度判定閾値の一例に相当し、ドップラセンサ112が前記第1センサの一例に相当し、より具体的には、前記処理S4において、処理制御部144は、タイミング検知部143から、睡眠状態の検出タイミングではないとの検知結果を受け付けた場合には、第1および第2睡眠度区分閾値を、低睡眠度や高睡眠度と判定され難い値に変更し、これによって実質的に低睡眠度や高睡眠度が求められないようにセンサ装置SUが設定される。一方、処理制御部144は、タイミング検知部143から、睡眠状態の検出タイミングであるとの検知結果を受け付けた場合には、第1および第2睡眠度区分閾値を、低睡眠度や高睡眠度と判定され易い値に変更し、これによって実質的に低睡眠度や高睡眠度が求められ易くなるようにセンサ装置SUが設定される。このような被監視者監視支援システムMS、睡眠状態検出装置および睡眠状態検出方法は、例えば、睡眠状態の検出に適した状態の場合に、睡眠状態を求め易い値に、睡眠状度判定閾値を変更したり、逆に、睡眠状態の検出に不適な状態の場合に、睡眠状態を求め難い値に、睡眠状度判定閾値を変更したり等することが可能となるので、誤判定をより低減できる。 In the third modification, the sleep state processing determines the degree of sleep representing the degree of depth of sleep of the target person (monitored person) Ob by using a predetermined threshold for determining the degree of sleep and the first measurement result of the first sensor. The processing control unit 144 changes the sleep state determination threshold according to the detection result of the timing detection unit 143 as the control. In the above-described embodiment, the first and second sleep degree classification thresholds correspond to an example of the sleep degree determination threshold, the Doppler sensor 112 corresponds to an example of the first sensor, and more specifically, the process In S4, when the processing control unit 144 receives from the timing detection unit 143 the detection result indicating that it is not the sleep state detection timing, the first and second sleep degree classification thresholds are set to the low sleep degree and the high sleep degree. The sensor device SU is set so that the sleep level is changed to a value that is difficult to determine as a degree of sleep, thereby substantially not requiring a low sleep level or a high sleep level. On the other hand, when the processing control unit 144 receives the detection result indicating that it is time to detect the sleep state from the timing detection unit 143, the first and second sleep degree classification thresholds are set to low sleep degree and high sleep degree. The sensor device SU is set so that the low sleep degree and the high sleep degree can be substantially easily obtained. The monitored person monitoring support system MS, the sleep state detection device, and the sleep state detection method set the sleep state determination threshold value to a value that is easy to determine the sleep state, for example, in the case of a state suitable for detecting the sleep state. Conversely, if the sleep state is unsuitable for detecting the sleep state, it is possible to change the sleep state degree determination threshold value to a value that makes it difficult to determine the sleep state, thereby further reducing erroneous determination. can.

また、好ましくは、睡眠状態処理部142は、前記睡眠状態処理として、睡眠状態を求めるように機械学習された互いに異なる複数の学習モデルのうちのいずれかの学習モデルを用いて前記第1センサの第1測定結果に基づいて対象者(被監視者)Obの睡眠状態を求め、処理制御部144は、前記制御として、タイミング検知部143の検知結果に応じて、前記複数の学習モデルのうちから、睡眠状態処理部142で用いられる学習モデルを変更(選出)しても良い。また好ましくは、前記睡眠状態処理は、睡眠状態を求める互いに異なる複数のアルゴリズムを含み、睡眠状態処理部142は、前記複数のアルゴリズムのうちのいずれかのアルゴリズムを用いて前記第1センサの第1測定結果に基づいて対象者(被監視者)Obの睡眠状態を求め、処理制御部144は、前記制御として、タイミング検知部143の検知結果に応じて、前記複数のアルゴリズムのうちから、睡眠状態処理部142で用いられるアルゴリズムを変更(選出)しても良い。 Also, preferably, the sleep state processing unit 142 uses any one of a plurality of different learning models machine-learned so as to determine the sleep state as the sleep state processing, and uses the learning model of the first sensor. The sleep state of the subject (monitored person) Ob is obtained based on the first measurement result, and the processing control unit 144 selects from among the plurality of learning models according to the detection result of the timing detection unit 143 as the control. , the learning model used in the sleep state processing unit 142 may be changed (selected). Also preferably, the sleep state processing includes a plurality of mutually different algorithms for obtaining a sleep state, and the sleep state processing unit 142 uses any one of the plurality of algorithms to determine the first sensor of the first sensor. The sleep state of the subject (monitored person) Ob is obtained based on the measurement result, and the processing control unit 144 determines the sleep state from among the plurality of algorithms according to the detection result of the timing detection unit 143 as the control. The algorithm used by the processing unit 142 may be changed (selected).

第4変形形態では、前記睡眠状態処理は、予め設定された所定の時間間隔で、対象者(被監視者)Obの睡眠の深さの度合い表す睡眠度を、予め設定された睡眠度判定閾値と前記第1センサの第1測定結果とを比較することによって前記睡眠状態として仮に求め、前記仮に求めた睡眠度が、予め設定された継続判定時間、継続している場合に、前記仮に求めた睡眠度を最終的な睡眠度として決定する処理であり、処理制御部144は、前記制御として、タイミング検知部143の検知結果に応じて前記継続判定時間を変更する。上述の実施形態では、前記第1および第2睡眠度区分閾値が前記睡眠度判定閾値の一例に相当し、ドップラセンサ112が前記第1センサの一例に相当し、前記覚醒中継続判定時間、低睡眠中継続判定時間および高睡眠中継続判定時間が前記継続判定時間の一例に相当する。より具体的には、前記処理S4において、処理制御部144は、タイミング検知部143から、睡眠状態の検出タイミングではないとの検知結果を受け付けた場合には、前記覚醒中継続判定時間、低睡眠中継続判定時間および高睡眠中継続判定時間それぞれを、覚醒中や低睡眠度や高睡眠度と判定され難い値に変更し、これによって実質的に覚醒中や低睡眠度や高睡眠度が求められないようにセンサ装置SUが設定される。一方、処理制御部144は、タイミング検知部143から、睡眠状態の検出タイミングであるとの検知結果を受け付けた場合には、前記覚醒中継続判定時間、低睡眠中継続判定時間および高睡眠中継続判定時間それぞれを、覚醒中や低睡眠度や高睡眠度と判定され易い値に変更し、これによって実質的に覚醒中や低睡眠度や高睡眠度が求められ易くなるようにセンサ装置SUが設定される。このような被監視者監視支援システムMS、睡眠状態検出装置および睡眠状態検出方法は、例えば、睡眠状態の検出に適した状態の場合に、睡眠状態を求め易い値に、継続判定時間を変更したり、逆に、睡眠状態の検出に不適な状態の場合に、睡眠状態を求め難い値に、継続判定時間を変更したり等することが可能となるので、誤判定をより低減できる。 In the fourth modification, the sleep state processing is performed at predetermined time intervals by setting the degree of sleep representing the degree of depth of sleep of the subject (monitored person) Ob to a predetermined threshold for determining the degree of sleep. and the first measurement result of the first sensor to temporarily obtain the sleep state, and if the temporarily obtained degree of sleep continues for a preset continuation determination time, the temporarily obtained This is a process of determining the degree of sleep as the final degree of sleep, and the processing control unit 144 changes the continuation determination time according to the detection result of the timing detection unit 143 as the control. In the above-described embodiment, the first and second sleep degree classification thresholds correspond to an example of the sleep degree determination threshold, the Doppler sensor 112 corresponds to an example of the first sensor, and the awake continuation determination time is low. The continuous determination time during sleep and the continuous determination time during high sleep correspond to an example of the continuous determination time. More specifically, in the processing S4, when the processing control unit 144 receives a detection result indicating that it is not the sleep state detection timing from the timing detection unit 143, the awake continuation determination time, low sleep Changed the medium continuous determination time and the high sleep continuous determination time to values that are difficult to determine as being awake, low sleep level, or high sleep level. The sensor unit SU is set so that it cannot be detected. On the other hand, when the processing control unit 144 receives from the timing detection unit 143 the detection result indicating that it is the detection timing of the sleep state, the determination time during continuous awakening, the continuous determination time during low sleep, and the continuous determination time during high sleep Each of the determination times is changed to a value that makes it easy to determine that the user is awake, has a low sleep level, or has a high sleep level. set. The monitored person monitoring support system MS, the sleep state detection device, and the sleep state detection method change the continuation determination time to a value that makes it easy to determine the sleep state, for example, when the state is suitable for detecting the sleep state. Or conversely, in the case of a state unsuitable for detection of the sleeping state, it is possible to change the continuous determination time to a value that makes it difficult to determine the sleeping state, so that erroneous determination can be further reduced.

なお、より高精度に睡眠状態を検出する観点から、処理制御部144は、タイミング検知部143から、睡眠状態の検出タイミングであるとの検知結果を受け付けた場合には、前記覚醒中継続判定時間、低睡眠中継続判定時間および高睡眠中継続判定時間それぞれを、タイミング検知部143から、睡眠状態の検出タイミングではないとの検知結果を受け付けた場合における前記覚醒中継続判定時間、低睡眠中継続判定時間および高睡眠中継続判定時間それぞれの時間よりも長い値に、変更しても良い。 From the viewpoint of detecting the sleep state with higher accuracy, the processing control unit 144 receives the detection result indicating that it is time to detect the sleep state from the timing detection unit 143. , the continuation determination time during low sleep and the continuation determination time during high sleep are respectively determined by the continuation determination time during awakening and the continuation determination time during low sleep when the detection result that it is not the detection timing of the sleep state is received from the timing detection unit 143 It may be changed to a longer value than each of the determination time and the high sleep continuation determination time.

第5変形形態では、前記第1センサは、対象者(被監視者)Obを測定する複数のサブセンサを含み、睡眠状態処理部142は、前記睡眠状態処理として、前記第1センサにおける複数のサブセンサのうちのいずれかのサブセンサのサブ測定結果に基づいて対象者Obの睡眠状態を求め、処理制御部144は、前記制御として、タイミング検知部143の検知結果に応じて、前記複数のサブセンサのうちから、睡眠状態処理部142で用いられるサブセンサを変更する。このような場合において、前記複数のサブセンサは、異種の互いに異なるセンサであって良く、あるいは、前記複数のサブセンサは、同種で配設場所(配設位置)の互いに異なるセンサであって良い。 In the fifth modification, the first sensor includes a plurality of sub-sensors that measure the target person (monitored person) Ob, and the sleep state processing unit 142 performs the sleep state processing on the plurality of sub-sensors of the first sensor. Based on the sub-measurement result of one of the sub-sensors, the processing control unit 144 obtains the sleep state of the subject Ob based on the sub-measurement result of one of the sub-sensors, and the processing control unit 144 performs the above-described control according to the detection result of the timing detection unit 143, among the plurality of sub-sensors , the sub-sensor used by the sleep state processing unit 142 is changed. In such a case, the plurality of sub-sensors may be different types of sensors from each other, or the plurality of sub-sensors may be of the same type but at different locations (locations).

より具体的には、例えば、前記第1センサは、非接触型の上述のドップラセンサ112と、寝具BDと対象者(被監視者)Obとの間に敷かれ、人の重さを検出する接触型のマットセンサとを含み、処理制御部144は、タイミング検知部143から、睡眠状態の検出タイミングではないとの検知結果を受け付けた場合には、睡眠状態処理部142で用いられるサブセンサを前記マットセンサに変更し、睡眠状態処理部142に前記マットセンサの出力に基づいて対象者Obの睡眠状態を求めさせる。このようなマットセンサを用いて睡眠状態を求める手法は、例えば、特開2013-198654号公報や特開2014-223174号公報等に開示されている。また例えば、睡眠計 スリープスキャン SL-504(タニタ社製)や、睡眠計 HSL-101(オムロン社製)がサブセンサとして用いられても良い。一方、処理制御部144は、タイミング検知部143から、睡眠状態の検出タイミングであるとの検知結果を受け付けた場合には、睡眠状態処理部142で用いられるサブセンサをドップラセンサ112に変更し、睡眠状態処理部142にドップラセンサ112の出力に基づいて対象者Obの睡眠状態を求めさせる。 More specifically, for example, the first sensor is placed between the non-contact Doppler sensor 112 and the bedding BD and the target person (monitored person) Ob to detect the weight of the person. When the processing control unit 144 receives from the timing detection unit 143 the detection result indicating that it is not the sleep state detection timing, the sub-sensor used in the sleep state processing unit 142 is set as described above. A mat sensor is used, and the sleep state processing unit 142 obtains the sleep state of the subject Ob based on the output of the mat sensor. Techniques for obtaining a sleep state using such a mat sensor are disclosed, for example, in Japanese Unexamined Patent Application Publication No. 2013-198654 and Japanese Unexamined Patent Application Publication No. 2014-223174. Further, for example, a sleep meter SleepScan SL-504 (manufactured by Tanita Corporation) or a sleep meter HSL-101 (manufactured by Omron Corporation) may be used as sub-sensors. On the other hand, when the processing control unit 144 receives a detection result indicating that it is time to detect a sleep state from the timing detection unit 143, the sub-sensor used in the sleep state processing unit 142 is changed to the Doppler sensor 112, and sleep detection is performed. Based on the output of the Doppler sensor 112, the state processing unit 142 is caused to obtain the sleep state of the subject Ob.

また例えば、前記第1センサは、寝具BDに対向する天井に検出方向を寝具BDに向けて(検出方向を垂直下方向に向けて)配置された第1ドップラセンサと、寝具DBの側壁に検出方向を寝具BDに向けて(検出方向を水平方向に向けて)配置された第2ドップラセンサとを含み、タイミング検知部143は、さらに、対象者Obが横臥姿勢か横向きの横臥姿勢かをさらに検知し、処理制御部144は、タイミング検知部143から、横臥姿勢であるとの検知結果を受け付けた場合には、睡眠状態処理部142で用いられるサブセンサを前記第1ドップラセンサに変更し、睡眠状態処理部142に前記第1ドップラセンサの出力に基づいて対象者Obの睡眠状態を求めさせる。一方、処理制御部144は、タイミング検知部143から、横向きの横臥姿勢であるとの検知結果を受け付けた場合には、睡眠状態処理部142で用いられるサブセンサを前記第2ドップラセンサに変更し、睡眠状態処理部142に前記第2ドップラセンサの出力に基づいて対象者Obの睡眠状態を求めさせる。前記姿勢の抽出は、例えば予め用意された横臥姿勢および横向きの横臥姿勢の各モデル(各テンプレート)を用いたパターンマッチングによって、また例えばこれらの姿勢抽出用に学習したニューラルネットワークによって、抽出される。 Further, for example, the first sensor includes a first Doppler sensor arranged on the ceiling facing the bedding BD with the detection direction directed toward the bedding BD (with the detection direction directed vertically downward), and a side wall of the bedding DB. and a second Doppler sensor arranged with its direction facing the bedding BD (with its detection direction facing the horizontal direction). When the detection result of the lying posture is received from the timing detection unit 143, the processing control unit 144 changes the sub-sensor used in the sleep state processing unit 142 to the first Doppler sensor, and sleeps. The state processing unit 142 is caused to obtain the sleep state of the subject Ob based on the output of the first Doppler sensor. On the other hand, when the processing control unit 144 receives the detection result of the sideways lying posture from the timing detection unit 143, the sub sensor used in the sleep state processing unit 142 is changed to the second Doppler sensor, The sleep state processing unit 142 is caused to obtain the sleep state of the subject Ob based on the output of the second Doppler sensor. The posture is extracted, for example, by pattern matching using each model (each template) of a lying posture and a sideways lying posture prepared in advance, or by, for example, a neural network trained for extracting these postures.

また例えば、前記第1センサは、寝具BDに対向する天井に寝具BDに向けて配置された、検知範囲が相対的に狭い第1ドップラセンサと、天井に配置された検知範囲が相対的に広い第2ドップラセンサとを含み、処理制御部144は、タイミング検知部143から、睡眠状態の検出タイミングであるとの検知結果を受け付けた場合には、睡眠状態処理部142で用いられるサブセンサを前記第1ドップラセンサに変更し、睡眠状態処理部142に前記第1ドップラセンサの出力に基づいて対象者Obの睡眠状態を求めさせる。一方、処理制御部144は、タイミング検知部143から、睡眠状態の検出タイミングではないとの検知結果を受け付けた場合には、睡眠状態処理部142で用いられるサブセンサを前記第2ドップラセンサに変更し、睡眠状態処理部142に前記第2ドップラセンサの出力に基づいて対象者Obの睡眠状態を求めさせる。 Further, for example, the first sensor includes a first Doppler sensor with a relatively narrow detection range, which is arranged on the ceiling facing the bedding BD and faces the bedding BD, and a first Doppler sensor with a relatively wide detection range, which is arranged on the ceiling. When the processing control unit 144 receives the detection result indicating that it is time to detect a sleep state from the timing detection unit 143, the sub sensor used in the sleep state processing unit 142 is set to the second Doppler sensor. 1 Doppler sensor is used, and the sleep state processing unit 142 obtains the sleep state of the subject Ob based on the output of the first Doppler sensor. On the other hand, when the processing control unit 144 receives from the timing detection unit 143 the detection result indicating that it is not the sleep state detection timing, the sub sensor used in the sleep state processing unit 142 is changed to the second Doppler sensor. , causing the sleep state processing unit 142 to obtain the sleep state of the subject Ob based on the output of the second Doppler sensor.

このような被監視者監視支援システムMS、睡眠状態検出装置および睡眠状態検出方法は、タイミング検知部143の検知結果に応じて、複数のサブセンサのうちから、睡眠状態処理部142で用いられるサブセンサを変更するので、複数のサブセンサのうちから、タイミング検知部143の検知結果に応じて睡眠状態処理部142で用いられる適切なサブセンサを選択することが可能となるから、誤判定をより低減できる。 The monitored person monitoring support system MS, the sleep state detection device, and the sleep state detection method as described above select the sub-sensor used in the sleep state processing unit 142 from among the plurality of sub-sensors according to the detection result of the timing detection unit 143. Since it is changed, it is possible to select an appropriate sub-sensor to be used in the sleep state processing unit 142 from among a plurality of sub-sensors according to the detection result of the timing detection unit 143, so that erroneous determination can be further reduced.

第6変形形態では、タイミング検知部143は、前記第2センサの第2測定結果に基づいて対象者Obの姿勢を求め、この求めた姿勢が予め設定された特定の姿勢である場合に、睡眠状態処理部142で対象者Obの睡眠状態を求める検出タイミングであることを表す第1検知結果を出力し、処理制御部144は、タイミング検知部143から前記第1検知結果を受け付けた場合に、対象者Obの睡眠状態を求めるように睡眠状態処理部142を制御する。好ましくは、前記特定の姿勢は、仰向けの横臥姿勢である。また好ましくは、前記特定の姿勢は、うつ伏せを除く横臥姿勢である。好ましくは、前記第2センサは、画像を生成するカメラ111であり、タイミング検知部143は、カメラ111で生成された画像に基づいて対象者Obの姿勢を求める。より具体的には、例えば、タイミング検知部143は、上述のパターンマッチングやニューラルネットワークによって対象者Obが横臥姿勢であるか否かを検出し、対象者Obが横臥姿勢である場合に、上述のハフ変換やパターンマッチングやニューラルネットワークによって対象者Obの頭部領域を抽出し、この抽出した頭部領域における白領域と黒領域との面積比で仰向けか、うつ伏せかを弁別する。例えば、白領域の面積比が高い場合(白領域の面積>黒領域の面積)は、仰向けの横臥姿勢と判定され、黒領域の面積比が高い場合(白領域の面積<黒領域の面積)は、うつ伏せの横臥姿勢と判定される。また好ましくは、前記第2センサは、距離画像を生成する距離画像センサであり、タイミング検知部143は、前記距離画像センサで生成された距離画像に基づいて対象者Obの姿勢を求める。前記距離画像による姿勢の抽出では、距離画像における各画素が例えば右上腕や頭部等のレベルで人体の部位に対応付けられ、この対応付けに基づいて関節位置が抽出され、この抽出された関節位置から対象者Obの姿勢が求められる。前記人体の部位の識別には、例えば、姿勢抽出用に機械学習された、Random Descision Forestsの学習モデルが用いられる。また好ましくは、前記第2センサは、所定のマーカを検出するマーカ検出センサであり、タイミング検知部143は、前記マーカ検出センサで検出されたマーカに基づいて対象者(被監視者)Obの姿勢を求める。例えば、前記マーカは、対象者Obにおける正面の肩等に当たる被覆上に装着され、タイミング検知部143は、前記マーカ検出センサで前記マーカを検出した場合に仰向けの横臥姿勢と判定し、前記マーカ検出センサで前記マーカを検出しない場合にうつ伏せの横臥姿勢と判定する。 In the sixth modification, the timing detection unit 143 obtains the posture of the subject Ob based on the second measurement result of the second sensor, and when the obtained posture is a specific posture set in advance, sleep When the state processing unit 142 outputs a first detection result indicating that it is time to detect the sleep state of the subject Ob, and the processing control unit 144 receives the first detection result from the timing detection unit 143, The sleep state processing unit 142 is controlled to obtain the sleep state of the subject Ob. Preferably, the specific posture is a supine lying posture. Also preferably, the specific posture is a lying posture other than lying down. Preferably, the second sensor is the camera 111 that generates an image, and the timing detection unit 143 obtains the posture of the subject Ob based on the image generated by the camera 111 . More specifically, for example, the timing detection unit 143 detects whether or not the subject Ob is in the recumbent posture by the above-described pattern matching or neural network, and if the subject Ob is in the recumbent posture, the above-described The head region of the subject Ob is extracted by Hough transform, pattern matching, or neural network, and whether the person is lying on his or her back is discriminated based on the area ratio of the white region and the black region in the extracted head region. For example, when the area ratio of the white area is high (area of white area > area of black area), it is determined that the posture is lying on the back, and when the area ratio of black area is high (area of white area < area of black area). is determined to be a prone lying posture. Also preferably, the second sensor is a distance image sensor that generates a distance image, and the timing detection unit 143 obtains the posture of the subject Ob based on the distance image generated by the distance image sensor. In extracting the posture from the distance image, each pixel in the distance image is associated with a part of the human body at the level of, for example, the right upper arm or the head, and joint positions are extracted based on this correspondence. The posture of the target person Ob is obtained from the position. For identification of the parts of the human body, for example, a learning model of Random Decision Forests, which is machine-learned for posture extraction, is used. Also preferably, the second sensor is a marker detection sensor that detects a predetermined marker, and the timing detection unit 143 detects the posture of the subject (monitored person) Ob based on the marker detected by the marker detection sensor. Ask for For example, the marker is worn on the covering that hits the front shoulder of the subject Ob, and the timing detection unit 143 determines that the subject Ob has a lying posture when the marker detection sensor detects the marker, and detects the marker. When the sensor does not detect the marker, it is determined that the lying posture is prone.

このような被監視者監視支援システムMS、睡眠状態検出装置および睡眠状態検出方法は、対象者Obが睡眠状態の検出に適した姿勢の場合に、睡眠状態処理部142によって睡眠状態を求めるように、睡眠状態処理部142を制御することで、誤判定をより低減できる。 The monitored person monitoring support system MS, the sleep state detection device, and the sleep state detection method described above determine the sleep state by the sleep state processing unit 142 when the subject Ob is in a posture suitable for detecting the sleep state. By controlling the sleep state processing unit 142, erroneous determination can be further reduced.

第7変形形態では、図2に破線で示すように、センサ装置SUは、年月日時分を計時する時計部147を、SU制御処理部14に機能的にさらに備え、少なくとも睡眠の時間帯を含む対象者Obのスケジュール、を表すスケジュール情報を前記対象者Obに対応付けて記憶するスケジュール情報記憶部161を、SU記憶部16にさらに備え、処理制御部144は、時計部147から現在の時刻を取得し、この取得した現在の時刻に対応する対象者Obのスケジュールをスケジュール情報記憶部161から抽出し、この抽出した対象者Obのスケジュールおよびタイミング検知部143の検知結果に応じて睡眠状態処理部142を制御する。例えば、現在の時刻に対応する対象者Obのスケジュールが睡眠の時間帯であれば、処理制御部144は、タイミング検知部143から、睡眠状態の検出タイミングであるとの検知結果を受け付けた場合には、第1および第2睡眠度区分閾値を、デフォルト値よりもさらに、低睡眠度や高睡眠度と判定され易い値に変更する。このような被監視者監視支援システムMS、睡眠状態検出装置および睡眠状態検出方法は、対象者Obのスケジュールおよびタイミング検知部(行動検知処理部)143の検知結果に応じて睡眠状態処理部142を制御するので、対象者Obのスケジュールを勘案でき、誤判定をより低減できる。 In the seventh modification, as indicated by the dashed line in FIG. 2, the sensor device SU functionally further includes a clock unit 147 for clocking the date, time, and minute in the SU control processing unit 14, and at least determines the sleep time zone. The SU storage unit 16 further includes a schedule information storage unit 161 that stores schedule information representing the schedule of the target person Ob, including the schedule of the target person Ob, in association with the target person Ob. , extracts the schedule of the subject Ob corresponding to the acquired current time from the schedule information storage unit 161, and sleep state processing according to the extracted schedule of the subject Ob and the detection result of the timing detection unit 143 control unit 142; For example, if the subject Ob's schedule corresponding to the current time is a sleep time zone, the processing control unit 144 receives the detection result indicating that it is time to detect the sleep state from the timing detection unit 143. changes the first and second sleep degree classification thresholds to values that are more likely to be determined as a low sleep degree or a high sleep degree than the default values. The monitored person monitoring support system MS, the sleep state detection device, and the sleep state detection method described above activate the sleep state processing unit 142 according to the detection result of the schedule and timing detection unit (behavior detection processing unit) 143 of the subject Ob. Since the control is performed, the schedule of the subject Ob can be taken into consideration, and erroneous determination can be further reduced.

本明細書は、上記のように様々な態様の技術を開示しているが、そのうち主な技術を以下に纏める。 Although this specification discloses various aspects of the technology as described above, the main technologies thereof are summarized below.

一態様にかかる睡眠状態検出装置は、対象者を測定する第1および第2センサと、睡眠状態処理として、前記第1センサの第1測定結果に基づいて前記対象者の睡眠状態を求める睡眠状態処理部と、前記第2センサの第2測定結果に基づいて検出タイミングを検知するタイミング検知部と、前記タイミング検知部の検知結果に応じて前記睡眠状態処理部を制御する処理制御部とを備える。好ましくは、上述の睡眠状態検出装置において、前記睡眠状態処理は、前記対象者の睡眠の深さの度合い表す睡眠度を前記睡眠状態として求める処理である。好ましくは、上述の睡眠状態検出装置において、前記睡眠状態処理は、前記対象者の睡眠の深さの度合いを表す睡眠度および前記睡眠度に対する信頼性の度合いを表す信頼度を求める処理である。好ましくは、上述の睡眠状態検出装置において、前記第1センサは、前記対象者における、呼吸に伴う胸部の体表の動きを測定するドップラセンサであり、前記第2センサは、前記対象者の画像を生成するカメラである。 A sleep state detection device according to one aspect includes first and second sensors for measuring a subject, and as sleep state processing, a sleep state for determining the sleep state of the subject based on a first measurement result of the first sensor. A processing unit, a timing detection unit that detects detection timing based on the second measurement result of the second sensor, and a processing control unit that controls the sleep state processing unit according to the detection result of the timing detection unit. . Preferably, in the sleep state detection device described above, the sleep state processing is processing for obtaining a degree of sleep representing the degree of depth of sleep of the subject as the sleep state. Preferably, in the sleep state detection device described above, the sleep state processing is a process of obtaining a sleep degree representing the degree of depth of sleep of the subject and a reliability degree representing the degree of reliability of the sleep degree. Preferably, in the sleep state detection device described above, the first sensor is a Doppler sensor that measures body surface movement of the chest associated with respiration in the subject, and the second sensor is an image of the subject. is a camera that generates

このような睡眠状態検出装置は、タイミング検知部の検知結果に応じて睡眠状態処理部を制御するので、例えば、睡眠状態の検出に適した状態での、第1センサの第1測定結果に基づいて前記対象者の睡眠状態を求める一方、睡眠状態の検出に不適な状態で、前記対象者の睡眠状態を求めないように制御することが可能となるから、上記睡眠状態検出装置は、誤判定をより低減できる。 Since such a sleep state detection device controls the sleep state processing unit according to the detection result of the timing detection unit, for example, based on the first measurement result of the first sensor in a state suitable for detecting the sleep state While obtaining the sleep state of the subject, it is possible to control so as not to obtain the sleep state of the subject in a state unsuitable for detection of the sleep state, so that the sleep state detection device can prevent erroneous determination can be further reduced.

他の一態様では、上述の睡眠状態検出装置において、前記処理制御部は、前記タイミング検知部の検知結果に応じて、前記睡眠状態処理部における睡眠状態処理を実行するか否かを制御する。 In another aspect, in the sleep state detection device described above, the processing control unit controls whether or not to execute the sleep state processing in the sleep state processing unit according to the detection result of the timing detection unit.

このような睡眠状態検出装置は、例えば、睡眠状態の検出に適した状態で睡眠状態処理を実行したり、逆に、睡眠状態の検出に不適な状態で睡眠状態処理を不実行したり等するように、前記睡眠状態処理部における睡眠状態処理を制御することで、誤判定をより低減できる。 Such a sleep state detection device, for example, executes sleep state processing in a state suitable for detecting a sleep state, or conversely, does not execute sleep state processing in a state unsuitable for detecting a sleep state. Thus, by controlling the sleep state processing in the sleep state processing unit, erroneous determination can be further reduced.

他の一態様では、上述の睡眠状態検出装置において、前記処理制御部は、前記タイミング検知部の検知結果に応じて、前記睡眠状態処理部によって求められた睡眠状態の出力を行うか否かを制御する。 In another aspect, in the sleep state detection device described above, the processing control unit determines whether or not to output the sleep state obtained by the sleep state processing unit according to the detection result of the timing detection unit. Control.

このような睡眠状態検出装置は、例えば、睡眠状態の検出に適した状態で睡眠状態処理部によって求められた睡眠状態を出力したり、逆に、睡眠状態の検出に不適な状態で睡眠状態処理部によって求められた睡眠状態を不出力したり等するように、前記睡眠状態処理部を制御することで、誤判定をより低減できる。 Such a sleep state detection device outputs, for example, the sleep state obtained by the sleep state processing unit in a state suitable for sleep state detection, or conversely, sleep state processing in a state unsuitable for sleep state detection. By controlling the sleep state processing unit so as not to output the sleep state obtained by the unit, erroneous determination can be further reduced.

他の一態様では、上述の睡眠状態検出装置において、前記処理制御部は、前記タイミング検知部の検知結果に応じて、前記睡眠状態処理部によって求められた睡眠状態を前記タイミング検知部の検知結果で補助するか否かを制御する。 In another aspect, in the sleep state detection device described above, the processing control unit determines the sleep state obtained by the sleep state processing unit according to the detection result of the timing detection unit. to control whether or not to assist.

このような睡眠状態検出装置は、例えば、睡眠状態の検出に適した状態で睡眠状態処理部によって求められた睡眠状態をそのまま出力したり、逆に、睡眠状態の検出に不適な状態で睡眠状態処理部によって求められた睡眠状態に、睡眠状態の検出に不適な状態であることを表す情報を付加したり等するように、前記睡眠状態処理部によって求められた睡眠状態を前記タイミング検知部の検知結果で補助すること等が可能となるので、誤判定をより低減できる。 For example, such a sleep state detection device outputs the sleep state obtained by the sleep state processing unit as it is in a state suitable for detecting a sleep state, or conversely outputs a sleep state in a state unsuitable for detection of a sleep state. The timing detection unit detects the sleep state obtained by the sleep state processing unit so as to add information indicating that the sleep state is unsuitable for detection of the sleep state to the sleep state obtained by the processing unit. Since it is possible to assist with detection results, etc., it is possible to further reduce erroneous determinations.

他の一態様では、上述の睡眠状態検出装置において、前記睡眠状態処理は、前記対象者の睡眠の深さの度合い表す睡眠度を、予め設定された睡眠度判定閾値と前記第1センサの第1測定結果とを比較することによって前記睡眠状態として求める処理であり、前記処理制御部は、前記制御として、前記タイミング検知部の検知結果に応じて前記睡眠状度判定閾値を変更する。 In another aspect, in the sleep state detection device described above, the sleep state processing includes determining a degree of sleep representing the degree of depth of sleep of the subject, a predetermined sleep degree determination threshold value, and the first sensor of the first sensor. 1 measurement result to determine the sleep state, and the processing control unit changes the sleep state determination threshold in accordance with the detection result of the timing detection unit as the control.

このような睡眠状態検出装置は、例えば、睡眠状態の検出に適した状態の場合に、睡眠状態を求め易い値に、睡眠状度判定閾値を変更したり、逆に、睡眠状態の検出に不適な状態の場合に、睡眠状態を求め難い値に、睡眠状度判定閾値を変更したり等することが可能となるので、誤判定をより低減できる。 For example, in the case of a state suitable for detecting a sleep state, such a sleep state detection device changes the sleep state degree determination threshold value to a value that makes it easy to determine the sleep state, or conversely, In such a state, it is possible to change the sleep state degree determination threshold value to a value that makes it difficult to determine the sleep state, so that erroneous determination can be further reduced.

他の一態様では、上述の睡眠状態検出装置において、前記睡眠状態処理は、予め設定された所定の時間間隔で、前記対象者の睡眠の深さの度合い表す睡眠度を、予め設定された睡眠度判定閾値と前記第1センサの第1測定結果とを比較することによって前記睡眠状態として仮に求め、前記仮に求めた睡眠度が、予め設定された継続判定時間、継続している場合に、前記仮に求めた睡眠度を最終的な睡眠度として決定する処理であり、前記処理制御部は、前記制御として、前記タイミング検知部の検知結果に応じて前記継続判定時間を変更する。 In another aspect, in the sleep state detection device described above, the sleep state processing includes, at predetermined time intervals set in advance, detecting a degree of sleep representing the degree of depth of sleep of the subject to a predetermined level of sleep. By comparing the degree determination threshold and the first measurement result of the first sensor, the sleep state is tentatively obtained, and if the tentatively obtained degree of sleep continues for a preset continuation determination time, the This is a process of determining the tentatively obtained degree of sleep as the final degree of sleep, and as the control, the processing control unit changes the continuation determination time according to the detection result of the timing detection unit.

このような睡眠状態検出装置は、例えば、睡眠状態の検出に適した状態の場合に、睡眠状態を求め易い値に、継続判定時間を変更したり、逆に、睡眠状態の検出に不適な状態の場合に、睡眠状態を求め難い値に、継続判定時間を変更したり等することが可能となるので、誤判定をより低減できる。 For example, in the case of a state suitable for detecting a sleep state, such a sleep state detection device changes the continuous determination time to a value that makes it easy to determine the sleep state, In the case of , it is possible to change the continuation determination time to a value that makes it difficult to determine the sleep state, so that erroneous determination can be further reduced.

他の一態様では、上述の睡眠状態検出装置において、前記第1センサは、対象者を測定する複数のサブセンサを含み、前記睡眠状態処理部は、前記睡眠状態処理として、前記第1センサにおける複数のサブセンサのうちのいずれかのサブセンサのサブ測定結果に基づいて前記対象者の睡眠状態を求め、前記処理制御部は、前記制御として、前記タイミング検知部の検知結果に応じて、前記複数のサブセンサのうちから、前記睡眠状態処理部で用いられるサブセンサを変更する。好ましくは、上述の睡眠状態検出装置において、前記複数のサブセンサは、異種の互いに異なるセンサである。好ましくは、上述の睡眠状態検出装置において、前記複数のサブセンサは、同種で配設場所(配設位置)の互いに異なるセンサである。好ましくは、上述の睡眠状態検出装置において、前記複数のサブセンサは、同種で検出方向の互いに異なるセンサである。 In another aspect, in the sleep state detection device described above, the first sensor includes a plurality of sub-sensors that measure the subject, and the sleep state processing unit performs the sleep state processing on the plurality of sub-sensors in the first sensor. The sleep state of the subject is obtained based on the sub-measurement result of one of the sub-sensors of the sub-sensors, and the processing control unit, as the control, according to the detection result of the timing detection unit, the plurality of sub-sensors Among them, the sub-sensor used in the sleep state processing unit is changed. Preferably, in the sleep state detection device described above, the plurality of sub-sensors are different types of sensors. Preferably, in the sleep state detection device described above, the plurality of sub-sensors are sensors of the same type and arranged in different locations (positions). Preferably, in the sleep state detection device described above, the plurality of sub-sensors are sensors of the same type but with different detection directions.

このような睡眠状態検出装置は、タイミング検知部の検知結果に応じて、複数のサブセンサのうちから、睡眠状態処理部で用いられるサブセンサを変更するので、複数のサブセンサのうちから、タイミング検知部の検知結果に応じて睡眠状態処理部で用いられる適切なサブセンサを選択することが可能となるから、誤判定をより低減できる。 In such a sleep state detection device, the sub-sensor used in the sleep state processing unit is changed from among the plurality of sub-sensors according to the detection result of the timing detection unit. Since it becomes possible to select an appropriate sub-sensor to be used in the sleep state processing unit according to the detection result, erroneous determination can be further reduced.

他の一態様では、これら上述の睡眠状態検出装置において、前記タイミング検知部は、前記第2センサの第2測定結果に基づいて前記対象者の姿勢を求め、前記求めた姿勢が予め設定された特定の姿勢である場合に、前記睡眠状態処理部で前記対象者の睡眠状態を求める検出タイミングであることを表す第1検知結果を出力し、前記処理制御部は、前記タイミング検知部から前記第1検知結果を受け付けた場合に、前記対象者の睡眠状態を求めるように前記睡眠状態処理部を制御する。好ましくは、上述の睡眠状態検出装置において、前記特定の姿勢は、仰向けの横臥姿勢である。好ましくは、上述の睡眠状態検出装置において、前記特定の姿勢は、うつ伏せを除く横臥姿勢である。好ましくは、上述の睡眠状態検出装置において、前記第2センサは、画像を生成するカメラであり、前記タイミング検知部は、前記カメラで生成された画像に基づいて前記対象者の姿勢を求める。好ましくは、上述の睡眠状態検出装置において、前記第2センサは、距離画像を生成する距離画像センサであり、前記タイミング検知部は、前記距離画像センサで生成された距離画像に基づいて前記対象者の姿勢を求める。好ましくは、上述の睡眠状態検出装置において、前記第2センサは、所定のマーカを検出するマーカ検出センサであり、前記タイミング検知部は、前記マーカ検出センサで検出されたマーカに基づいて前記対象者の姿勢を求める。 According to another aspect, in the sleep state detection device described above, the timing detection unit obtains the posture of the subject based on the second measurement result of the second sensor, and the obtained posture is set in advance. In the case of a specific posture, the sleep state processing unit outputs a first detection result indicating that it is the detection timing for determining the sleep state of the subject, and the processing control unit outputs the first detection result from the timing detection unit. 1 When the detection result is received, the sleep state processing unit is controlled so as to obtain the sleep state of the subject. Preferably, in the sleep state detection device described above, the specific posture is a supine lying posture. Preferably, in the sleep state detection device described above, the specific posture is a lying posture other than lying down. Preferably, in the sleep state detection device described above, the second sensor is a camera that generates an image, and the timing detection unit obtains the posture of the subject based on the image generated by the camera. Preferably, in the sleep state detection device described above, the second sensor is a distance image sensor that generates a distance image, and the timing detection unit detects the subject based on the distance image generated by the distance image sensor. Seek the attitude of Preferably, in the sleep state detection device described above, the second sensor is a marker detection sensor that detects a predetermined marker, and the timing detection unit detects the target person based on the marker detected by the marker detection sensor. Seek the attitude of

このような睡眠状態検出装置は、対象者が睡眠状態の検出に適した姿勢の場合に、睡眠状態処理部によって睡眠状態を求めるように、睡眠状態処理部を制御することで、誤判定をより低減できる。 Such a sleep state detection device controls the sleep state processing unit so that the sleep state is obtained by the sleep state processing unit when the subject is in a posture suitable for detecting the sleep state, thereby reducing erroneous determination. can be reduced.

他の一態様では、これら上述の睡眠状態検出装置において、年月日時分を計時する時計部と、少なくとも睡眠の時間帯を含む前記対象者のスケジュール、を表すスケジュール情報を前記対象者に対応付けて記憶するスケジュール情報記憶部とを備え、前記処理制御部は、前記時計部から現在の時刻を取得し、前記取得した現在の時刻に対応する前記対象者のスケジュールを前記スケジュール情報記憶部から抽出し、前記抽出した前記対象者のスケジュールおよび前記タイミング検知部の検知結果に応じて前記睡眠状態処理部を制御する。 In another aspect, in the sleep state detecting device described above, schedule information representing a schedule of the subject including at least a sleep time period and a clock unit that measures the date and time of the day is associated with the subject. wherein the processing control unit acquires the current time from the clock unit and extracts the subject's schedule corresponding to the acquired current time from the schedule information storage unit. and controls the sleep state processing unit according to the extracted schedule of the subject and the detection result of the timing detection unit.

このような睡眠状態検出装置は、前記対象者のスケジュールおよび前記タイミング検知部の検知結果に応じて前記睡眠状態処理部を制御するので、対象者のスケジュールを勘案でき、誤判定をより低減できる。 Since such a sleep state detection device controls the sleep state processing unit according to the schedule of the subject and the detection result of the timing detection unit, the schedule of the subject can be taken into consideration, and erroneous determination can be further reduced.

他の一態様にかかる睡眠状態検出方法は、第1および第2センサそれぞれで対象者を測定する測定工程と、前記第1センサの第1測定結果に基づいて前記対象者の睡眠状態を判定する睡眠状態判定工程と、前記第2センサの第2測定結果に基づいて検出タイミングを検知するタイミング検知工程と、前記タイミング検知工程の検知結果に応じて前記睡眠状態処理工程を制御する処理制御工程とを備える。 A sleep state detection method according to another aspect includes a measurement step of measuring a subject with first and second sensors, and determining the sleep state of the subject based on a first measurement result of the first sensor. a sleep state determination step; a timing detection step of detecting detection timing based on the second measurement result of the second sensor; and a processing control step of controlling the sleep state processing step according to the detection result of the timing detection step. Prepare.

このような睡眠状態検出方法は、タイミング検知工程の検知結果に応じて睡眠状態処理工程を制御するので、例えば、睡眠状態の検出に適した状態での、第1センサの第1測定結果に基づいて前記対象者の睡眠状態を求める一方、睡眠状態の検出に不適な状態で、前記対象者の睡眠状態を求めないようにすることが可能となるから、上記睡眠状態検出方法は、誤判定をより低減できる。 Since such a sleep state detection method controls the sleep state processing step according to the detection result of the timing detection step, for example, based on the first measurement result of the first sensor in a state suitable for detecting the sleep state While obtaining the sleep state of the subject by using the method, it is possible not to obtain the sleep state of the subject in a state unsuitable for detection of the sleep state. can be further reduced.

他の一態様にかかる被監視者監視支援システムは、対象者に対応して設けられ、前記対象者の睡眠状態を求めるセンサ装置、前記センサ装置と通信可能に接続され前記センサ装置から受信した睡眠状態を管理する中央処理装置、および、前記中央処理装置と通信可能に接続され前記中央処理装置を介して前記睡眠状態を受信して表示する端末装置を備え、前記対象者を被監視者として前記被監視者の監視を支援するための被監視者監視支援システムであって、前記センサ装置は、これら上述のいずれかの睡眠状態検出装置を含む。 A monitored person monitoring support system according to another aspect includes a sensor device provided corresponding to a subject to determine the sleep state of the subject, sleep data received from the sensor device communicably connected to the sensor device, and sleep information received from the sensor device. A central processing unit that manages the sleep state, and a terminal device that is communicably connected to the central processing unit and receives and displays the sleep state via the central processing unit, and the subject is the monitored person. A monitored person monitoring support system for assisting monitoring of a monitored person, wherein the sensor device includes any one of the sleep state detection devices described above.

これによれば、これら上述のいずれかの睡眠状態検出装置を用いた被監視者監視支援システムが提供できる。このような被監視者監視支援システムは、これら上述のいずれかの睡眠状態検出装置を用いるので、誤判定をより低減できる。 According to this, it is possible to provide a monitored person monitoring support system using any one of the sleep state detection devices described above. Since such a monitored person monitoring support system uses any one of the sleep state detection devices described above, erroneous determination can be further reduced.

この出願は、2017年8月10日に出願された日本国特許出願特願2017-155071を基礎とするものであり、その内容は、本願に含まれるものである。 This application is based on Japanese Patent Application No. 2017-155071 filed on August 10, 2017, the content of which is included in the present application.

本発明の実施形態が詳細に図示され、かつ、説明されたが、それは単なる図例及び実例であって限定ではない。本発明の範囲は、添付されたクレームの文言によって解釈されるべきである。 While embodiments of the present invention have been illustrated and described in detail, this is done by way of illustration and example only, and not limitation. The scope of the invention should be construed by the language of the appended claims.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。 Although the present invention has been adequately and fully described above through embodiments with reference to the drawings in order to express the present invention, modifications and/or improvements to the above-described embodiments can easily be made by those skilled in the art. It should be recognized that it is possible. Therefore, to the extent that modifications or improvements made by those skilled in the art do not depart from the scope of the claims set forth in the claims, such modifications or improvements do not fall within the scope of the claims. is interpreted to be subsumed by

本発明によれば、睡眠状態を検出する睡眠状態検出装置および睡眠状態検出方法ならびにこの睡眠状態検出装置を用いた被監視者監視支援システムが提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the sleep state detection apparatus and sleep state detection method which detect a sleep state, and the monitored person monitoring support system using this sleep state detection apparatus can be provided.

Claims (11)

対象者を測定する第1および第2センサと、
睡眠状態処理として、前記第1センサの第1測定結果に基づいて前記対象者の睡眠状態を求める睡眠状態処理部と、
前記第2センサの第2測定結果に基づいて検出タイミングを検知するタイミング検知部と、
前記タイミング検知部の検知結果に応じて前記睡眠状態処理部を制御する処理制御部とを備え、
前記タイミング検知部は、前記第2センサの第2測定結果に基づいて前記前記対象者における所定の行動を判定する行動検知処理部と兼用され
前記所定の行動は、第1および第2グループに分けられ
前記第2センサは、前記第1グループに属する第1行動を検知するための第1サブセンサと、前記第2グループに属する第2行動を検知するための第2サブセンサとを含み
前記第1センサは、前記第2サブセンサと兼用されている、
睡眠状態検出装置。
first and second sensors for measuring a subject;
As sleep state processing, a sleep state processing unit that obtains the sleep state of the subject based on the first measurement result of the first sensor;
a timing detection unit that detects detection timing based on the second measurement result of the second sensor;
a processing control unit that controls the sleep state processing unit according to the detection result of the timing detection unit;
The timing detection unit is also used as an action detection processing unit that determines a predetermined action of the subject based on the second measurement result of the second sensor,
the predetermined actions are divided into first and second groups ;
The second sensor includes a first sub-sensor for detecting a first action belonging to the first group and a second sub-sensor for detecting a second action belonging to the second group,
The first sensor is also used as the second sub-sensor ,
Sleep state detection device.
前記処理制御部は、前記タイミング検知部の検知結果に応じて、前記睡眠状態処理部における睡眠状態処理を実行するか否かを制御する、
請求項1に記載の睡眠状態検出装置。
The processing control unit controls whether to execute sleep state processing in the sleep state processing unit according to the detection result of the timing detection unit.
The sleep state detection device according to claim 1.
前記処理制御部は、前記タイミング検知部の検知結果に応じて、前記睡眠状態処理部によって求められた睡眠状態の出力を行うか否かを制御する、
請求項1に記載の睡眠状態検出装置。
The processing control unit controls whether to output the sleep state obtained by the sleep state processing unit according to the detection result of the timing detection unit.
The sleep state detection device according to claim 1.
前記処理制御部は、前記タイミング検知部の検知結果に応じて、前記睡眠状態処理部によって求められた睡眠状態を前記タイミング検知部の検知結果で補助するか否かを制御する、
請求項1に記載の睡眠状態検出装置。
The processing control unit controls whether or not the sleep state obtained by the sleep state processing unit is supplemented by the detection result of the timing detection unit, according to the detection result of the timing detection unit.
The sleep state detection device according to claim 1.
前記睡眠状態処理は、前記対象者の睡眠の深さの度合い表す睡眠度を、予め設定された睡眠度判定閾値と前記第1センサの第1測定結果とを比較することによって前記睡眠状態として求める処理であり、
前記処理制御部は、前記制御として、前記タイミング検知部の検知結果に応じて前記睡眠判定閾値を変更する、
請求項1に記載の睡眠状態検出装置。
In the sleep state processing, a degree of sleep representing the degree of depth of sleep of the subject is obtained as the sleep state by comparing a preset sleep degree determination threshold with a first measurement result of the first sensor. processing,
As the control, the processing control unit changes the sleep degree determination threshold according to the detection result of the timing detection unit.
The sleep state detection device according to claim 1.
前記睡眠状態処理は、予め設定された所定の時間間隔で、前記対象者の睡眠の深さの度合い表す睡眠度を、予め設定された睡眠度判定閾値と前記第1センサの第1測定結果とを比較することによって前記睡眠状態として仮に求め、前記仮に求めた睡眠度が、予め設定された継続判定時間、継続している場合に、前記仮に求めた睡眠度を最終的な睡眠度として決定する処理であり、
前記処理制御部は、前記制御として、前記タイミング検知部の検知結果に応じて前記継続判定時間を変更する、
請求項1に記載の睡眠状態検出装置。
In the sleep state processing, at predetermined time intervals set in advance, the degree of sleep representing the degree of depth of sleep of the subject is calculated based on a predetermined threshold for determining the degree of sleep and the first measurement result of the first sensor. is tentatively determined as the sleep state by comparing, and if the tentatively determined degree of sleep continues for a preset continuation determination time, the tentatively determined degree of sleep is determined as the final degree of sleep. processing,
The processing control unit changes the continuation determination time according to the detection result of the timing detection unit as the control.
The sleep state detection device according to claim 1.
前記第1センサは、対象者を測定する複数のサブセンサを含み、
前記睡眠状態処理部は、前記睡眠状態処理として、前記第1センサにおける複数のサブセンサのうちのいずれかのサブセンサのサブ測定結果に基づいて前記対象者の睡眠状態を求め、
前記処理制御部は、前記制御として、前記タイミング検知部の検知結果に応じて、前記複数のサブセンサのうちから、前記睡眠状態処理部で用いられるサブセンサを変更する、
請求項1に記載の睡眠状態検出装置。
The first sensor includes a plurality of sub-sensors that measure the subject,
The sleep state processing unit, as the sleep state processing, obtains the sleep state of the subject based on a sub-measurement result of one of the plurality of sub-sensors of the first sensor,
As the control, the processing control unit changes the sub-sensor used in the sleep state processing unit from among the plurality of sub-sensors according to the detection result of the timing detection unit.
The sleep state detection device according to claim 1.
前記タイミング検知部は、前記第2センサの第2測定結果に基づいて前記対象者の姿勢を求め、前記求めた姿勢が予め設定された特定の姿勢である場合に、前記睡眠状態処理部で前記対象者の睡眠状態を求める検出タイミングであることを表す第1検知結果を出力し、
前記処理制御部は、前記タイミング検知部から前記第1検知結果を受け付けた場合に、前記対象者の睡眠状態を求めるように前記睡眠状態処理部を制御する、
請求項1ないし請求項7のいずれか1項に記載の睡眠状態検出装置。
The timing detection unit obtains the posture of the subject based on the second measurement result of the second sensor, and when the obtained posture is a predetermined specific posture, the sleep state processing unit Outputting a first detection result indicating that it is the detection timing for obtaining the sleep state of the subject,
The processing control unit controls the sleep state processing unit to determine the sleep state of the subject when the first detection result is received from the timing detection unit.
The sleep state detection device according to any one of claims 1 to 7.
年月日時分を計時する時計部と、
少なくとも睡眠の時間帯を含む前記対象者のスケジュール、を表すスケジュール情報を前記対象者に対応付けて記憶するスケジュール情報記憶部とを備え、
前記処理制御部は、前記時計部から現在の時刻を取得し、前記取得した現在の時刻に対応する前記対象者のスケジュールを前記スケジュール情報記憶部から抽出し、前記抽出した前記対象者のスケジュールおよび前記タイミング検知部の検知結果に応じて前記睡眠状態処理部を制御する、
請求項1ないし請求項8のいずれか1項に記載の睡眠状態検出装置。
a clock unit that measures the date, time, and minute;
a schedule information storage unit that stores schedule information representing the subject's schedule including at least sleeping time slots in association with the subject,
The processing control unit acquires the current time from the clock unit, extracts the subject's schedule corresponding to the acquired current time from the schedule information storage unit, and extracts the subject's schedule and controlling the sleep state processing unit according to the detection result of the timing detection unit;
The sleep state detection device according to any one of claims 1 to 8.
第1および第2センサそれぞれで対象者を測定する測定工程と、
睡眠状態処理として、前記第1センサの第1測定結果に基づいて前記対象者の睡眠状態を求める睡眠状態処理工程と、
前記第2センサの第2測定結果に基づいて検出タイミングを検知するタイミング検知工程と、
前記タイミング検知工程の検知結果に応じて前記睡眠状態処理工程を制御する処理制御工程とを備え、
前記タイミング検知工程は、前記第2センサの第2測定結果に基づいて前記前記対象者における所定の行動を判定する行動検知処理工程と兼用され
前記所定の行動は、第1および第2グループに分けられ
前記第2センサは、前記第1グループに属する第1行動を検知するための第1サブセンサと、前記第2グループに属する第2行動を検知するための第2サブセンサとを含み
前記第1センサは、前記第2サブセンサと兼用されている、
睡眠状態検出方法。
a measuring step of measuring the subject with each of the first and second sensors;
As sleep state processing , a sleep state processing step of obtaining the sleep state of the subject based on the first measurement result of the first sensor;
A timing detection step of detecting detection timing based on the second measurement result of the second sensor;
a processing control step of controlling the sleep state processing step according to the detection result of the timing detection step;
The timing detection step is also used as an action detection processing step for determining a predetermined action of the subject based on the second measurement result of the second sensor,
the predetermined actions are divided into first and second groups ;
The second sensor includes a first sub-sensor for detecting a first action belonging to the first group and a second sub-sensor for detecting a second action belonging to the second group,
The first sensor is also used as the second sub-sensor ,
Sleep state detection method.
対象者に対応して設けられ、前記対象者の睡眠状態を求めるセンサ装置、前記センサ装置と通信可能に接続され前記センサ装置から受信した睡眠状態を管理する中央処理装置、および、前記中央処理装置と通信可能に接続され前記中央処理装置を介して前記睡眠状態を受信して表示する端末装置を備え、前記対象者を被監視者として前記被監視者の監視を支援するための被監視者監視支援システムであって、
前記センサ装置は、請求項1ないし請求項9のいずれか1項に記載の睡眠状態検出装置を含む、
被監視者監視支援システム。
A sensor device provided corresponding to a subject to determine the sleep state of the subject, a central processing unit communicably connected to the sensor device and managing the sleep state received from the sensor device, and the central processing unit and a terminal device that receives and displays the sleep state via the central processing unit and is communicably connected to the monitored person monitoring for supporting the monitoring of the monitored person with the subject as the monitored person. A support system,
The sensor device includes the sleep state detection device according to any one of claims 1 to 9,
Monitored person monitoring support system.
JP2019535604A 2017-08-10 2018-05-15 SLEEP STATE DETECTION DEVICE AND METHOD, AND MONITORED PERSON MONITORING SUPPORT SYSTEM Active JP7180601B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017155071 2017-08-10
JP2017155071 2017-08-10
PCT/JP2018/018633 WO2019031010A1 (en) 2017-08-10 2018-05-15 Device and method for detecting sleep state, and system for assisting monitoring of monitored person

Publications (2)

Publication Number Publication Date
JPWO2019031010A1 JPWO2019031010A1 (en) 2020-07-09
JP7180601B2 true JP7180601B2 (en) 2022-11-30

Family

ID=65271432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019535604A Active JP7180601B2 (en) 2017-08-10 2018-05-15 SLEEP STATE DETECTION DEVICE AND METHOD, AND MONITORED PERSON MONITORING SUPPORT SYSTEM

Country Status (2)

Country Link
JP (1) JP7180601B2 (en)
WO (1) WO2019031010A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114027667B (en) * 2021-12-01 2023-08-15 慕思健康睡眠股份有限公司 Method and device for judging out-of-bed state, intelligent mattress and medium

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005342188A (en) 2004-06-02 2005-12-15 Delta Tooling Co Ltd System for deciding mental and physical condition
JP2006508742A (en) 2002-12-04 2006-03-16 カーディアック ペースメーカーズ,インコーポレイテッド Respiratory disorder detection
JP2007502670A (en) 2003-08-18 2007-02-15 カーディアック ペースメーカーズ,インコーポレイテッド Respiratory disorder management system and method
JP2012170483A (en) 2011-02-17 2012-09-10 Fujitsu Ltd State detection device and state detection method
WO2014083657A1 (en) 2012-11-29 2014-06-05 トヨタ自動車株式会社 Sleep control device and sleep control method
JP2014151120A (en) 2013-02-13 2014-08-25 Hitachi Systems Ltd Sleep state monitoring system and sleep state monitoring program
JP2014200386A (en) 2013-04-02 2014-10-27 キッセイコムテック株式会社 Sleep state determination system and sleep state determination method
JP2015106282A (en) 2013-11-29 2015-06-08 エコナビスタ株式会社 Monitoring system and monitoring method
WO2015107744A1 (en) 2014-01-17 2015-07-23 任天堂株式会社 Information processing system, server system, information processing program, and information processing method
JP2016047305A (en) 2015-11-30 2016-04-07 株式会社豊田中央研究所 Consciousness state estimation device and program
JP2016067812A (en) 2014-10-01 2016-05-09 セイコーエプソン株式会社 Active state information detector and control method of active state information detector
JP2016115054A (en) 2014-12-12 2016-06-23 富士通株式会社 Monitoring control program, monitoring controller, and monitoring control method
WO2017061371A1 (en) 2015-10-06 2017-04-13 コニカミノルタ株式会社 Action detecting system, action detecting device, action detecting method, and action detecting program

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006508742A (en) 2002-12-04 2006-03-16 カーディアック ペースメーカーズ,インコーポレイテッド Respiratory disorder detection
JP2007502670A (en) 2003-08-18 2007-02-15 カーディアック ペースメーカーズ,インコーポレイテッド Respiratory disorder management system and method
JP2005342188A (en) 2004-06-02 2005-12-15 Delta Tooling Co Ltd System for deciding mental and physical condition
JP2012170483A (en) 2011-02-17 2012-09-10 Fujitsu Ltd State detection device and state detection method
WO2014083657A1 (en) 2012-11-29 2014-06-05 トヨタ自動車株式会社 Sleep control device and sleep control method
JP2014151120A (en) 2013-02-13 2014-08-25 Hitachi Systems Ltd Sleep state monitoring system and sleep state monitoring program
JP2014200386A (en) 2013-04-02 2014-10-27 キッセイコムテック株式会社 Sleep state determination system and sleep state determination method
JP2015106282A (en) 2013-11-29 2015-06-08 エコナビスタ株式会社 Monitoring system and monitoring method
WO2015107744A1 (en) 2014-01-17 2015-07-23 任天堂株式会社 Information processing system, server system, information processing program, and information processing method
JP2016067812A (en) 2014-10-01 2016-05-09 セイコーエプソン株式会社 Active state information detector and control method of active state information detector
JP2016115054A (en) 2014-12-12 2016-06-23 富士通株式会社 Monitoring control program, monitoring controller, and monitoring control method
WO2017061371A1 (en) 2015-10-06 2017-04-13 コニカミノルタ株式会社 Action detecting system, action detecting device, action detecting method, and action detecting program
JP2016047305A (en) 2015-11-30 2016-04-07 株式会社豊田中央研究所 Consciousness state estimation device and program

Also Published As

Publication number Publication date
JPWO2019031010A1 (en) 2020-07-09
WO2019031010A1 (en) 2019-02-14

Similar Documents

Publication Publication Date Title
JP6720909B2 (en) Action detection device, method and program, and monitored person monitoring device
JP6852733B2 (en) Living body monitoring device and living body monitoring method
JP2020098619A (en) Monitored person monitoring system, information processing device, and program
US10706706B2 (en) System to determine events in a space
JP6992749B2 (en) Central processing unit, central processing method and program of monitored person monitoring system and monitored person monitoring system
JP7044060B2 (en) Observer monitoring device, method and system
JP6142975B1 (en) Monitored person monitoring apparatus and method, and monitored person monitoring system
JP7137154B2 (en) Behavior detection device and method, and monitored person monitoring support system
JP7180601B2 (en) SLEEP STATE DETECTION DEVICE AND METHOD, AND MONITORED PERSON MONITORING SUPPORT SYSTEM
WO2018230104A1 (en) Central processing device and central processing method for person-to-be-monitored monitoring assist system, and person-to-be-monitored monitoring assist system
WO2017195839A1 (en) Monitored person monitoring system, terminal device, and monitored person monitoring method
EP3486868A1 (en) Behavior determination device and behavior determination method
JP7137155B2 (en) Monitored Person Monitoring Support System, Monitored Person Monitoring Support Method and Program
JP7259540B2 (en) Determination device, control program for determination device, and determination method
JPWO2019031011A1 (en) Sleep state detecting apparatus and method, and monitored person monitoring support system
JPWO2019235068A1 (en) Monitored person monitoring support device, monitored person monitoring support method, monitored person monitoring support system and monitored person monitoring support server device
WO2023089892A1 (en) Estimation method, estimation system, and program
JP7268387B2 (en) Monitoring device and program for monitoring device
WO2018230103A1 (en) Monitored person monitoring device and method therefor, and monitored person monitoring assist system
JP2022177693A (en) Watching system, watching terminal, and program
JP2020135063A (en) Surveillance device and program for surveillance device
JP2023105966A (en) Method and program executed by computer to detect change in state of resident, and resident state change detection device
JPWO2020031531A1 (en) Movement behavior abnormality determination device and its method, and monitored person monitoring support system
JP2020184201A (en) Information reporting program, information processing device, and method to be executed by computer in order to report information
WO2019069638A1 (en) Self-reliance index measurement apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R150 Certificate of patent or registration of utility model

Ref document number: 7180601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150