JP6390886B2 - Watch device - Google Patents

Watch device Download PDF

Info

Publication number
JP6390886B2
JP6390886B2 JP2013118330A JP2013118330A JP6390886B2 JP 6390886 B2 JP6390886 B2 JP 6390886B2 JP 2013118330 A JP2013118330 A JP 2013118330A JP 2013118330 A JP2013118330 A JP 2013118330A JP 6390886 B2 JP6390886 B2 JP 6390886B2
Authority
JP
Japan
Prior art keywords
watching
area
partial
image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013118330A
Other languages
Japanese (ja)
Other versions
JP2014235669A (en
Inventor
和田 貴志
貴志 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KYOKKO ELECTRIC CO Ltd
Original Assignee
KYOKKO ELECTRIC CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KYOKKO ELECTRIC CO Ltd filed Critical KYOKKO ELECTRIC CO Ltd
Priority to JP2013118330A priority Critical patent/JP6390886B2/en
Publication of JP2014235669A publication Critical patent/JP2014235669A/en
Application granted granted Critical
Publication of JP6390886B2 publication Critical patent/JP6390886B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)

Description

本発明は、見守り領域において人である見守り対象を検知する見守り装置に関し、特に、見守り領域を簡単に設定できるものに関する。   The present invention relates to a watching device that detects a watching target that is a person in the watching region, and more particularly to a device that can easily set a watching region.

従来の見守り装置の一つである生活見守りシステムSについて図19、図20を用いて説明する。図19は、独居高齢者を見守り対象者とする生活見守りシステムSを示したものである。システムSは、管理センタ1のサーバ10と、各高齢者宅2の宅内見守り装置20と、上記高齢者を見守るべき関係者(情報配信先)のクライアント端末31〜33とを通信ネットワーク41,42で繋ぐことによって構築されている。   A life monitoring system S that is one of conventional monitoring devices will be described with reference to FIGS. 19 and 20. FIG. 19 shows a life watching system S for watching an elderly person living alone. The system S includes communication networks 41 and 42 that connect the server 10 of the management center 1, the in-home monitoring device 20 of each elderly person's house 2, and the client terminals 31 to 33 of the parties (information distribution destinations) who should observe the elderly person. It is built by connecting with.

宅内見守り装置20は、見守り主装置21(居場所判定手段)と、複数の人感センサ22A〜22Cと、1つのベッドセンサ23(寝床センサ)とを備えている。各センサ22A〜22C,23は、宅2の電灯線2aを介して見守り主装置21に接続されている。   The in-home monitoring device 20 includes a monitoring main device 21 (location determination means), a plurality of human sensors 22A to 22C, and one bed sensor 23 (bed bed sensor). Each of the sensors 22A to 22C and 23 is connected to the monitoring main device 21 via the power line 2a of the house 2.

図20に示すように、複数の人感センサ22A〜22Cは、宅2内の互いに異なる場所に配置されている。例えば、人感センサ22Aは、玄関に配置され、人感センサ22Bは、居間に配置され、人感センサ22Cは、洗面所と一緒になったトイレに配置されている。(勿論、台所や浴室にも配置することにしてもよい。)人感センサ22A〜22Cは、人体等からの赤外線に感応する焦電型赤外線センサで構成されている。各人感センサ22A〜22Cの感応領域は、各々の配置場所のほぼ全域に及んでいる。   As shown in FIG. 20, the plurality of human sensors 22 </ b> A to 22 </ b> C are arranged at different locations in the house 2. For example, the human sensor 22A is arranged at the entrance, the human sensor 22B is arranged in the living room, and the human sensor 22C is arranged in the toilet together with the washroom. (Of course, you may arrange also in a kitchen or a bathroom.) Human sensor 22A-22C is comprised by the pyroelectric infrared sensor which responds to the infrared rays from a human body etc. The sensitive area of each of the human sensors 22A to 22C extends over almost the entire area of the arrangement.

図20に例示した宅2には、専用の寝室が無く、居間(所定部屋)にベッド(寝床)が設けられている。このベッドに上記ベッドセンサ23が取り付けられている。ベッドセンサ23は、ベッドのみにおける人体に感応するセンサであり、ベッドに人が載った時(入床時)、オン信号を出力し、ベッドから人が降りた時(離床時)、オフ信号を出力する。ここでは、ベッドセンサ23として、ベッドにかかる荷重の変化に感応する感圧センサやロードセルが用いられているが、これに限定されるものではなく、静電容量センサや温度センサ等を用いることもできる。センサ22A〜22C,23の感応信号は、電灯線2aを伝って見守り主装置21に送られるようになっている。   The home 2 illustrated in FIG. 20 does not have a dedicated bedroom, and a bed (bed) is provided in the living room (predetermined room). The bed sensor 23 is attached to the bed. The bed sensor 23 is a sensor that is sensitive to the human body only in the bed, and outputs an ON signal when a person is placed on the bed (when entering the floor), and outputs an OFF signal when a person gets off the bed (when leaving the bed). Output. Here, the bed sensor 23 is a pressure-sensitive sensor or load cell that is sensitive to changes in the load applied to the bed, but is not limited to this, and a capacitance sensor, a temperature sensor, or the like may be used. it can. Sensitive signals from the sensors 22A to 22C and 23 are transmitted to the main device 21 through the power line 2a.

見守り主装置21は、センサ22A〜22C,23からの信号に基づいて上記高齢者の宅2内での居場所(ないしは移動先)の判定を行い、判定結果を通信ネットワーク41を介して上記サーバ10へ送信するようになっている。   The watching main device 21 determines the location (or destination) of the elderly person in the home 2 based on signals from the sensors 22A to 22C and 23, and the determination result is sent to the server 10 via the communication network 41. To send to.

見守り主装置21は、ベッドセンサ23のオン信号があったときは当該ベッドセンサ23のみに基づいて居場所判定を行ない、ベッドに居ないと判断されたとき(ステップ112又はステップ115でオフ信号有りと判断されたとき)、人感センサ22A〜22Cをも加えた居場所判定を行なう。したがって、人感センサ22A〜22Cを加えた居場所判定時に居間へ移動(居間滞在中)と確定判断したときは、上記高齢者は、ベッドにはおらず、居間のベッド以外の箇所に居ることになる。これによって、宅2に専用の寝室が無く、居間内にベッドが設けられている場合であっても、上記高齢者が在床中(ベッド滞在中)なのか、それとも居間のベッド以外の箇所に滞在中なのかを確実かつ
容易に判定することができる。(以上、特許文献1参照)。
When there is an ON signal of the bed sensor 23, the watching main device 21 performs the location determination based on only the bed sensor 23, and when it is determined that the bed sensor 23 is not in the bed (in step 112 or step 115, the presence of the OFF signal). When it is determined), the whereabouts determination including the human sensors 22A to 22C is performed. Therefore, when it is determined to move to the living room (while staying in the living room) at the time of determination of the place where the presence sensors 22A to 22C are added, the elderly person is not in the bed but is in a place other than the bed in the living room. . As a result, even if there is no dedicated bedroom in house 2 and a bed is provided in the living room, the above elderly person is in bed (while staying in bed) or in a place other than the bed in the living room Whether or not you are staying can be determined reliably and easily. (See Patent Document 1 above).

特開2003−317165号公報JP 2003-317165 A

前述の生活見守りシステムSには、以下に示すような改善すべき点がある。生活見守りシステムSでは、ベッドセンサ23は、見守り対象がベッド上に存在するか否かを判断するのみであり、ベッドでの詳細な状態を検知することできない。このため、ベッド及びその周辺は危険度が高いにもかかわらず、見守り対象の状態を十分に検知できない、という改善すべき点がある。   The above-mentioned life watching system S has the following points to be improved. In the life watching system S, the bed sensor 23 only determines whether the watching target exists on the bed, and cannot detect the detailed state of the bed. For this reason, there is a point that should be improved that the state of the watching target cannot be sufficiently detected even though the bed and its surroundings are highly dangerous.

また、ベッドの位置は常に一定ではなく、見守り対象者毎に、また、部屋の構成によって異なる、このため、部屋の構成や見守り対象者毎に、ベッドセンサ23を設定する必要があり、設定にともない繁雑な作業が発生する、と言う改善すべき点がある。   In addition, the bed position is not always constant and differs depending on the person to be watched and the room configuration. For this reason, it is necessary to set the bed sensor 23 for each room structure and person to be watched. Along with this, there is a point to be improved that complicated work occurs.

さらに、人感センサ22A〜22C、ベッドセンサ23という複数のセンサが使用されている。このため、部屋の形状、間取りに合わせた、センサの配置場所の検討、センサの設置作業が必要となる。結果として、設置作業が煩雑となり、また、設置の費用が高くなる、という果然すべき点がある。   Further, a plurality of sensors such as human sensors 22A to 22C and a bed sensor 23 are used. For this reason, it is necessary to examine the location of the sensor and to install the sensor in accordance with the shape of the room and the layout. As a result, there is a definite point that the installation work becomes complicated and the cost of installation becomes high.

そこで、本発明は、見守り領域において、見守り度合いに応じた部分見守り領域を設定でき、見守り度合いに応じて検知方法を選択できるとともに、部分見守り領域を所望の位置に容易に設定できる見守り装置を提供することを目的とする。   Therefore, the present invention provides a watching device that can set a partial watching area according to the watching degree in the watching area, can select a detection method according to the watching degree, and can easily set the partial watching area at a desired position. The purpose is to do.

本発明における課題を解決するための手段及び発明の効果を以下に示す。   Means for solving the problems in the present invention and the effects of the invention will be described below.

本発明に係る見守り装置は、見守り領域の画像を見守り領域画像情報として取得する見守り領域画像取得手段、前記見守り領域の一部である部分見守り領域を検知領域として、前記検知領域において人である見守り対象の存在を検知する見守り対象検知手段であって、前記検知領域を形成する検知領域形成手段を有し、前記検知領域の所定の区分毎に前記見守り対象を検知する見守り対象検知手段、前記検知領域を形成する位置を所望の位置に移動させる部分見守り領域移動手段、を有する。   The watching device according to the present invention is a watching area image acquisition means for acquiring an image of a watching area as watching area image information, and a monitoring area that is a part of the watching area is used as a detection area. A monitoring target detection means for detecting the presence of a target, comprising a detection area forming means for forming the detection area, the monitoring target detection means for detecting the monitoring target for each predetermined section of the detection area, the detection And a partial watching area moving means for moving a position where the area is formed to a desired position.

これにより、見守り領域の画像を用いた見守り対象の行動分析と、部分見守り領域における見守り対象の存在検知に基づく見守り対象の行動分析とを、行うことができる。より詳細な分析が必要な見守り領域については、部分見守り領域を設定することができる。   Thereby, the behavior analysis of the watching target using the image of the watching region and the behavior analysis of the watching target based on the detection of the presence of the watching target in the partial watching region can be performed. For a watching area that requires more detailed analysis, a partial watching area can be set.

また、部分見守り領域を所望の位置に移動させることができるので、見守り対象に適した分析を行うことができる。   In addition, since the partial watching region can be moved to a desired position, analysis suitable for the watching target can be performed.

本発明に係る見守り装置は、らを所定の位置に固定するための基礎筐体、前記基礎筐体に対して相対的に移動可能な可動筐体、を有し、前記可動筐体は、前記検知領域形成手段を内包すること、を特徴とする。   The watching device according to the present invention has a basic casing for fixing the frame at a predetermined position, a movable casing movable relative to the basic casing, and the movable casing is It includes a detection area forming means.

これにより、部分見守り領域を、容易に所望の位置に設定することができる。   Thereby, the partial watching area can be easily set at a desired position.

本発明に係る見守り装置では、前記見守り画像取得手段は、全周囲レンズを有すること、を特徴とする。   The watching device according to the present invention is characterized in that the watching image acquisition means includes an all-around lens.

これにより、複数の見守り対象検知センサを設置せずとも、広範囲の見守り領域の画像を、容易に取得することができる。   Thereby, an image of a wide range of watching area can be easily acquired without installing a plurality of watching target detection sensors.

本発明に係る見守り装置では、前記検知領域形成手段は、赤外線を受信すること、を特徴とする。   In the watching apparatus according to the present invention, the detection area forming means receives infrared rays.

これにより、見守り対象の存在の詳細な検知を容易に行うことができる。   Thereby, detailed detection of the presence of the watching target can be easily performed.

本発明に係る見守り装置では、前記検知領域形成手段は、前記検知領域を形成する所定の検知波を送信し、前記検知波の反射波を受信すること、を特徴とする。   In the watching apparatus according to the present invention, the detection area forming means transmits a predetermined detection wave forming the detection area and receives a reflected wave of the detection wave.

これにより、見守り対象の存在の詳細な検知を容易に行うことができる。   Thereby, detailed detection of the presence of the watching target can be easily performed.

本発明に係る見守り装置では、前記基礎筐体及び前記可動筐体の少なくとも一方は、前記基礎筐体と前記可動筐体との、相対的な位置を示す位置表示手段を有すること、を特徴とする。   In the watching apparatus according to the present invention, at least one of the basic casing and the movable casing includes a position display unit that indicates a relative position between the basic casing and the movable casing. To do.

これにより、見守り領域を正確に所望の位置に配置することができる。   Thereby, the watching area can be accurately arranged at a desired position.

本発明に係る見守り装置は、さらに、所定の設定処理を開始するための設定開始情報を取得すると、前記見守り領域画像取得手段を介して取得した見守り領域画像を送信する設定用見守り画像送信手段、を有する。   The monitoring apparatus according to the present invention further includes a setting watching image transmitting unit that transmits the watching region image acquired through the watching region image acquiring unit when setting start information for starting a predetermined setting process is acquired. Have

これにより、見守り領域の画像を用いることによって、視覚による見守り装置の設定を行うことができるので、容易に設定を行うことができる。   As a result, by using the image of the watching region, it is possible to set the watching device visually, so that the setting can be easily performed.

本発明に係る見守り装置は、さらに、前記見守り領域画像取得を介して取得した見守り領域の画像を用いて、前記見守り対象の行動を判断する見守り対象行動判断手段、を有する。   The watching device according to the present invention further includes watching target action determining means for determining the watching target action using the watching area image acquired through the watching area image acquisition.

これにより、画像解析による見守り対象の行動解析を行うことができる。   Thereby, the behavioral analysis of the watching target by image analysis can be performed.

本発明に係る見守り装置では、前記見守り対象行動判断手段は、前記見守り領域のうち前記検知波検知領域以外の領域について、前記見守り対象の行動を判断すること、を特徴とする。   In the watching apparatus according to the present invention, the watching target action determining means determines the watching target action for an area other than the detection wave detection area in the watching area.

これにより、部分見守り領域については、見守り対象の存在検知に基づく行動解析を行い、部分見守り領域以外の領域については、画像解析に基づき行動解析を行うことができる。
Thereby, the behavior analysis based on the presence detection of the monitoring target can be performed for the partial monitoring region, and the behavior analysis can be performed based on the image analysis for the region other than the partial monitoring region.

本発明に係る見守りシステムの一実施例である見守りシステム100のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the watching system 100 which is one Example of the watching system which concerns on this invention. 見守り領域SA及び部分見守り領域SA1を示す図であり、Aは見守り領域SAを、Bは部分見守り領域SA1を、それぞれ示す図である。It is a figure which shows watching area SA and partial watching area SA1, A is a figure which shows watching area SA, B is partial watching area SA1. 見守り装置110のハードウェア構成を示す図である。2 is a diagram illustrating a hardware configuration of a watching device 110. FIG. 見守り装置110の外観構成を示す図である。It is a figure which shows the external appearance structure of the monitoring apparatus 110. FIG. 状態解析装置130のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the state analysis apparatus. 設定端末150のハードウェア構成を示す図である。2 is a diagram illustrating a hardware configuration of a setting terminal 150. FIG. 見守りシステム100の設定処理を示すフローチャートである。4 is a flowchart showing a setting process of the watching system 100. 見守りシステム100の設定処理を示すフローチャートである。4 is a flowchart showing a setting process of the watching system 100. 見守り領域画像BSAの一例を示す図であり、Aは補正前を、Bは補正後を示した図である。It is a figure which shows an example of the watching area | region image BSA, A is the figure before correction | amendment, B is the figure after correction | amendment. 見守りシステム100の設定処理を示すフローチャートである。4 is a flowchart showing a setting process of the watching system 100. 標準第1部分見守り領域DBの構造を示す図である。It is a figure which shows the structure of standard 1st part monitoring area | region DB. ディスプレイ156における表示状態を示す、Aは表示補正第1部分見守り領域DSA1を表示した状態を、Bは表示補正第1部分見守り領域DSA1を移動させた状態を示した図である。A display state on the display 156 is shown in which A is a state in which the display correction first partial watching area DSA1 is displayed and B is a state in which the display correction first partial watching area DSA1 is moved. 見守りシステム100の設定処理を示すフローチャートである。4 is a flowchart showing a setting process of the watching system 100. ディスプレイ156を介した見守り度合いの設定を示す図であり、Aは見守り度合い入力欄DAが表示された状態を、Bは見守り度合い入力欄DAを介した見守り度合いの設定を、それぞれ示す図である。It is a figure which shows the setting of the watching degree via the display 156, A is a figure which shows the state in which the watching degree input column DA was displayed, and B is the setting of the watching degree via the watching degree input column DA, respectively. . 第2部分見守り領域DSA2に対する見守り度合いの設定を示す図である。It is a figure which shows the setting of the watching degree with respect to 2nd partial watching area | region DSA2. 見守り度合い情報のデータ構造を示す図である。It is a figure which shows the data structure of watching degree information. 見守りシステム100の設定処理を示すフローチャートである。4 is a flowchart showing a setting process of the watching system 100. 見守り装置のその他の実施形態を示す図である。It is a figure which shows other embodiment of a monitoring apparatus. 従来の見守り装置を示す図である。It is a figure which shows the conventional monitoring apparatus. 従来の見守り装置を示す図である。It is a figure which shows the conventional monitoring apparatus.

以下、本発明の実施例について、図面を参照しながら詳細に説明していく。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本発明に係る複数の検知精度を有する検知装置の一例である見守りシステム100について説明する。見守りシステム100は、所定領域における見守り対象者の状態を遠隔から把握し、把握した状態から、見守り対象者に生ずる危険を察知し、見守り対象者に対して適切な対応を施すためのシステムである。   The watching system 100 which is an example of the detection apparatus which has several detection precision based on this invention is demonstrated. The watching system 100 is a system for remotely grasping the state of the person to be watched in a predetermined area, detecting a risk that occurs in the person to be watched from the grasped state, and taking an appropriate response to the person to be watched. .

見守りシステム100は、例えば、高齢者入居施設で利用される。高齢者入居施設において、高齢者が日常の生活する生活環境においては、いくつかの危険な場所が想定される。その一つに、高齢者が生活する部屋に設置されているベッド周辺があげられる。   The watching system 100 is used, for example, in an elderly residence facility. In a living environment where elderly people live in an elderly facility, several dangerous places are assumed. One of them is the area around the bed installed in the room where the elderly live.

一般的に、人は、ベッドから起き上がり、活動を開始しようとする際に、ベッドに横たわっている状態である横臥状態から、ベッドの端に腰掛けた状態である端座位状態となり、その後立ち上がった起立状態を経て、歩く歩行状態へと移っていく。ここで、端座位状態から起立状態へと移る際、姿勢が大きく変化する。   In general, when a person gets up from a bed and tries to start an activity, the person goes from a lying position lying on the bed to an end sitting position sitting on the edge of the bed, and then standing up Go through the state and move to the walking state. Here, when moving from the end-sitting position to the standing-up state, the posture changes greatly.

高齢者の場合、端座位状態から起立状態へと移る際に、バランスを崩して倒れる等、危険な状態に陥りやすい。したがって、高齢者入所施設では、危険な場所として、ベッド及びその周辺を重点的に注意する必要がある。ベッド及びその周辺の中でも、特に、端座位状態となるベッドの端部、及び、端座位状態から起立状態となるベッド周辺について、注意する必要がある。   In the case of an elderly person, when moving from an end-sitting position to a standing position, the person tends to fall into a dangerous state such as falling out of balance and falling. Therefore, it is necessary to pay close attention to the bed and its surroundings as a dangerous place in the elderly entrance facility. Of the bed and its surroundings, attention must be paid particularly to the end of the bed that is in the end-sitting position and the bed periphery that is in the standing-up state from the end-sitting position.

また、歩行状態となった後の行動についても、注意する必要がある。例えば、部屋からの外出については、痴呆症状の有無といった見守り対象者の健康状態、昼間、深夜等の検知時間によって、注意する必要がある。   It is also necessary to pay attention to the behavior after walking. For example, when going out of a room, it is necessary to pay attention to the health status of the person being watched over, such as the presence or absence of dementia symptoms, and the detection time such as daytime or midnight.

以下においては、見守りシステム100について、高齢者入所施設で利用する場合を例に説明する。
第1 外観構成
Hereinafter, the case where the watching system 100 is used in an elderly person entrance facility will be described as an example.
First appearance configuration

見守りシステム100のハードウェア構成について図1を用いて説明する。見守りシステム100は、見守り装置110、状態解析装置130、及び、設定端末150を有している。見守り装置110は、見守り対象者である高齢者が使用する部屋において、見守り対象者の状態を検知する装置である。状態解析装置130は、見守り装置110で検知した見守り対象者の状態から、見守り対象者がどのような状態にあるのかを解析する装置である。設定端末150は、見守り装置110及び状態解析装置130に対して各種の初期設定するための装置である。   A hardware configuration of the watching system 100 will be described with reference to FIG. The watching system 100 includes a watching device 110, a state analysis device 130, and a setting terminal 150. The watching device 110 is a device that detects the state of the watching target person in a room used by an elderly person who is the watching target person. The state analysis device 130 is a device that analyzes the state of the watching target person from the state of the watching target person detected by the watching device 110. The setting terminal 150 is a device for performing various initial settings for the monitoring device 110 and the state analysis device 130.

以下において、見守り装置110、状態解析装置130、及び、設定端末150の構成について説明する。
1.見守り装置110の構成
Below, the structure of the monitoring apparatus 110, the state analysis apparatus 130, and the setting terminal 150 is demonstrated.
1. Configuration of the watching device 110

見守り装置110は、高齢者入所施設の部屋の天井に設置される。ここで、高齢者入居施設において、高齢者が使用する一般的な部屋を図2Aに示す。図2Aに示す部屋には、ベッドBが配置されるとともに、窓W、出入り口E1、E2等が配置されている。なお、見守り対象である高齢者が乗り降りする側のベッドBの端部を乗降ベッド端部T1とする。また、乗降ベッド端部T1の周辺を乗降ベッド端部周辺T2とする。   The watching device 110 is installed on the ceiling of the room of the elderly entrance facility. Here, FIG. 2A shows a general room used by an elderly person in an elderly person occupying facility. In the room shown in FIG. 2A, a bed B is arranged, and windows W, entrances E1, E2, and the like are arranged. In addition, let the edge part of the bed B of the side where the elderly person who is watching over gets on and off be boarding / alighting bed edge part T1. Moreover, let the periphery of the boarding / exiting bed end T1 be the boarding / exiting bed end peripheral T2.

見守り装置110のハードウェア構成について図3を用いて説明する。見守り装置110は、CPU111、メモリ112、通信ユニット115、人感センサユニット119、及び、カメラユニット117を有している。   The hardware configuration of the watching device 110 will be described with reference to FIG. The watching device 110 includes a CPU 111, a memory 112, a communication unit 115, a human sensor unit 119, and a camera unit 117.

CPU111は、メモリ112に記録されているプログラムに基づいた処理を行う。メモリ112は、CPU111に対して作業領域を一時的に提供する。また、メモリ112は、行動監視プログラム等その他のアプリケーションを記録保持する。   The CPU 111 performs processing based on a program recorded in the memory 112. The memory 112 temporarily provides a work area to the CPU 111. The memory 112 records and holds other applications such as an action monitoring program.

通信ユニット115は、状態解析装置130と有線によるデータの送受信を行う。また、通信ユニット115は、設定端末150と無線によるデータの送受信を行う。   The communication unit 115 transmits / receives data to / from the state analysis device 130 by wire. The communication unit 115 transmits and receives data to and from the setting terminal 150 wirelessly.

カメラユニット117は、全周囲レンズ117a及び撮像素子ユニット117bを有している。全周囲レンズ117aは、レンズ前180度の領域を画像として取得することができるレンズである。全周囲レンズ117aを用いることによって、一般的な広角レンズでは取得することができないような、部屋全体の領域を画像として取得することができる。撮像素子ユニット117bは、全周囲レンズ117aによって取得した画像をデジタルデータとして取得する。また、カメラユニット117によって取得された画像は、通信ユニット115を介して、見守り領域画像情報として状態解析装置130へ送信される。   The camera unit 117 includes an omnidirectional lens 117a and an image sensor unit 117b. The all-around lens 117a is a lens that can acquire an area of 180 degrees in front of the lens as an image. By using the omnidirectional lens 117a, it is possible to acquire a region of the entire room as an image that cannot be acquired with a general wide-angle lens. The image sensor unit 117b acquires an image acquired by the omnidirectional lens 117a as digital data. In addition, the image acquired by the camera unit 117 is transmitted to the state analysis device 130 as watching area image information via the communication unit 115.

見守りシステム100では、カメラユニット117において取得できる画像の範囲を見守り領域とする。したがって、カメラユニット117が図2Aに示す領域を画像として取得できるならば、図2Aに示す領域が見守り領域となる。なお、本実施例においては、カメラユニット117が画像として取得する図2Aに示す領域を見守り領域SAとして説明する。   In the watching system 100, a range of images that can be acquired by the camera unit 117 is set as a watching area. Therefore, if the camera unit 117 can acquire the area shown in FIG. 2A as an image, the area shown in FIG. 2A becomes the watching area. In the present embodiment, the area SA shown in FIG. 2A acquired as an image by the camera unit 117 will be described as an area SA.

人感センサユニット119は、検知する対象である見守り対象の温度を赤外線を用いて検出することによって、所定の検知領域における人の存在を検知する。人感センサユニット119は、見守り対象が発する赤外線(熱線)を検知波として受信する検知領域形成手段119aを有している。人感センサユニット119によって検知された見守り対象の検知情報は、通信ユニット115を介して、見守り対象検知情報として状態解析装置130へ送信される。   The human sensor unit 119 detects the presence of a person in a predetermined detection area by detecting the temperature of the watching target, which is a detection target, using infrared rays. The human sensor unit 119 includes a detection region forming unit 119a that receives infrared rays (heat rays) emitted from a watching target as a detection wave. The monitoring target detection information detected by the human sensor unit 119 is transmitted to the state analysis device 130 as the monitoring target detection information via the communication unit 115.

人感センサユニット119は、図2Bに示すように、部屋の床面に、所定の長さ方向及び幅方向の軸に沿った矩形形状の検知領域である第1部分見守り領域SA1を形成する。人感センサユニット119は、第1部分見守り領域SA1内を分割した所定のグリッド毎に見守り対象を検知する。このため、第1部分見守り領域SA1は、複数のグリッドに分割されている。   As shown in FIG. 2B, the human sensor unit 119 forms a first partial watching area SA1, which is a rectangular detection area along predetermined length and width axes, on the floor of the room. The human sensor unit 119 detects a watching target for each predetermined grid obtained by dividing the first partial watching area SA1. For this reason, the first partial watching area SA1 is divided into a plurality of grids.

全周囲レンズ117aによって取得した見守り領域のうち、人感センサユニット119の第1部分見守り領域SA1を除く領域を第2部分見守り領域SA2とする。第2部分見守り領域SA2では、カメラユニット117が取得した画像に基づき、状態解析装置130が、画像解析によって、見守り対象を検知する。   Of the watching area acquired by the all-around lens 117a, the area excluding the first partial watching area SA1 of the human sensor unit 119 is defined as a second partial watching area SA2. In the second partial watching area SA2, based on the image acquired by the camera unit 117, the state analysis device 130 detects a watching target by image analysis.

見守り装置110の外観構成について図4を用いて説明する。見守り装置110は、基礎筐体110a及び可動筐体110bを有している。基礎筐体110aは、天井の所定の位置に固定される。基礎筐体110aの内部には、CPU111、メモリ112、通信ユニット115、及びカメラユニット117が配置される。   The external configuration of the watching device 110 will be described with reference to FIG. The watching device 110 includes a basic housing 110a and a movable housing 110b. The base casing 110a is fixed at a predetermined position on the ceiling. A CPU 111, a memory 112, a communication unit 115, and a camera unit 117 are arranged inside the basic housing 110a.

基礎筐体110aの外表面には、所定の位置に、人感センサユニット119が形成する第1部分見守り領域SA1の長さ方向、幅方向、それぞれの軸の方向を示す第1部分見守り領域軸指定マーク110cが表示されている。見守り装置110を設置しようとする設置者は、ベッドBの長さ方向、幅方向、それぞれが、第1部分見守り領域軸指定マーク110cの検知領域の長さ方向、幅方向の軸に沿うように、見守り装置110を天井に設置する。   On the outer surface of the base casing 110a, a first partial watching region axis indicating the length direction, the width direction, and the direction of each axis of the first partial watching region SA1 formed by the human sensor unit 119 at a predetermined position. A designation mark 110c is displayed. The installer who intends to install the watching device 110 is such that the length direction and the width direction of the bed B are along the length direction and width direction axes of the detection region of the first partial watching region axis designation mark 110c. The monitoring device 110 is installed on the ceiling.

また、基礎筐体110aの外部には、全周囲レンズ117aを配置するための全周囲レンズ配置孔110dが形成されている。   Further, an omnidirectional lens arrangement hole 110d for arranging the omnidirectional lens 117a is formed outside the basic housing 110a.

可動筐体110bは、基礎筐体110aに対して移動でき、所望の位置で固定できる。可動筐体110bの内部には、少なくとも人感センサユニット119の検知領域形成手段119aが配置される。これにより、簡単に第1部分見守り領域SA1を形成する位置を設定することができる。   The movable casing 110b can move relative to the base casing 110a and can be fixed at a desired position. At least the detection region forming means 119a of the human sensor unit 119 is disposed inside the movable housing 110b. Thereby, the position which forms 1st partial watching area SA1 can be set easily.

基礎筐体110aに対する可動筐体110bの位置については、可動筐体位置情報として、見守り装置110のメモリ112に記憶される。
2.状態解析装置130の構成
The position of the movable casing 110b with respect to the basic casing 110a is stored in the memory 112 of the watching device 110 as movable casing position information.
2. Configuration of state analyzer 130

状態解析装置130は、見守り装置110が取得した第1部分見守り領域SA1における人の位置、及び、第2部分見守り領域SA2に関する画像、から見守り対象の状態を解析する装置である。状態解析装置130のハードウェア構成について図5を用いて説明する。   The state analysis device 130 is a device that analyzes the state of the monitoring target from the position of the person in the first partial watching area SA1 acquired by the watching apparatus 110 and the image related to the second partial watching area SA2. The hardware configuration of the state analysis device 130 will be described with reference to FIG.

状態解析装置130は、CPU131、メモリ132、ハードディスク133及び通信回路138を備えている。さらに、状態解析装置130には、キーボード134、マウス135、ディスプレイ136及び光学式ドライブ137が接続されている。   The state analysis device 130 includes a CPU 131, a memory 132, a hard disk 133, and a communication circuit 138. Further, a keyboard 134, a mouse 135, a display 136 and an optical drive 137 are connected to the state analysis device 130.

CPU131は、ハードディスク133に記録されているオペレーティング・システム(OS)、状態解析プログラム等その他のアプリケーションに基づいた処理を行う。メモリ132は、CPU131に対して作業領域を提供する。ハードディスク133は、OS、状態解析プログラム等その他のアプリケーション及び各種データを記録保持する。   The CPU 131 performs processing based on other applications such as an operating system (OS) and a state analysis program recorded on the hard disk 133. The memory 132 provides a work area for the CPU 131. The hard disk 133 records and holds other applications and various data such as an OS and a state analysis program.

通信回路138は、ネットワークに接続するための通信回路を有しており、見守り装置110等の外部の通信機器とデータの送受信を行う。   The communication circuit 138 includes a communication circuit for connecting to a network, and transmits / receives data to / from an external communication device such as the watching device 110.

キーボード134、マウス135は、外部からの命令を受け付け、状態解析装置130へ提供する。ディスプレイ136は、状態解析装置130からユーザーインターフェイス等の画像情報を取得し、取得した画像情報を表示する。光学式ドライブ137は、状態解析プログラムが記録されている光学式メディア230から状態解析プログラム及び他の光学式メディアからその他のアプリケーションのプログラムを読み取る等、光学式メディアからのデータの読み取りを行い、状態解析装置130へ提供する。
3.設定端末150の構成
The keyboard 134 and mouse 135 accept external commands and provide them to the state analysis device 130. The display 136 acquires image information such as a user interface from the state analysis device 130 and displays the acquired image information. The optical drive 137 reads data from the optical medium, such as reading a state analysis program from the optical medium 230 in which the state analysis program is recorded and a program of another application from another optical medium. This is provided to the analysis device 130.
3. Configuration of setting terminal 150

設定端末150は、いわゆるタブレット型のコンピュータである。設定端末150のハードウェア構成について図6を用いて説明する。設定端末150は、CPU151、メモリ152、ディスプレイ156及び通信回路158を備えている。   The setting terminal 150 is a so-called tablet computer. The hardware configuration of the setting terminal 150 will be described with reference to FIG. The setting terminal 150 includes a CPU 151, a memory 152, a display 156, and a communication circuit 158.

CPU151は、メモリ152に記録されているオペレーティング・システム(OS)、見守り装置設定プログラム等その他のアプリケーションに基づいた処理を行う。メモリ152は、CPU151に対して作業領域を提供する。また、メモリ152は、OS、見守り装置設定プログラム等その他のアプリケーション及び各種データを記録保持する。   The CPU 151 performs processing based on other applications such as an operating system (OS) and a monitoring device setting program recorded in the memory 152. The memory 152 provides a work area for the CPU 151. Further, the memory 152 records and holds other applications and various data such as an OS and a monitoring device setting program.

通信回路158は、無線ネットワークに接続する通信回路を有しており、見守り装置110等の外部の通信機器と無線通信によるデータの送受信を行う。   The communication circuit 158 has a communication circuit connected to a wireless network, and transmits and receives data by wireless communication with an external communication device such as the watching device 110.

ディスプレイ156は、いわゆるタッチパネル型のディスプレイである。ディスプレイ156は、ユーザーインターフェイス等の画像を表示する。また、ディスプレイ156は、タッチパネルの機能を介して、外部からの命令を受け付ける。
第2 設定処理
The display 156 is a so-called touch panel display. The display 156 displays an image such as a user interface. In addition, the display 156 receives a command from the outside through the function of the touch panel.
Second setting process

見守りシステム100を使用する使用者は、まず、設定端末150を用いて、見守り装置110及び行動解析装置130を設定する。以下において、見守りシステム100の設定処理について、図7〜図17を用いて説明する。   A user who uses the watching system 100 first sets the watching device 110 and the behavior analysis device 130 using the setting terminal 150. Hereinafter, the setting process of the watching system 100 will be described with reference to FIGS.

見守りシステム100の使用者は、設定端末150の見守り装置設定プログラムを起動し、設定端末150に対して、見守り装置110を設置しようとする部屋の床から天井までの距離を設置高さとして設定する。また、使用者は、見守り装置設定プログラムを介して、見守り装置110に対して、初期設定開始情報を送信する。なお、使用者は、初期設定開始情報の送信に際して、例えば、設定端末150のディスプレイ156に表示されている初期設定開始ボタンを選択する。   The user of the watching system 100 starts the watching device setting program of the setting terminal 150, and sets the distance from the floor to the ceiling of the room where the watching device 110 is to be installed as the installation height for the setting terminal 150. . In addition, the user transmits initial setting start information to the watching device 110 via the watching device setting program. Note that the user selects, for example, an initial setting start button displayed on the display 156 of the setting terminal 150 when transmitting the initial setting start information.

図7に示すように、設定端末150のCPU151は、見守り装置設定プログラムの起動を示す見守り装置設定プログラム起動情報を取得すると(S601)、見守り装置設定プログラムを起動する(S603)。以降において、CPU151は、見守り装置設定プログラムに基づいた処理を実行する。   As shown in FIG. 7, when the CPU 151 of the setting terminal 150 acquires the watching device setting program start information indicating the start of the watching device setting program (S601), the CPU 151 starts the watching device setting program (S603). Thereafter, the CPU 151 executes processing based on the watching device setting program.

CPU151は、設置する見守り装置110の種類を入力するよう促す見守り装置種類入力欄を表示する(S611)。CPU151は、例えば、見守り装置の種類を示す型番をリストとして表示し、いずれかを選択できるように、見守り装置種類入力欄を表示する。   The CPU 151 displays a monitoring device type input field that prompts the user to input the type of the monitoring device 110 to be installed (S611). For example, the CPU 151 displays a model number indicating the type of the monitoring device as a list, and displays a monitoring device type input field so that either can be selected.

CPU151は、見守り装置種類入力欄に入力があると(S612)、見守り装置種類情報として、メモリ152に一時記憶する(S613)。CPU151は、設置高さの入力を促す設置高さ入力欄を表示する(S614)。CPU111は、設置高さ入力欄に入力があると(S615)、入力された設置高さを設置高さ情報としてメモリ152に一時記憶する(S616)。   When there is an input in the watching device type input field (S612), the CPU 151 temporarily stores it in the memory 152 as watching device type information (S613). The CPU 151 displays an installation height input column that prompts input of the installation height (S614). When there is an input in the installation height input field (S615), the CPU 111 temporarily stores the input installation height in the memory 152 as installation height information (S616).

また、CPU111は、初期設定開始情報の送信指示があったと判断すると(S617)、初期設定開始情報を送信する(S618)。   If the CPU 111 determines that there is an instruction to transmit initial setting start information (S617), the CPU 111 transmits initial setting start information (S618).

図8に示すように、見守り装置110のCPU111は、通信ユニット115を介して、設定端末150から初期設定開始情報を取得すると(S701)、カメラユニット117を介して、天井から床に向かって部屋全体を見渡した見守り領域SA(図2B参照)に関する画像である見守り領域画像を所得する(S703)。CPU111は、カメラユニット117を介して取得した見守り領域画像BSAを、通信ユニット115を介して、見守り領域画像情報として、設定端末150に送信する(S705)。なお、カメラユニット117を介して取得する見守り領域画像BSAは、全周囲レンズ117aを介して取得されるため、図9Aに示すような歪んだ状態となっている。   As shown in FIG. 8, when the CPU 111 of the monitoring device 110 acquires the initial setting start information from the setting terminal 150 via the communication unit 115 (S701), the room from the ceiling to the floor via the camera unit 117 is obtained. A watching area image that is an image relating to the watching area SA (see FIG. 2B) overlooking the whole is obtained (S703). The CPU 111 transmits the watching area image BSA acquired via the camera unit 117 to the setting terminal 150 as watching area image information via the communication unit 115 (S705). Note that the watching area image BSA acquired through the camera unit 117 is acquired through the omnidirectional lens 117a, and thus is distorted as shown in FIG. 9A.

図8に戻って、CPU111は、現在の可動筐体110bの位置を示す可動筐体位置情報をメモリ112から取得し(S707)、設定端末150に送信する(S709)。   Returning to FIG. 8, the CPU 111 acquires the movable casing position information indicating the current position of the movable casing 110 b from the memory 112 (S 707), and transmits it to the setting terminal 150 (S 709).

図10に移って、設定端末150のCPU151は、通信ユニット155を介して、見守り領域画像情報を取得すると(S901)、歪んだ状態の見守り領域画像BSAを、図9Bに示すような平面的な歪みのない画像である補正見守り領域画像DSAへと補正する画像補正処理を実行する(S903)。なお、この画像補正処理については、一般的に用いられている画像補正技術を利用する。CPU151は、補正見守り領域画像DSAをディスプレイ156に表示する(S905)。   Moving to FIG. 10, when the CPU 151 of the setting terminal 150 acquires the watching area image information via the communication unit 155 (S901), the warped watching area image BSA is converted into a planar view as shown in FIG. 9B. Image correction processing for correcting the corrected watching area image DSA, which is an image without distortion, is executed (S903). For this image correction process, a commonly used image correction technique is used. The CPU 151 displays the corrected watching area image DSA on the display 156 (S905).

また、CPU151は、可動筐体位置情報を取得すると(S907)、メモリ152から見守り装置種類情報を取得する(S909)。CPU151は、メモリ152に記憶されている標準第1部分見守り領域データベース(以下、標準第1部分見守り領域DBとする)から見守り装置種類情報に対応する標準第1部分見守り領域を標準第1部分見守り領域情報として取得する(S911)。   Further, when the CPU 151 acquires the movable casing position information (S907), the CPU 151 acquires the watching device type information from the memory 152 (S909). The CPU 151 monitors the standard first partial monitoring area corresponding to the monitoring device type information from the standard first partial monitoring area database (hereinafter referred to as standard first partial monitoring area DB) stored in the memory 152. Obtained as area information (S911).

ここで、標準第1部分見守り領域DBについて、図11を用いて説明する。標準第1部分見守り領域DBには、見守り装置が形成する第1部分見守り領域SA1の標準取付位置における状態、例えば、形状、大きさを、見守り装置の種類毎に関連づけて登録されている。ここで、標準取付位置とは、例えば、平面状の床面から高さ2メートルの位置に取り付けた状態をいい、予め設定されている。   Here, the standard first partial watching area DB will be described with reference to FIG. In the standard first partial watching area DB, the state, for example, the shape and size of the first partial watching area SA1 formed by the watching apparatus at the standard mounting position is registered in association with each type of the watching apparatus. Here, the standard attachment position refers to, for example, a state where the attachment is performed at a height of 2 meters from a flat floor surface, and is set in advance.

標準第1部分見守り領域DBは、見守り装置名欄C1101、標準第1部分見守り領域欄C1103を有している。見守り装置名欄C1101には、見守り装置を特定する名称が記述される。標準第1部分見守り領域欄C1103には、標準取付位置における第1部分見守り領域の状態、第1部分見守り領域の形状、大きさが記述される。   The standard first partial watching area DB has a watching apparatus name column C1101 and a standard first partial watching area column C1103. In the watching device name column C1101, a name for specifying the watching device is described. The standard first partial watching area column C1103 describes the state of the first partial watching area at the standard attachment position, and the shape and size of the first partial watching area.

図11における標準第1部分見守り領域DBには、見守り装置名「A」の標準第1部分見守り領域は「長さ2メートル、幅1.5メートルの四角形状」が登録されている。   In the standard first partial monitoring area DB in FIG. 11, “a square shape having a length of 2 meters and a width of 1.5 meters” is registered as the standard first partial monitoring area of the monitoring device name “A”.

図10に戻って、CPU151は、メモリ152から設置高さ情報を取得する(S913)。CPU151は、設置高さ情報及びステップS911で取得した標準第1部分見守り領域情報から、部屋に形成される第1部分見守り領域SA1の大きさ、形状を算出する(S915)。さらに、CPU151は、ディスプレイ156に表示されている補正見守り領域画像DSAに重ねて表示する第1部分見守り領域SA1(以下、表示補正第1部分見守り領域DSA1とする。)の大きさ、形状算出する(S917)。   Returning to FIG. 10, the CPU 151 acquires the installation height information from the memory 152 (S913). The CPU 151 calculates the size and shape of the first partial watching area SA1 formed in the room from the installation height information and the standard first partial watching area information acquired in step S911 (S915). Further, the CPU 151 calculates the size and shape of a first partial watching area SA1 (hereinafter referred to as a display correction first partial watching area DSA1) that is displayed so as to overlap the corrected watching area image DSA displayed on the display 156. (S917).

また、CPU151は、ステップS907で取得した可動筐体位置情報を用いて、可動筐体設定情報及び設置高さ情報から、床面における第1部分見守り領域SA1の位置を算出する(S919)。さらに、CPU151は、ディスプレイ156に表示されている補正見守り領域画像DSAにおける表示補正第1部分見守り領域DSA1の位置を算出する(S921)。CPU151は、図12Aに示すように、算出した表示補正第1部分見守り領域DSA1を、ディスプレイ156に表示されている補正見守り領域画像に重ねて表示する(S923)。   Further, the CPU 151 calculates the position of the first partial watching area SA1 on the floor surface from the movable casing setting information and the installation height information using the movable casing position information acquired in step S907 (S919). Further, the CPU 151 calculates the position of the display correction first partial watching area DSA1 in the corrected watching area image DSA displayed on the display 156 (S921). As shown in FIG. 12A, the CPU 151 displays the calculated display correction first partial watching area DSA1 so as to overlap the corrected watching area image displayed on the display 156 (S923).

また、CPU151は、可動筐体位置情報を用いて、図12Aに示すようにディスプレイ156に可動筐体位置表示欄TAを表示する(S925)。可動筐体位置表示欄TAには、可動筐体110bの基礎筐体110aに対する位置が表示される。   Further, the CPU 151 displays the movable casing position display column TA on the display 156 using the movable casing position information as shown in FIG. 12A (S925). In the movable casing position display column TA, the position of the movable casing 110b with respect to the basic casing 110a is displayed.

使用者は、見守り対象が乗り降りする側のベッドBの端部である乗降ベッド端部T1及び乗降ベッド端部周辺T2含むように(図2A参照)、第1部分見守り領域SA1を設定する必要がある。このとき、使用者は、ディスプレイ156において、図12Bに示すように、例えば指で、表示補正第1部分見守り領域DSA1を、乗降ベッド端部T1、乗降ベッド端部周辺T2、それぞれに対応する、ディスプレイ156上の乗降ベッド端部DT1及びその周辺DT2を含むように移動させる。   The user needs to set the first partial watching area SA1 so as to include the getting-on / off bed end T1 and the getting-on / off bed end periphery T2 which are the ends of the bed B on the side where the watching target gets on and off (see FIG. 2A). is there. At this time, on the display 156, as shown in FIG. 12B, the user corresponds the display correction first partial watching area DSA1 with the finger, for example, to the getting-on / off bed end T1 and the getting-on / off bed end peripheral T2, respectively. It moves so that boarding / exiting bed edge part DT1 on display 156 and its periphery DT2 may be included.

図13に示すように、CPU151は、ディスプレイ156を介して、ディスプレイ156に表示されている表示補正第1部分見守り領域DSA1の移動指示を取得すると(S1101)、取得した移動指示に沿って、ディスプレイ156に表示している表示補正第1部分見守り領域DSA1を移動させる(S1103)。なお、移動指示は、ディスプレイ156のタッチパネル機能を利用して、例えば、使用者が、ディスプレイ156に表示されている表示補正第1部分見守り領域DSA1を指を用いて長押しすることによって、表示補正第1部分見守り領域DSA1を選択した後、指をディスプレイ156上で所望の方向へスライドさせる操作によって、CPU151に提供される。   As illustrated in FIG. 13, when the CPU 151 acquires a movement instruction of the display correction first partial watching area DSA1 displayed on the display 156 via the display 156 (S1101), the CPU 151 displays the movement instruction according to the acquired movement instruction. The display correction first partial watching area DSA1 displayed in 156 is moved (S1103). Note that the movement instruction is displayed using the touch panel function of the display 156, for example, when the user presses and holds the display correction first partial watching area DSA1 displayed on the display 156 with a finger. After the first partial watching area DSA1 is selected, it is provided to the CPU 151 by an operation of sliding a finger in a desired direction on the display 156.

また、CPU151は、表示補正第1部分見守り領域DSA1の移動に合わせて、移動後の可動筐体110bの基礎筐体110aに対する位置を、設置高さ情報及び標準第1部分見守り領域状態情報を用いて算出し(S1105)、可動筐体位置表示欄TAに表示する(S1107)。   Further, the CPU 151 uses the installation height information and the standard first partial watching area state information for the position of the movable casing 110b after the movement with respect to the basic casing 110a in accordance with the movement of the display correction first partial watching area DSA1. (S1105) and displayed in the movable housing position display column TA (S1107).

CPU151は、表示補正第1部分見守り領域DSA1を移動させると、第1部分見守り領域SA1に設定する見守り度合いの入力を促す見守り度合い入力欄DAをディスプレイ156に表示する(S1111)。ディスプレイ156に表示される見守り度合い入力欄DAの一例を、図14Aに示す。見守り度合い入力欄DAには、設定可能な見守り度合いの名称及びディスプレイ156におけるその表示状態が表示され、それぞれ選択可能となっている。図14Aにおいては、設定可能な見守り度合いとして、「端座位」、「ベッド周辺」、「出入口」が表示されている。見守り度合い「端座位」、「ベッド周辺」は、第1部分見守り領域SA1に対して設定するものである。一方、見守り度合い「出入口」は、第2部分見守り領域SA2に設定するものである。   When the CPU 151 moves the display correction first partial watching area DSA1, the CPU 151 displays on the display 156 a watching degree input field DA that prompts input of the watching degree set in the first partial watching area SA1 (S1111). An example of the watching degree input field DA displayed on the display 156 is shown in FIG. 14A. In the watching degree input field DA, the name of the watching degree that can be set and the display state thereof on the display 156 are displayed and can be selected. In FIG. 14A, “end sitting position”, “peripheral bed”, and “entrance / exit” are displayed as the degree of watching that can be set. The watching degrees “edge sitting position” and “bed periphery” are set for the first partial watching area SA1. On the other hand, the watching degree “entrance / exit” is set in the second partial watching area SA2.

第1部分見守り領域SA1に対する見守り度合いの設定について以下で説明する。第1部分見守り領域SA1に対する見守り度合いは、ディスプレイ156に表示されている表示補正第1部分見守り領域DSA1を介して設定する。使用者は、ディスプレイ156に表示されている見守り度合い入力欄DAから第1部分見守り領域SA1に設定する所望の見守り度合いの名称又は表示状態を選択した後、ディスプレイ156に表示されている表示補正第1部分見守り領域DSA1の所望の領域を選択することによって、第1部分見守り領域SA1に見守り度合いを設定する。なお、第1部分見守り領域SA1における見守り度合いはグリッド毎に設定される。表示補正第1部分見守り領域DSA1の所望の領域を選択するにあたっては、ディスプレイ156上で指をスライドさせる等によって、所望のグリッドを選択する。   The setting of the watching degree for the first partial watching area SA1 will be described below. The degree of watching over the first partial watching area SA1 is set via the display correction first partial watching area DSA1 displayed on the display 156. The user selects the name or display state of the desired watching degree set in the first partial watching area SA1 from the watching degree input field DA displayed on the display 156, and then displays the display correction number displayed on the display 156. By selecting a desired area of the one-part watching area DSA1, the degree of watching is set in the first partial watching area SA1. The degree of watching in the first partial watching area SA1 is set for each grid. In selecting a desired area of the display correction first partial watching area DSA1, a desired grid is selected by sliding a finger on the display 156 or the like.

なお、見守り度合い入力欄DAから第1部分見守り領域DSA1に設定できる見守り度合いが選択されると、表示補正第1部分見守り領域DSA1に対してのみ、見守り度合いを入力できる状態とし、表示補正第2部分見守り領域DSA2については、入力できない状態とする。   When a watching degree that can be set in the first partial watching area DSA1 is selected from the watching degree input field DA, the display correction second state is set so that the watching degree can be input only to the display correction first partial watching area DSA1. The partial watching area DSA2 cannot be input.

例えば、図14Bに示すように、表示補正第1部分見守り領域DSA1のグリッドにおける領域R1に対して、見守り度合い「端座位」を設定する場合、グリッド番号(4,4)のグリッドを始点として矢印a141方向へ指をスライドさせて、グリッド番号(4,4)、(4,5)、(4,6)、(4,7)の領域を選択すればよい。また、表示補正第1部分見守り領域DSA1のグリッドにおける領域R3に対して、見守り度合い「ベッド周辺」を設定する場合、グリッド番号(5,2)のグリッドを始点として矢印a145方向へ、グリッド番号(6,2)のグリッドを始点として矢印a147方向へ、及び、グリッド番号(1,8)のグリッドを始点として矢印a149方向へ、指をスライドさせて、グリッド番号(1,8)、(2,8)、(3,8)、(5,2)、(5,3)、(5,4)、(5,5)、(5,6)、(5,7)、(5,8)、(6,3)、(6,4)、(6,5)、(6,6)、(6,7)、(6,8)の領域を選択すればよい。   For example, as shown in FIG. 14B, in the case where the watching degree “edge sitting position” is set for the region R1 in the grid of the display correction first partial watching region DSA1, an arrow starts from the grid of the grid number (4, 4). The area of grid numbers (4, 4), (4, 5), (4, 6), (4, 7) may be selected by sliding a finger in the a141 direction. Further, when setting the watching degree “around the bed” for the region R3 in the grid of the display correction first partial watching area DSA1, the grid number (5, 2) starts from the grid of the grid number (5, 2) in the direction of the arrow a145. 6,2) starting from the grid in the direction of arrow a147 and starting from the grid at grid number (1,8) in the direction of arrow a149, the finger is slid to grid numbers (1,8), (2, 8), (3,8), (5,2), (5,3), (5,4), (5,5), (5,6), (5,7), (5,8) , (6, 3), (6, 4), (6, 5), (6, 6), (6, 7), (6, 8) may be selected.

ここで、表示補正第1部分見守り領域DSA1においては、左上のグリッドの番号を(1,1)として、水平方向及び垂直方向に連続する番号を付すことによって、各グリッドを特定している。なお、表示補正第1部分見守り領域DSA1に付したグリッドの番号は、第1部分見守り領域SA1における各グリッドの特定に対応している。   Here, in the display correction first partial watching area DSA1, each grid is specified by assigning numbers that are continuous in the horizontal direction and the vertical direction, with the number of the upper left grid being (1, 1). The grid number assigned to the display correction first partial watching area DSA1 corresponds to the specification of each grid in the first partial watching area SA1.

次に、第2部分見守り領域SA2に対する見守り度合いの設定について以下で説明する。使用者は、ディスプレイ156に表示されている見守り度合い入力欄DAから第2部分見守り領域SA2に設定する所望の見守り度合いの名称又は表示状態を選択した後、ディスプレイ156に表示されている表示補正第2部分見守り領域DSA2から所望の領域を選択することによって、第2部分見守り領域SA2に見守り度合いを設定する。なお、第2部分見守り領域SA2に対する見守り度合いは、第1部分見守り領域SA1に対する見守り度合いの設定とは異なり、自由に領域を設定することができる。表示補正第2部分見守り領域DSA2の所望の領域を選択するにあたっては、ディスプレイ156上で指をスライドさせる等によって、所望の領域を選択する。   Next, the setting of the watching degree for the second partial watching area SA2 will be described below. The user selects a name or a display state of a desired watching degree set in the second partial watching area SA2 from the watching degree input field DA displayed on the display 156, and then displays the display correction number displayed on the display 156. By selecting a desired area from the two-part watching area DSA2, the degree of watching is set in the second partial watching area SA2. The degree of watching with respect to the second partial watching area SA2 is different from the setting of the watching degree with respect to the first partial watching area SA1, and the area can be set freely. In selecting the desired area of the display correction second partial watching area DSA2, the desired area is selected by sliding a finger on the display 156 or the like.

なお、見守り度合い入力欄DAから第2部分見守り領域DSA2に設定できる見守り度合いが選択されると、表示補正第2部分見守り領域DSA2に対してのみ、見守り度合いを入力できる状態とし、表示補正第1部分見守り領域DSA1については、入力できない状態とする。   When a watching degree that can be set in the second partial watching area DSA2 is selected from the watching degree input field DA, the display correction first state is set so that the watching degree can be input only to the display correction second partial watching area DSA2. The partial watching area DSA1 cannot be input.

例えば、図15に示すように、表示補正第2部分見守り領域DSA2の窓Wの領域R5に対して、見守り度合い「出入口」を設定する場合、領域R5の端点の一つである点P(X1,Y1)を始点として、領域5のもう一つの端点である点Q(X2,Y2)まで矢印a151方向へ指をスライドさせて、領域5を選択すればよい。   For example, as shown in FIG. 15, when the watching degree “entrance / exit” is set for the area R5 of the window W of the display correction second partial watching area DSA2, the point P (X1) which is one of the end points of the area R5 is set. , Y1) as a starting point, the region 5 may be selected by sliding the finger in the direction of the arrow a151 to the point Q (X2, Y2) which is another end point of the region 5.

ここで、表示補正第2部分見守り領域DSA2においては、ディスプレイ156に表示している補正見守り領域画像DSA左上の端点を(0,0)として、水平方向及び垂直方向の座標によって、各点を特定している。   Here, in the display correction second partial watching area DSA2, each point is specified by coordinates in the horizontal and vertical directions with the upper left end point of the corrected watching area image DSA displayed on the display 156 as (0, 0). doing.

図13に戻って、CPU151は、見守り度合いが選択され、表示補正第1部分見守り領域DSA1においてグリッドが選択されると(S1113)、グリッド毎に設定された見守り度合いを見守り度合い情報として、メモリ152に一時記憶する(S1115)。   Returning to FIG. 13, when the degree of watching is selected and a grid is selected in the display correction first partial watching area DSA1 (S1113), the CPU 151 stores the memory 152 as the watching degree information set for each grid. (S1115).

ここで、見守り度合い情報について、図16を用いて説明する。見守り度合い情報は、見守り度合いを特定する名称と、見守り度合いを設定した表示補正第1部分見守り領域DSA1のグリッド番号と、が対応付けられたテーブルである。   Here, the watching degree information will be described with reference to FIG. The watching degree information is a table in which a name specifying the watching degree and a grid number of the display correction first partial watching area DSA1 in which the watching degree is set are associated with each other.

見守り度合い情報は、見守り度合い名欄C1501、設定領域C1503を有している。見守り度合い名欄C1101には、見守り度合いを特定する名称が記述される。設定領域域欄C1503には、見守り度合い名欄C1501に記述される見守り度合いが第1部分見守り領域に設定するものであれば、表示補正第1部分見守り領域DSA1の各グリッドを特定するグリッド番号が記述される。一方、見守り度合い名欄C1501に記述される見守り度合いが第2部分見守り領域に設定するものであれば、表示補正第2部分見守り領域DSA2を特定する座標が記述される。   The watching degree information includes a watching degree name column C1501 and a setting area C1503. In the watching degree name column C1101, a name for specifying the watching degree is described. In the setting area column C1503, if the watching degree described in the watching degree name field C1501 is set in the first partial watching area, a grid number for specifying each grid of the display correction first partial watching area DSA1 is set. Described. On the other hand, if the watching degree described in the watching degree name column C1501 is set in the second partial watching area, the coordinates for specifying the display correction second partial watching area DSA2 are described.

図16における見守り度合い情報には、例えば、見守り度合い名称「端座位」が表示補正第1部分見守り領域DSA1のグリッド番号「(4,4)、(4,5)、(4,6)、(4,7)」に設定されていることが登録されている。   In the watching degree information in FIG. 16, for example, the watching degree name “edge sitting position” has grid numbers “(4, 4), (4, 5), (4, 6), (4, 6), ( 4, 7) "is registered.

図13に戻って、CPU151は、見守り度合いの設定が終了すると(S1117)、メモリ152に一時記憶している見守り度合い情報を見守り装置110へ送信する(S1119)。   Returning to FIG. 13, when the setting of the watching degree is completed (S1117), the CPU 151 transmits the watching degree information temporarily stored in the memory 152 to the watching device 110 (S1119).

図8に移って、見守り装置110のCPU111は、見守り度合い情報を取得すると(S711)、状態解析装置130へ送信する(S713)。   Moving to FIG. 8, the CPU 111 of the watching device 110 acquires the watching degree information (S711), and transmits it to the state analysis device 130 (S713).

一方、使用者は、設定が終了した段階で設定端末150のディスプレイ156に表示されている可動筐体位置表示欄TAに表示されている移動量に基づき、見守り装置110の可動筐体110bを移動させる。これにより、見守り装置110を適切な状態に容易に設定できる。   On the other hand, the user moves the movable casing 110b of the watching device 110 based on the amount of movement displayed in the movable casing position display field TA displayed on the display 156 of the setting terminal 150 when the setting is completed. Let Thereby, the watching apparatus 110 can be easily set to an appropriate state.

見守り装置110のCPU111は、可動筐体110bが移動されたと判断すると(S715)、移動後の可動筐体110bの位置を可動筐体位置情報としてメモリ132に記憶する(S717)。   When the CPU 111 of the watching device 110 determines that the movable casing 110b has been moved (S715), it stores the position of the movable casing 110b after the movement in the memory 132 as movable casing position information (S717).

図17に示すように、状態解析装置130のCPU131は、見守り度合い情報を受信すると(S1701)、メモリ132に保存する(S1703)。   As shown in FIG. 17, when receiving the watching degree information (S1701), the CPU 131 of the state analysis device 130 stores it in the memory 132 (S1703).

状態解析装置130は、見守り装置110から見守り対象検知情報及び見守り領域画像情報を取得すると、メモリ132に保存した見守り度合い情報を用いて、見守り対象の状態を判断する。   When the state analysis apparatus 130 acquires the monitoring target detection information and the monitoring area image information from the monitoring apparatus 110, the state analysis apparatus 130 determines the state of the monitoring target using the monitoring degree information stored in the memory 132.

このとき、状態解析装置130は、人感センサユニット119が第1部分見守り領域SA1において人の存在を検知している場合には、人感センサユニット119から取得する見守り対象検知情報に基づき、見守り対象の状態を判断する。例えば、状態解析装置130は、見守り対象が、見守り度合い「端座位」の領域に存在すると判断すると、所定の警告を表示したり、所定の者に警報を発したりする。   At this time, when the human sensor unit 119 detects the presence of a person in the first partial watching area SA1, the state analysis device 130 monitors based on the monitoring target detection information acquired from the human sensor unit 119. Determine the state of the subject. For example, when the state analysis apparatus 130 determines that the watching target exists in the region of the watching degree “end sitting position”, the state analyzing apparatus 130 displays a predetermined warning or issues a warning to a predetermined person.

一方、状態解析装置130は、人感センサユニット119が第1部分見守り領域SA1において人の存在を検知していない場合には、カメラユニット117から取得する見守り領域画像情報から、第2部分見守り領域SA2について、例えば、画像追跡の技術を用いて、見守り対象の状態を判断する。例えば、状態解析装置130は、画像追跡の結果、見守り対象が、出入口E1、E2(図2A参照)から外出したと判断すると、所定の警告を表示したり、所定の者に警報を発したりする。

[他の実施例]
On the other hand, when the human sensor unit 119 does not detect the presence of a person in the first partial watching area SA1, the state analysis device 130 determines the second partial watching area from the watching area image information acquired from the camera unit 117. For SA2, for example, the state of the watching target is determined using an image tracking technique. For example, when the state analysis device 130 determines that the watching target has gone out of the entrances E1 and E2 (see FIG. 2A) as a result of the image tracking, the state analysis device 130 displays a predetermined warning or issues a warning to a predetermined person. .

[Other embodiments]

(1)見守り装置110:前述の実施例1においては、見守り装置110は、天井に設置するとしたが、第1部分見守り領域SA1、第2部分見守り領域SA2を設定できるところであれば、例示の場所に限定されない。例えば、部屋の壁等、床面に介して所定の角度を有する場所であってもよい。   (1) Watching device 110: In the above-described first embodiment, the watching device 110 is installed on the ceiling. However, as long as the first partial watching region SA1 and the second partial watching region SA2 can be set, an example location It is not limited to. For example, it may be a place having a predetermined angle through the floor, such as a wall of a room.

(2)検知領域形成手段119a:前述の実施例1においては、人感センサユニット119は、見守り対象である人が発する赤外線を検知する検知領域形成手段119aを用いて人を検知するとしたが、人を検知できるものであれば、例示のものに限定されない。例えば、図18に示すように、人感センサユニット219が、第1部分見守り領域を形成する所定の検知波を送信する検知波送信手段219a、及び、送信した検知波の反射波を受信する反射波受信手段219bを有するようにしてもよい。この場合、検知波としては、近赤外線を用いるようにすればよい。また、超音波や、可視光であってもよい。   (2) Detection area forming means 119a: In the above-described first embodiment, the human sensor unit 119 detects a person using the detection area forming means 119a that detects infrared rays emitted by a person to be watched. As long as a person can be detected, it is not limited to the example. For example, as shown in FIG. 18, the human sensor unit 219 receives a detection wave transmitting unit 219 a that transmits a predetermined detection wave that forms the first partial watching region, and a reflection that receives a reflected wave of the transmitted detection wave. You may make it have the wave receiving means 219b. In this case, near infrared light may be used as the detection wave. Moreover, an ultrasonic wave and visible light may be sufficient.

(3)全周囲レンズ117a:前述の実施例1においては、見守り装置110のカメラユニット117は、全周囲レンズ117aを介して、広範囲の見守り装置の画像を取得するとしたが、見守り領域の画像を広範囲に取得できるものであれば、例示のものに限定されない。例えば、複数の広角レンズを用いて取得した画像を統合して見守り領域の画像を取得するようにしてもよい。また、一般的な、いわゆる魚眼レンズを用いるようにしてもよい。   (3) All-around lens 117a: In the first embodiment, the camera unit 117 of the watching device 110 acquires an image of a wide-range watching device via the all-around lens 117a. As long as it can be acquired in a wide range, it is not limited to the examples. For example, images obtained using a plurality of wide-angle lenses may be integrated to obtain an image of the watching area. A general so-called fisheye lens may be used.

(4)全周囲レンズ配置孔110d:前述の実施例1においては、基礎筐体110aの外部に、全周囲レンズ117aを配置するための全周囲レンズ配置孔110dを形成するとしたが、可動筐体110bに形成するようにしてもよい。また、基礎筐体110a、可動筐体110bとは異なる筐体であって、筐体110を構成するものに形成するようにしてもよい。   (4) All-around lens placement hole 110d: In the first embodiment, the all-around lens placement hole 110d for placing the all-around lens 117a is formed outside the basic housing 110a. 110b may be formed. In addition, the base casing 110a and the movable casing 110b may be different from the base casing 110a and the movable casing 110b.

さらに、全周囲レンズ117aを可動筐体110bに配置する場合、全周囲レンズ117aを含むカメラユニット117全体を可動筐体110bの内部に配置するようにしてもよい。   Further, when the omnidirectional lens 117a is arranged in the movable casing 110b, the entire camera unit 117 including the omnidirectional lens 117a may be arranged inside the movable casing 110b.

(5)可動筐体位置情報の記憶:前述の実施例1においては、見守り装置110が可動筐体位置情報を記憶するとしたが、記憶しないようにしてもよい。この場合、見守り装置110を設定する際には、最初に可動筐体110bを標準取付位置に配置するようにすればよい。   (5) Storage of movable casing position information: In the above-described first embodiment, the watching device 110 stores the movable casing position information, but it may not be stored. In this case, when setting the watching device 110, the movable housing 110b may be first arranged at the standard mounting position.

(6)第1部分見守り領域軸指定マーク110c:前述の実施例1においては、基礎筐体110aの外表面に、第1部分見守り領域軸指定マーク110cが表示されているとしたが、第1部分見守り領域SA1の配置位置を決定できるものであれば、例示のものに限定されない。   (6) First partial watching area axis designation mark 110c: In the first embodiment described above, the first partial watching area axis designation mark 110c is displayed on the outer surface of the base casing 110a. As long as the arrangement position of the partial watching area SA1 can be determined, it is not limited to the example.

(7)見守り装置110における状態解析:前述の実施例1においては、見守り対象の状態解析については、状態解析装置130が実行するとしたが、見守り装置110が、カメラユニット117を介して取得する見守り領域画像や、人感センサユニット119を介して取得する見守り対象の存在情報を用いて、見守り対象の状態解析を実行するようにしてもよい。   (7) State analysis in the monitoring device 110: In the above-described first embodiment, the state analysis device 130 executes the state analysis of the monitoring target. However, the monitoring device 110 acquires through the camera unit 117. The state analysis of the watching target may be executed using the region image or the presence information of the watching target acquired through the human sensor unit 119.

(8)可動筐体110bの移動:前述の実施例1においては、設定端末150のディスプレイ156に表示された可動筐体位置表示欄TAに表示されている移動量に基づいて、使用者が可動筐体110bを移動させることとしたが、可動筐体位置表示欄TAに表示されている移動量を見守り装置110に送信し、可動筐体110bが自動で動くようにしてもよい。この場合、見守り装置110に、可動筐体110bを移動させるためのモータ等の動力源を配置すればよい。   (8) Movement of movable casing 110b: In the above-described first embodiment, the user can move based on the movement amount displayed in the movable casing position display column TA displayed on the display 156 of the setting terminal 150. Although the case 110b is moved, the amount of movement displayed in the movable case position display column TA may be monitored and transmitted to the device 110 so that the movable case 110b automatically moves. In this case, a power source such as a motor for moving the movable casing 110b may be disposed in the watching device 110.

(9)見守り度合い情報の送信:前述の実施例1においては、設定端末150において設定した見守り度合い情報は、設定端末150から見守り装置110を介して状態解析装置130に送信されるとしたが、設定端末150から直接に状態解析装置130に送信するようにしてもよい。   (9) Transmission of watching degree information: In the first embodiment, the watching degree information set in the setting terminal 150 is transmitted from the setting terminal 150 to the state analysis apparatus 130 via the watching apparatus 110. You may make it transmit to the state analysis apparatus 130 directly from the setting terminal 150. FIG.

(10)見守り度合い情報の入力:前述の実施例1においては、見守り度合い入力欄DAを用いて、見守り度合いを入力することとしたが、所望の見守り度合いを所望の領域に入力できるものであれば、例示のものに限定されない。   (10) Input of watching degree information: In the above-described first embodiment, the watching degree input field DA is used to input the watching degree, but it is possible to input a desired watching degree in a desired region. For example, it is not limited to the example.

(11)設定端末150:先述の実施例1においては、設定端末150はタブレット型のコンピュータとしたが、見守り装置設定プログラムを実行でき、第1部分見守り領域SA1、第2見守り領域SA2等、所定の部分見守り領域を設定でき、見守り度合いを設定できるものであれば、例示のものに限定されない。例えば、ノートブック型のコンピュータであってもよい。   (11) Setting terminal 150: In the first embodiment, the setting terminal 150 is a tablet computer. However, the setting terminal 150 can execute a watching device setting program, and the first partial watching area SA1, the second watching area SA2, and the like are predetermined. As long as the partial watching area can be set and the watching degree can be set, it is not limited to the example. For example, a notebook computer may be used.

また、設定端末150のディスプレイ156について、タッチパネル型でなくとも、設定端末150として第1見守り領域SA1等の部分見守り領域の移動等、所定の設定をできるものであれば、例示のものに限定されない。例えば、タッチパネル型でないLCDであってもよい。   Further, the display 156 of the setting terminal 150 is not limited to the illustrated example as long as the setting terminal 150 can perform a predetermined setting such as movement of a partial watching area such as the first watching area SA1 even if it is not a touch panel type. . For example, an LCD that is not a touch panel type may be used.

(12)各種プログラムが実行するフローチャート:前述の実施例1においては、各種プログラムは、図7、図8、図10、図13、図17に示すフローチャートに基づいて所定の処理を実行するとしたが、各種プログラムの目的を達成することができるフローチャートであれば、例示のものに限定されない。
(12) Flowchart executed by various programs: In the first embodiment, the various programs execute predetermined processing based on the flowcharts shown in FIGS. 7, 8, 10, 13, and 17. As long as the flowchart can achieve the objectives of various programs, the flowchart is not limited to the illustrated example.

本発明に係る装着型使用者状態情報取得装置は、例えば、高齢者の健康や行動を遠隔からでも管理することができる見守りシステムとして利用することができる。
The wearable user status information acquisition device according to the present invention can be used as a monitoring system that can manage the health and behavior of elderly people even from a remote location, for example.

100・・・・・見守りシステム
110・・・・・見守り装置
111・・・・CPU
112・・・・メモリ
115・・・・通信ユニット
117・・・・カメラユニット
117a・・全周囲レンズ
119・・・・人感センサユニット
119a・・検知波送信手段
110a・・・基礎筐体
110b・・・可動筐体
110c・・・第1部分見守り領域軸指定マーク
130・・・・・状態解析装置
150・・・・・設定端末
151・・・・CPU
152・・・・メモリ
156・・・・ディスプレイ
158・・・・通信ユニット
SA・・・・・・見守り領域
SA1・・・・第1見守り領域
SA2・・・・第2見守り領域
BSA・・・・・見守り領域画像
DSA・・・・・補正見守り領域画像
DSA1・・・表示補正第1見守り領域画像
DSA2・・・表示補正第2見守り領域画像
DT1・・・・・乗降ベッド端部
DT2・・・・・乗降ベッド端部周辺
TA・・・・・・可動筐体位置表示欄
DA・・・・・・見守り度合い入力欄

100 ... Monitoring system 110 ... Monitoring device 111 ... CPU
DESCRIPTION OF SYMBOLS 112 ... Memory 115 ... Communication unit 117 ... Camera unit 117a ... All-around lens 119 ... Human sensor unit 119a ... Detection wave transmission means 110a ... Basic housing 110b ... Movable casing 110c ... First partial watching area axis designation mark 130 ... State analysis device 150 ... Setting terminal 151 ... CPU
152 ··· Memory 156 ··· Display 158 ··· Communication unit SA ··· Watching area SA1 · · · First watching region SA2 · · · Second watching region BSA ··· .. Watching area image DSA: Correction watching area image DSA1: Display correction first watching area image DSA2: Display correction second watching area image DT1: Getting on / off bed end DT2 ... Around the edge of the getting-on / off bed TA ... Moveable housing position display field DA ...

Claims (8)

画像を表示する表示手段、
見守り領域の画像である見守り領域画像を取得する設定装置用見守り領域画像取得手段、
前記見守り領域画像を表示見守り領域画像として前記表示手段に表示する見守り画像表示制御手段であって、前記見守り領域に対する前記見守り領域の一部である部分見守り領域に対応する位置に、前記表示見守り領域画像に重ねて、前記部分見守り領域を表示部分見守り領域画像として前記表示手段に表示する見守り画像表示制御手段、
前記表示手段に表示している前記表示部分見守り領域画像の移動指示を取得すると、前記移動指示に沿って、前記表示手段において、前記表示部分見守り領域画像を移動し、移動後の前記表示部分見守り領域画像の位置に対応する前記見守り領域における位置に、前記部分見守り領域を形成するように、検知領域形成手段が有する部分見守り領域移動手段の基礎筐体に対する可動筐体の相対的な位置を算出する検知領域形成位置算出手段、
算出した前記検知領域形成手段が有する前記部分見守り領域移動手段の前記基礎筐体に対する前記可動筐体の相対的な位置を前記表示手段に表示する検知領域形成位置表示制御手段、
を有する見守り装置用設定装置を用いて、所定の設定をする見守り装置であって、
前記見守り装置は、
前記見守り領域画像を取得する見守り装置用見守り領域画像取得手段、
前記部分見守り領域を検知領域として、前記検知領域において人である見守り対象の存在を検知する見守り対象検知手段であって、前記検知領域を形成する前記検知領域形成手段を有し、前記検知領域の所定の区分毎に前記見守り対象を検知する見守り対象検知手段、
前記検知領域を所望の位置に移動させる前記部分見守り領域移動手段、
を有する見守り装置であって、
前記部分見守り領域移動手段は、
自らを所定の位置に固定するための前記基礎筐体、
前記基礎筐体に対して相対的に移動可能な前記可動筐体であって、前記検知領域形成手段を内包する前記可動筐体、
を有し、
前記基礎筐体及び前記可動筐体の少なくとも一方は、
前記見守り装置用設定装置が算出し、前記表示手段に表示する前記基礎筐体に対する前記可動筐体の相対的な位置に対応して移動できること、
を特徴とする見守り装置。
Display means for displaying images,
A watching area image acquisition means for a setting device for acquiring a watching area image which is an image of the watching area;
A monitor image display control means for displaying the monitor area image as a display monitor area image on the display means, the display monitor area at a position corresponding to a partial monitor area that is a part of the monitor area with respect to the monitor area A watching image display control means for displaying the partial watching area on the display means as a display partial watching area image, overlaid on the image;
When an instruction to move the display part watching area image displayed on the display unit is acquired, the display part moves the display part watching area image along the movement instruction, and the display part watching after the movement is performed. The relative position of the movable housing relative to the basic housing of the partial watching area moving means of the detection area forming means is calculated so that the partial watching area is formed at a position in the watching area corresponding to the position of the area image. Detecting region forming position calculating means to perform,
Detection area formation position display control means for displaying a relative position of the movable housing with respect to the base housing of the partial watching area moving means included in the calculated detection area forming means;
A monitoring device that performs a predetermined setting using a setting device for a monitoring device having
The monitoring device is:
A monitoring area image acquisition means for a monitoring apparatus for acquiring the monitoring area image;
With the partial watching area as a detection area, the detection area detecting means for detecting the presence of a watching target that is a person in the detection area, the detection area forming means for forming the detection area, Watching target detection means for detecting the watching target for each predetermined section;
The partial watching area moving means for moving the detection region to a desired position,
A monitoring device comprising:
The partial watching area moving means is
Said base housing for fixing itself in place,
It said movable housing, wherein a basic housing said movable housing can be moved relative to the body, enclosing the detection region forming means,
Have
At least one of the basic casing and the movable casing is
The monitoring device setting device calculates and can move corresponding to the relative position of the movable housing with respect to the basic housing displayed on the display means;
A monitoring device characterized by
請求項1に係る見守り装置において、
前記見守り装置用見守り領域画像取得手段は、
全周囲レンズを有すること、
を特徴とする見守り装置。
In the monitoring device according to claim 1,
The watching region image acquisition means for the watching device includes:
Having an all-around lens,
A monitoring device characterized by
請求項1または請求項2に係る見守り装置において、
前記検知領域形成手段は、
赤外線を受信すること、
を特徴とする見守り装置。
In the monitoring device according to claim 1 or claim 2,
The detection region forming means includes
Receiving infrared,
A monitoring device characterized by
請求項1〜請求項3のいずれかに係る見守り装置において、
前記検知領域形成手段は、
前記検知領域を形成する所定の検知波を送信し、前記検知波の反射波を受信すること、
を特徴とする見守り装置。
In the monitoring apparatus according to any one of claims 1 to 3,
The detection region forming means includes
Transmitting a predetermined detection wave forming the detection region and receiving a reflected wave of the detection wave;
A monitoring device characterized by
請求項1〜請求項4のいずれかに係る見守り装置において、
前記基礎筐体及び前記可動筐体の少なくとも一方は、
前記基礎筐体と前記可動筐体との、相対的な位置を示す位置表示手段を有すること、
を特徴とする見守り装置。
In the monitoring apparatus according to any one of claims 1 to 4,
At least one of the basic casing and the movable casing is
Having position display means for indicating a relative position between the base casing and the movable casing;
A monitoring device characterized by
請求項1〜請求項5のいずれかに係る見守り装置において、さらに、
所定の設定処理を開始するための設定開始情報を取得すると、前記見守り装置用見守り領域画像取得手段を介して取得した見守り領域画像を送信する見守り領域画像送信手段、
を有する見守り装置。
In the monitoring apparatus according to any one of claims 1 to 5,
When acquiring setting start information for starting a predetermined setting process, a watching region image transmitting unit that transmits the watching region image acquired through the watching device watching region image acquiring unit;
A watching device having
請求項1〜請求項6のいずれかに係る見守り装置において、
前記見守り装置用見守り領域画像取得手段を介して取得した前記見守り領域像を用いて、前記見守り対象の行動を判断する見守り対象行動判断手段、
を有する見守り装置。
In the monitoring apparatus according to any one of claims 1 to 6,
Using the watching region image acquired through the watching region image acquiring unit for the watching device, and using the watching target behavior determining unit to determine the behavior of the watching target;
A watching device having
請求項7に係る見守り装置において、
前記見守り対象行動判断手段は、
前記見守り領域のうち前記検知領域以外の領域について、前記見守り対象の行動を判断すること、
を特徴とする見守り装置。
In the monitoring device according to claim 7,
The watching target action judging means is:
Determining an action of the watching target for an area other than the detection area in the watching area;
A monitoring device characterized by
JP2013118330A 2013-06-04 2013-06-04 Watch device Active JP6390886B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013118330A JP6390886B2 (en) 2013-06-04 2013-06-04 Watch device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013118330A JP6390886B2 (en) 2013-06-04 2013-06-04 Watch device

Publications (2)

Publication Number Publication Date
JP2014235669A JP2014235669A (en) 2014-12-15
JP6390886B2 true JP6390886B2 (en) 2018-09-19

Family

ID=52138297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013118330A Active JP6390886B2 (en) 2013-06-04 2013-06-04 Watch device

Country Status (1)

Country Link
JP (1) JP6390886B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015125545A1 (en) * 2014-02-18 2015-08-27 Nkワークス株式会社 Information processing device, information processing method, and program
JP7480475B2 (en) * 2018-09-28 2024-05-10 株式会社リコー Notification control system, notification control method, and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5422550U (en) * 1977-07-15 1979-02-14
JPH0419512Y2 (en) * 1987-04-21 1992-05-01
JP3278085B2 (en) * 1993-06-30 2002-04-30 アツミ電氣株式会社 Surveillance camera
JPH11173910A (en) * 1997-12-15 1999-07-02 Atsumi Electron Corp Ltd Hot-wire sensor
JP4742450B2 (en) * 2001-06-14 2011-08-10 パナソニック電工株式会社 Monitoring system data setting method and monitoring system using the same
JP2007299430A (en) * 2007-08-09 2007-11-15 Optex Co Ltd Intrusion detection device with function of reducing false report
JP5648840B2 (en) * 2009-09-17 2015-01-07 清水建設株式会社 On-bed and indoor watch system
JP2012109852A (en) * 2010-11-18 2012-06-07 Nec Corp Remote image display system, apparatus, and method

Also Published As

Publication number Publication date
JP2014235669A (en) 2014-12-15

Similar Documents

Publication Publication Date Title
CN111937051B (en) Smart home device placement and installation using augmented reality visualization
KR102385263B1 (en) Mobile home robot and controlling method of the mobile home robot
CN112640427B (en) User interface for configuring a thermal imaging system
JP6435482B2 (en) Dementia prediction system, dementia prediction program, and dementia prediction method
US10203669B2 (en) Controlling electronic devices based on footstep pattern
KR20130106082A (en) Method and apparatus for baby monitering
CN111538030A (en) Method, system, and non-transitory computer readable medium for detecting human activity
JP5554301B2 (en) Air conditioner
KR20170115648A (en) Electornic apparatus and operating method thereof
JP6148505B2 (en) Occupancy probability estimation device, method thereof, and program
JP6390886B2 (en) Watch device
JP5748157B2 (en) Remote control system, controller and program
Schenkluhn et al. Augmented Reality-based Indoor Positioning for Smart Home Automations
JP6347382B2 (en) Watch system, watch device setting device, and watch device setting program
US20220103888A1 (en) Thermostat with interactive features and system and method for use of same
US10375288B2 (en) Motion capture system
JP6601881B2 (en) Activity amount calculation system, activity amount calculation device, activity amount calculation method, and program
JP7372719B1 (en) Management server and noise prevention alert provision method
KR20140132467A (en) System for managing amount of activity with interworking of sensors
JP2023076066A (en) Life support system and life support method
JP7014439B2 (en) Sensor device equipped with motion sensor and position estimation method
TW201638895A (en) Home audio video display device (AVDD) as sensor monitor
JP2022110634A (en) Care recipient watching system
WO2024107187A1 (en) Point and gesture control of remote devices
JP2021005777A (en) Display system, and display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180808

R150 Certificate of patent or registration of utility model

Ref document number: 6390886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250