JP2022048830A - Detection system, detection device, terminal device, display control device, detection method, and program - Google Patents

Detection system, detection device, terminal device, display control device, detection method, and program Download PDF

Info

Publication number
JP2022048830A
JP2022048830A JP2020154870A JP2020154870A JP2022048830A JP 2022048830 A JP2022048830 A JP 2022048830A JP 2020154870 A JP2020154870 A JP 2020154870A JP 2020154870 A JP2020154870 A JP 2020154870A JP 2022048830 A JP2022048830 A JP 2022048830A
Authority
JP
Japan
Prior art keywords
image
event
detection
person
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020154870A
Other languages
Japanese (ja)
Inventor
和隆 安達
Kazutaka Adachi
祐生 鵜飼
Yuki Ukai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2020154870A priority Critical patent/JP2022048830A/en
Publication of JP2022048830A publication Critical patent/JP2022048830A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a technique capable of flexibly meeting various requests of a use.SOLUTION: A detection system comprises: a terminal device which receives a setting operation of a detection object event concerning an observation object person; and a detection device which detects the detection object event on the basis of a setting content by the setting operation. For example, by a setting operation using a setting screen 200, the detection object event is set as an event satisfying conditions concerning a three-dimensional position of a specific portion in the observation object person, variation in the three-dimensional position, and/or the variation speed of the three-dimensional position and the like.SELECTED DRAWING: Figure 20

Description

本発明は、観察対象人物に関する検知対象事象を検知する検知装置およびそれに関連する技術に関する。 The present invention relates to a detection device for detecting a detection target event related to an observation target person and a technique related thereto.

観察対象人物(見守り対象者等)に関する検知対象事象(転倒等)を検知する技術が存在する。 There is a technique for detecting a detection target event (fall, etc.) related to an observation target person (watch target person, etc.).

たとえば、特許文献1には、監視対象(見守り対象)である介護施設居住者(観察対象人物とも称される)の状態を監視する技術が記載されている。監視対象状態(検知対象事象とも称される)としては、被介護者(要介護者)の居室内での転倒、居室からの退室(異常退室)等が存在する。 For example, Patent Document 1 describes a technique for monitoring the state of a resident of a long-term care facility (also referred to as an observation target person), which is a monitoring target (watching target). The monitored state (also referred to as a detection target event) includes a fall of the care recipient (person requiring long-term care) in the living room, leaving the room (abnormal leaving), and the like.

特許文献1の技術においては、監視すべき特定動作(検知対象事象)ごとに当該特定動作を検知するためのプログラムが用意されている(特許文献1の段落0038参照)。そして、各プログラムがそれぞれ動作することによって各特定行動が検知される。 In the technique of Patent Document 1, a program for detecting the specific operation (detection target event) to be monitored is prepared (see paragraph 0038 of Patent Document 1). Then, each specific action is detected by operating each program.

特開2017-228042号公報Japanese Unexamined Patent Publication No. 2017-228042

上述の特許文献1の技術においては、検知すべき動作ごとにプログラムを予め作成しておくことを要する。それ故、検知対象事象は、謂わば固定的である。 In the above-mentioned technique of Patent Document 1, it is necessary to prepare a program in advance for each operation to be detected. Therefore, the event to be detected is so-called fixed.

しかしながら、実際の介護現場等においては、様々な要求が存在する。上記のような固定的な手法では、このような様々な要求に対して柔軟に対応することが困難である。 However, there are various demands in actual nursing care sites and the like. With the above-mentioned fixed method, it is difficult to flexibly respond to such various demands.

そこで、この発明は、ユーザの様々な要求に柔軟に対応することが可能な技術を提供することを第1の課題とする。 Therefore, the first object of the present invention is to provide a technique capable of flexibly responding to various demands of a user.

また、上記のような技術において、被介護者等の居室内での様子をモニタリングすることがある。 In addition, in the above-mentioned technology, the situation in the living room of the care recipient or the like may be monitored.

しかしながら、このようなモニタリング時において居室内での人物(観察対象人物とも称する)の撮影画像が管理者用画面等において常にそのまま表示されることは、当該人物のプライバシーに対して適切な配慮がなされているものとは言えない。 However, at the time of such monitoring, the fact that the photographed image of the person in the living room (also referred to as the person to be observed) is always displayed as it is on the screen for the administrator or the like is appropriately considered for the privacy of the person. It cannot be said that it is.

そこで、この発明は、観察対象人物のプライバシーに対して適切に配慮した技術を提供することを第2の課題とする。 Therefore, the second object of the present invention is to provide a technique that appropriately considers the privacy of the person to be observed.

上記第1の課題を解決すべく、本発明に係る検知システムは、観察対象人物に関する検知対象事象の設定操作を受け付ける端末装置と、前記設定操作による設定内容に基づき前記検知対象事象を検知する検知装置と、を備えることを特徴とする。 In order to solve the first problem, the detection system according to the present invention has a terminal device that accepts a setting operation of a detection target event related to an observation target person, and a detection that detects the detection target event based on the setting contents of the setting operation. It is characterized by being provided with an apparatus.

前記検知対象事象は、前記観察対象人物における特定部位の3次元位置に関する条件を充足する事象として設定されてもよい。 The detection target event may be set as an event that satisfies the condition regarding the three-dimensional position of the specific portion in the observation target person.

前記検知対象事象は、前記観察対象人物における特定部位の3次元位置の変化に関する条件を充足する事象として設定されてもよい。 The detection target event may be set as an event that satisfies the condition regarding the change in the three-dimensional position of the specific portion in the observation target person.

前記検知対象事象は、前記観察対象人物における特定部位の3次元位置の変化速度に関する条件を充足する事象として設定されてもよい。 The detection target event may be set as an event that satisfies the condition regarding the change speed of the three-dimensional position of the specific portion in the observation target person.

前記検知対象事象は、前記観察対象人物における特定部位の3次元位置と前記特定部位の3次元位置の変化速度とに関する条件を充足する事象として設定されてもよい。 The detection target event may be set as an event that satisfies the conditions relating to the three-dimensional position of the specific portion and the change rate of the three-dimensional position of the specific portion in the observation target person.

前記検知対象事象は、前記観察対象人物における特定部位の3次元位置の変化と前記特定部位の3次元位置の変化速度とに関する条件を充足する事象として設定されてもよい。 The detection target event may be set as an event that satisfies the conditions relating to the change in the three-dimensional position of the specific portion and the change rate of the three-dimensional position of the specific portion in the observation target person.

前記検知対象事象は、前記特定部位の3次元位置のうち少なくとも高さに関する条件を充足する事象として設定されてもよい。 The detection target event may be set as an event that satisfies at least a height condition among the three-dimensional positions of the specific portion.

前記検知対象事象は、前記特定部位の3次元位置のうち少なくとも平面位置に関する条件を充足する事象として設定され、検知可能空間内の平面位置は、複数のエリアに区分されており、前記平面位置に関する条件は、前記複数のエリアの中から指定されたエリアに関する条件を含んでもよい。 The detection target event is set as an event that satisfies at least a condition regarding a plane position among the three-dimensional positions of the specific portion, and the plane position in the detectable space is divided into a plurality of areas and is related to the plane position. The condition may include a condition relating to a designated area from the plurality of areas.

前記検知対象事象は、前記観察対象人物の前記特定部位と前記観察対象人物以外の所定の物体との位置関係に関する条件を充足する事象として設定されてもよい。 The detection target event may be set as an event that satisfies the condition regarding the positional relationship between the specific portion of the observation target person and a predetermined object other than the observation target person.

前記端末装置は、人物に関する複数の特定部位を示す画像を表示するとともに、当該複数の特定部位のうちの所望の特定部位を前記特定部位として指定する入力を受け付けてもよい。 The terminal device may display an image showing a plurality of specific parts relating to a person, and may accept an input for designating a desired specific part among the plurality of specific parts as the specific part.

前記端末装置は、複数の部屋に関する各検知対象事象を部屋ごとに設定する設定操作を受け付けてもよい。 The terminal device may accept a setting operation for setting each detection target event related to a plurality of rooms for each room.

前記端末装置は、部屋ごとの観察対象人物の身長情報を設定する設定操作を受け付け、前記検知装置は、前記身長情報に適合しない人物を検知対象人物から除外して、前記検知対象事象を検知してもよい。 The terminal device accepts a setting operation for setting the height information of the observation target person for each room, and the detection device excludes a person who does not match the height information from the detection target person and detects the detection target event. You may.

前記端末装置は、複数の発報レベルのうち前記検知対象事象に応じた発報レベルの設定操作を受け付けてもよい。 The terminal device may accept an operation of setting an alarm level according to the event to be detected among a plurality of alarm levels.

前記検知装置は、前記観察対象人物の撮影画像から前記観察対象人物の骨格画像を生成するとともに、前記骨格画像に基づいて前記観察対象人物に関する観察画像を生成し、前記端末装置は、前記観察対象人物に関する前記観察画像を表示し、前記観察画像は、前記観察対象人物自体の撮影画像を有さず且つ前記観察対象人物の前記骨格画像を有する画像であってもよい。 The detection device generates a skeleton image of the observation target person from a photographed image of the observation target person, and also generates an observation image of the observation target person based on the skeleton image, and the terminal device is the observation target. The observation image relating to the person may be displayed, and the observation image may be an image having no captured image of the observation target person itself and having the skeleton image of the observation target person.

前記観察画像は、人物が存在しない背景画像に前記骨格画像を合成することによって生成された画像であってもよい。 The observation image may be an image generated by synthesizing the skeleton image with a background image in which a person does not exist.

前記背景画像は、人物が存在しない撮影画像に基づいて生成されてもよい。 The background image may be generated based on a captured image in which no person is present.

前記端末装置は、所定条件が成立する場合、前記観察対象人物に関する撮影画像を、前記観察画像に代えて或いは前記観察画像とともに表示してもよい。 When a predetermined condition is satisfied, the terminal device may display a photographed image of the person to be observed in place of the observation image or together with the observation image.

前記所定条件は、前記検知対象事象が検知されたこと、を含んでもよい。 The predetermined condition may include that the event to be detected has been detected.

前記所定条件は、複数の発報レベルのうち前記検知対象事象に対して設定された発報レベルが所定レベル以上の重要度を有すること、を含んでもよい。 The predetermined condition may include that the notification level set for the detection target event among the plurality of notification levels has a degree of importance equal to or higher than the predetermined level.

上記第1の課題を解決すべく、本発明に係る端末装置は、観察対象人物に関する検知対象事象の設定操作を受け付ける受付部と、前記検知対象事象を検知する検知装置に対して前記設定操作に基づく設定情報を送信する制御部と、を備えることを特徴とする。 In order to solve the first problem, the terminal device according to the present invention performs the setting operation for the reception unit that accepts the setting operation of the detection target event related to the observation target person and the detection device that detects the detection target event. It is characterized by including a control unit for transmitting setting information based on the above.

上記第1の課題を解決すべく、本発明に係るプログラムは、a)観察対象人物に関する検知対象事象の設定操作を受け付けるステップと、b)前記検知対象事象を検知する検知装置に対して前記設定操作に基づく設定情報を送信するステップと、をコンピュータに実行させるためのプログラムであることを特徴とする。 In order to solve the first problem, the program according to the present invention has a) a step of accepting a setting operation of a detection target event related to an observation target person, and b) the setting of the detection device for detecting the detection target event. It is characterized in that it is a program for causing a computer to execute a step of transmitting setting information based on an operation.

上記第1の課題を解決すべく、本発明に係る検知方法は、観察対象人物に関する検知対象事象を検知する検知方法であって、a)観察対象人物に関する検知対象事象の設定操作を受け付けるステップと、b)前記設定操作による設定内容に基づき前記検知対象事象を検知するステップと、を備えることを特徴とする。 In order to solve the first problem, the detection method according to the present invention is a detection method for detecting a detection target event related to an observation target person, and a) a step of accepting a setting operation of the detection target event related to the observation target person. , B) It is characterized by comprising a step of detecting the detection target event based on the setting content by the setting operation.

上記第1の課題を解決すべく、本発明に係る検知装置は、観察対象人物に関する検知対象事象の設定操作を受け付ける受付部と、前記設定操作による設定内容に基づき前記検知対象事象を検知する制御部と、を備えることを特徴とする。 In order to solve the first problem, the detection device according to the present invention has a reception unit that accepts a setting operation of a detection target event related to an observation target person, and a control that detects the detection target event based on the setting content of the setting operation. It is characterized by having a part and.

上記第2の課題を解決すべく、本発明に係る検知システムは、観察対象人物に関する検知対象事象を検知する検知装置と、前記観察対象人物に関する観察画像を表示する表示装置と、を備え、前記検知装置は、前記観察対象人物の撮影画像から前記観察対象人物の骨格画像を生成するとともに、前記骨格画像に基づいて前記観察対象人物に関する前記観察画像を生成し、前記観察画像は、前記観察対象人物自体の撮影画像を有さず且つ前記観察対象人物の前記骨格画像を有する画像であることを特徴とする。 In order to solve the second problem, the detection system according to the present invention includes a detection device for detecting a detection target event related to the observation target person and a display device for displaying an observation image of the observation target person. The detection device generates a skeleton image of the observation target person from the captured image of the observation target person, and also generates the observation image of the observation target person based on the skeleton image, and the observation image is the observation target. The image is characterized in that it does not have a photographed image of the person itself and has the skeleton image of the person to be observed.

上記第2の課題を解決すべく、本発明に係る表示制御装置は、観察対象人物に関する検知対象事象を検知する検知システムにおける表示部での表示を制御する表示制御装置であって、前記観察対象人物の撮影画像から前記観察対象人物の骨格画像を生成するとともに、前記骨格画像に基づいて前記観察対象人物に関する観察画像を生成し、前記観察対象人物に関する前記観察画像を前記表示部に表示させる制御部、を備え、前記観察画像は、前記観察対象人物自体の撮影画像を有さず且つ前記観察対象人物の前記骨格画像を有する画像であることを特徴とする。 In order to solve the second problem, the display control device according to the present invention is a display control device that controls the display on the display unit in the detection system that detects the detection target event related to the observation target person, and is the observation target. Control to generate a skeleton image of the observation target person from a photographed image of the person, generate an observation image of the observation target person based on the skeleton image, and display the observation image of the observation target person on the display unit. The observation image is characterized by having a captured image of the observation target person itself and having the skeleton image of the observation target person.

請求項1~請求項23に記載の発明によれば、ユーザの様々な要求に柔軟に対応することが可能である。 According to the inventions of claims 1 to 23, it is possible to flexibly respond to various requests of the user.

請求項24~請求項25に記載の発明によれば、観察対象人物のプライバシーに十分に配慮した表示を実現することが可能である。 According to the inventions of claims 24 to 25, it is possible to realize a display that gives due consideration to the privacy of the person to be observed.

検知システムの概略構成を示す図である。It is a figure which shows the schematic structure of the detection system. 検知装置(画像処理装置)の概略構成を示す機能ブロック図である。It is a functional block diagram which shows the schematic structure of the detection device (image processing device). 管理装置の概略構成を示す機能ブロック図である。It is a functional block diagram which shows the schematic structure of a management device. 携帯端末装置の概略構成を示す機能ブロック図である。It is a functional block diagram which shows the schematic structure of the mobile terminal apparatus. 検知装置における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of processing in a detection device. 人物の各特定部位に関する3次元位置情報の生成等を示す概念図である。It is a conceptual diagram which shows the generation of 3D position information about each specific part of a person. 「ベッドからの起き上がり」を示す図である。It is a figure which shows "getting up from a bed". 「端座位」を示す図である。It is a figure which shows "the end sitting position". 「離床」を示す図である。It is a figure which shows "getting out of bed". 「床での転倒」を示す図である。It is a figure which shows "fall on the floor". 「床での横たわり」を示す図である。It is a figure which shows "lying on the floor". 「ベッドからの全身ずり落ち」を示す図である。It is a figure which shows "the whole body slides off from a bed". 「ベッドからの下半身ずり落ち」を示す図である。It is a figure which shows "the lower body slides off from a bed". 「ベッドからの片手伸ばし」を示す図である。It is a figure which shows "one-handed extension from a bed". 表示対象の部屋を選択する選択画面を示す図である。It is a figure which shows the selection screen which selects the room to be displayed. 或る部屋の観察対象人物の観察画面を示す図である。It is a figure which shows the observation screen of the observation target person in a certain room. 或る部屋の観察対象人物の観察画面を示す図である。It is a figure which shows the observation screen of the observation target person in a certain room. 観察画像の生成処理等について説明する図である。It is a figure explaining the generation process of the observation image. 検知対象事象の設定画面(登録画面)を示す図である。It is a figure which shows the setting screen (registration screen) of the event to be detected. 検知対象事象「起き上がり(ベッド上)」の設定画面を示す図である。It is a figure which shows the setting screen of the event to be detected "get up (on the bed)". 検知対象事象「端座位(ベッド)」の設定画面を示す図である。It is a figure which shows the setting screen of the detection target event "end sitting position (bed)". 検知対象事象「端座位(ベッド)」の設定画面を示す図である。It is a figure which shows the setting screen of the detection target event "end sitting position (bed)". 検知対象事象「離床」の設定画面を示す図である。It is a figure which shows the setting screen of the detection target event "getting out of bed". 検知対象事象「転倒(床上)」の設定画面を示す図である。It is a figure which shows the setting screen of the detection target event "fall (on the floor)". 検知対象事象「横たわり(床上)」の設定画面を示す図である。It is a figure which shows the setting screen of the event to be detected "lying (on the floor)". 検知対象事象「ベッドからの全身ずり落ち」の設定画面を示す図である。It is a figure which shows the setting screen of the detection target event "whole body slip from a bed". 検知対象事象「ベッドからの下半身ずり落ち」の設定画面を示す図である。It is a figure which shows the setting screen of the detection target event "lower body slipping from a bed". 検知対象事象「ベッドからの片手伸ばし」の設定画面を示す図である。It is a figure which shows the setting screen of the event to be detected "one hand extension from a bed". 検知対象事象「ベッドからの片手伸ばし」の設定画面を示す図である。It is a figure which shows the setting screen of the event to be detected "one hand extension from a bed". 管理装置における処理を示すフローチャートである。It is a flowchart which shows the process in a management apparatus. 「ベッド上での転倒」を示す図である。It is a figure which shows "the fall on the bed". 検知対象事象「転倒」の設定画面を示す図である。It is a figure which shows the setting screen of the detection target event "fall".

以下、本発明の実施形態を図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.システム概要>
図1は、本発明に係る検知システム1を示す図である。図1に示すように、検知システム1は、複数の検知装置10と複数の端末装置70,80とを備える。端末装置70は、管理装置70とも称され、端末装置80は、携帯端末装置80とも称される。検知システム1は、観察対象人物(被介護者等)に関する検知対象事象(「転倒」等)を検知するシステムである。なお、検知装置および検知システムは、人物の挙動等を見守るものであることから、見守り装置および見守りシステムなどとも称される。
<1. System overview>
FIG. 1 is a diagram showing a detection system 1 according to the present invention. As shown in FIG. 1, the detection system 1 includes a plurality of detection devices 10 and a plurality of terminal devices 70 and 80. The terminal device 70 is also referred to as a management device 70, and the terminal device 80 is also referred to as a mobile terminal device 80. The detection system 1 is a system that detects a detection target event (“fall” or the like) related to an observation target person (care recipient or the like). Since the detection device and the detection system watch over the behavior of a person, they are also referred to as a watching device and a watching system.

各検知装置10と各端末装置70,80とは、ネットワーク108を介して互いに接続される。ネットワーク108は、LAN(Local Area Network)およびインターネットなどによって構成される。また、ネットワーク108に対する接続態様は、有線接続であってもよく、或いは無線接続であってもよい。たとえば、管理装置70はネットワーク108に対して有線接続され、各検知装置10および各携帯端末装置80はネットワーク108に対して無線接続される。あるいは、全ての装置10,70,80がネットワーク108に対して無線接続されてもよい。 Each detection device 10 and each terminal device 70, 80 are connected to each other via a network 108. The network 108 is composed of a LAN (Local Area Network), the Internet, and the like. Further, the connection mode to the network 108 may be a wired connection or a wireless connection. For example, the management device 70 is wiredly connected to the network 108, and each detection device 10 and each mobile terminal device 80 are wirelessly connected to the network 108. Alternatively, all devices 10, 70, 80 may be wirelessly connected to the network 108.

検知システム1においては、各検知装置10に関する各種の入出力処理(操作入力処理および表示処理等)等が管理装置70および携帯端末装置80を用いて行われる。すなわち、管理装置70および携帯端末装置80は、それぞれ、複数の検知装置10に関する端末装置として機能する。 In the detection system 1, various input / output processes (operation input process, display process, etc.) and the like related to each detection device 10 are performed by using the management device 70 and the mobile terminal device 80. That is, the management device 70 and the mobile terminal device 80 each function as terminal devices related to the plurality of detection devices 10.

以下では、介護施設において当該検知システム1が利用される態様について主に例示する。なお、これに限定されず、検知システム1は、看護施設(病院等)あるいは工場などで利用されてもよい。 In the following, a mode in which the detection system 1 is used in a long-term care facility will be mainly exemplified. The detection system 1 is not limited to this, and may be used in a nursing facility (hospital or the like) or a factory.

各検知装置10は、各観察対象人物(ここでは被介護者)の居室90(たとえば、各被介護者の個室)ごとに配置される。各検知装置10は、観察対象人物に関する撮影画像等に基づき、当該観察対象人物に関する検知対象事象(「転倒」等)を検知する装置である。後述するように、「検知対象事象」は端末装置70における設定操作によって設定(規定)される。そして、検知装置10は当該設定操作による設定内容に基づいて検知対象事象を検知する。 Each detection device 10 is arranged in each living room 90 (for example, a private room of each care recipient) of each observation target person (here, the care recipient). Each detection device 10 is a device that detects a detection target event (“fall” or the like) related to the observation target person based on a photographed image or the like related to the observation target person. As will be described later, the "detection target event" is set (defined) by the setting operation in the terminal device 70. Then, the detection device 10 detects the event to be detected based on the setting content of the setting operation.

各検知装置10は、カメラユニット20と処理ユニット30とを備える。カメラユニット20は、居室90の天井等に設置され、居室90内の様子を撮影することが可能である。処理ユニット30は、カメラユニット20によって撮影された画像(特に動画像)等に基づき、観察対象人物の複数の特定部位(胸、腰、肩、肘、手首、膝、足首等)の3次元位置(特にその時系列の情報)を取得することが可能である。なお、ここでは、カメラユニット20と処理ユニット30とが別々に設けられているが、これに限定されず、カメラユニット20と処理ユニット30とが一体化されて設けられてもよい。 Each detection device 10 includes a camera unit 20 and a processing unit 30. The camera unit 20 is installed on the ceiling or the like of the living room 90, and can photograph the inside of the living room 90. The processing unit 30 is a three-dimensional position of a plurality of specific parts (chest, waist, shoulders, elbows, wrists, knees, ankles, etc.) of the person to be observed based on an image (particularly a moving image) taken by the camera unit 20. (Especially the time series information) can be obtained. Here, the camera unit 20 and the processing unit 30 are provided separately, but the present invention is not limited to this, and the camera unit 20 and the processing unit 30 may be provided integrally.

カメラユニット20は、3次元カメラである。カメラユニット20は、深度情報付き撮影画像を取得する。具体的には、カメラユニット20は、被写体物体(人物、壁、床91、ベッド92、等)の撮影画像(赤外線画像等)110(図6参照)を撮像するとともに、撮影画像110内の各画素の深度情報(奥行き距離情報)120を取得する。撮影画像内の各画素の深度情報120は、撮影画像110内の各画素に対応する被写体物体(人物、壁、床、ベッド等)までの距離(カメラユニット20からの距離)の情報であって当該撮影画像110に垂直な方向における距離の情報である。換言すれば、当該深度情報は、撮影画像平面の法線方向における距離情報(奥行き距離情報)である。 The camera unit 20 is a three-dimensional camera. The camera unit 20 acquires a captured image with depth information. Specifically, the camera unit 20 captures a captured image (infrared image, etc.) 110 (see FIG. 6) of a subject object (person, wall, floor 91, bed 92, etc.) and each of the captured images 110. Acquires the depth information (depth distance information) 120 of the pixel. The depth information 120 of each pixel in the captured image is information on the distance (distance from the camera unit 20) to the subject object (person, wall, floor, bed, etc.) corresponding to each pixel in the captured image 110. This is information on the distance in the direction perpendicular to the captured image 110. In other words, the depth information is distance information (depth distance information) in the normal direction of the captured image plane.

たとえば、カメラユニット20はセンサ部23(図2)を備え、当該センサ部23は赤外線カメラ(赤外線画像センサ等)と赤外線プロジェクタとを備える。赤外線カメラは、被写体物体に関する撮影画像110(たとえば赤外線画像)を取得する。また、赤外線プロジェクタは、赤外線による所定のドットパターンを対象物体に向けて照射し、赤外線カメラは、対象物体に照射されたドットパターンを撮像した赤外線画像をも取得する。撮像されたドットパターンの幾何学的な形状が対象物体までの距離によって変化すること等を利用して、対象物体までの距離(奥行き距離情報)120が算出(取得)される。当該奥行き距離情報の算出処理は、カメラユニット20内に組み込まれたコントローラ21等によって実行される。コントローラ21は、コントローラ31(後述)等と同様のハードウエア構成を備える。なお、センサ部23において、可視光画像(カラー画像等)を撮像するRGB画像センサ等が設けられ、カラー画像が撮影されてもよい。 For example, the camera unit 20 includes a sensor unit 23 (FIG. 2), and the sensor unit 23 includes an infrared camera (infrared image sensor or the like) and an infrared projector. The infrared camera acquires a photographed image 110 (for example, an infrared image) of the subject object. Further, the infrared projector irradiates a predetermined dot pattern by infrared rays toward the target object, and the infrared camera also acquires an infrared image obtained by capturing the dot pattern irradiated on the target object. The distance (depth distance information) 120 to the target object is calculated (acquired) by utilizing the fact that the geometric shape of the captured dot pattern changes depending on the distance to the target object. The calculation process of the depth distance information is executed by the controller 21 or the like incorporated in the camera unit 20. The controller 21 has the same hardware configuration as the controller 31 (described later) and the like. The sensor unit 23 may be provided with an RGB image sensor or the like for capturing a visible light image (color image or the like), and a color image may be captured.

このようにして、カメラユニット20は、被写体人物の撮影画像(撮影画像情報)110(図6参照)と当該撮影画像内の各画素の深度情報(各画素に対応する物体までの距離の情報(奥行き距離情報))120とを取得する。 In this way, the camera unit 20 has a photographed image (photographed image information) 110 (see FIG. 6) of the subject person and depth information of each pixel in the photographed image (information on the distance to an object corresponding to each pixel (see FIG. 6). Depth distance information)) 120 and is acquired.

図6は、撮影画像110および深度情報120に基づいて被写体人物の各特定部位の3次元位置の情報が取得(算出)されることを示す概念図である。なお、図6では、撮影画像110および深度情報120等はそれぞれ模式的に示されている。たとえば、実際の撮影画像110においては人物は撮像されたままの状態で写っているのに対して、図6の撮影画像110においては人物は楕円を連結した図形で(簡略化して)表現されている。他の深度情報120においても同様である。また、実際の深度情報120は、各画素に対応する物体までの距離の情報を有しているのに対して、図6の深度情報120では、各画素に対応する物体までの距離が各画素の濃度に換算して表現されている。詳細には、距離の大小が濃度の大小(濃淡)で表現されている。 FIG. 6 is a conceptual diagram showing that information on the three-dimensional position of each specific portion of the subject person is acquired (calculated) based on the captured image 110 and the depth information 120. In FIG. 6, the captured image 110, the depth information 120, and the like are schematically shown. For example, in the actual captured image 110, the person is captured as it is captured, whereas in the captured image 110 of FIG. 6, the person is represented (simplified) by a figure in which ellipses are connected. There is. The same applies to the other depth information 120. Further, the actual depth information 120 has information on the distance to the object corresponding to each pixel, whereas in the depth information 120 of FIG. 6, the distance to the object corresponding to each pixel is each pixel. It is expressed in terms of the concentration of. In detail, the magnitude of the distance is expressed by the magnitude (shading) of the density.

まず、処理ユニット30(特にコントローラ31)は、撮影画像110を解析し、被写体人物の骨格情報(骨格モデル情報)140(図6の左下部分参照)を取得する。当該骨格情報140は、被写体人物の複数の特定部位(詳細には、胸、鼻、肩、肘、手首、腰、膝、足首、目、耳等)(主に関節)と当該複数の特定部位を接続する骨格線(リンク)とを用いて、当該人物の骨格を(簡略化して)表現する情報である。図6の骨格情報140では、各特定部位は「点」で示され、各骨格線(接続線)は「線分」で示されている。撮影画像に基づく骨格情報140は、複数の特定部位(ここではB0~B17)に関する情報(各部位の画像内での平面位置情報等)を有している。 First, the processing unit 30 (particularly the controller 31) analyzes the captured image 110 and acquires the skeleton information (skeleton model information) 140 (see the lower left portion of FIG. 6) of the subject person. The skeleton information 140 includes a plurality of specific parts (specifically, chest, nose, shoulders, elbows, wrists, hips, knees, ankles, eyes, ears, etc.) (mainly joints) and the plurality of specific parts of the subject person. It is information that expresses (simplified) the skeleton of the person concerned by using the skeleton line (link) that connects the above. In the skeleton information 140 of FIG. 6, each specific part is indicated by a "point", and each skeleton line (connecting line) is indicated by a "line segment". The skeleton information 140 based on the captured image has information on a plurality of specific parts (here, B0 to B17) (planar position information in the image of each part, etc.).

また、処理ユニット30は、被写体人物の骨格情報140に基づき、被写体人物の各特定部位(たとえば、それぞれの代表位置)の撮影画像110内での平面位置情報(カメラ座標系における撮影画像内の2次元位置情報)を取得する。 Further, the processing unit 30 is based on the skeleton information 140 of the subject person, and the plane position information (2 in the photographed image in the camera coordinate system) in the photographed image 110 of each specific part (for example, each representative position) of the subject person. Dimensional position information) is acquired.

さらに、処理ユニット30は、各特定部位に対応する(撮影画像110内での)平面位置における1または複数の画素の深度情報120に基づき、カメラユニット20から当該各特定部位までの距離情報(カメラ座標系における奥行き位置情報)をも取得する。当該距離情報は、撮影画像平面の法線方向における奥行き情報である、とも表現される。 Further, the processing unit 30 has distance information (camera) from the camera unit 20 to each specific portion based on the depth information 120 of one or a plurality of pixels in the plane position (in the captured image 110) corresponding to each specific portion. Depth position information in the coordinate system) is also acquired. The distance information is also expressed as depth information in the normal direction of the captured image plane.

このようにして、処理ユニット30は、被写体人物の各特定部位の撮影画像内での平面位置に関する情報(撮影画像内2次元位置情報)と当該被写体人物における各特定部位までの距離情報(奥行き情報)とを取得する。 In this way, the processing unit 30 has information on the plane position in the captured image of each specific portion of the subject person (two-dimensional position information in the captured image) and distance information (depth information) to each specific portion in the subject person. ) And get.

そして、処理ユニット30は、被写体人物の各特定部位の撮影画像内での平面位置に関する情報と当該各特定部位までの距離情報(奥行き情報)とに基づいて、各特定部位の3次元位置情報150(居室空間内での3次元位置情報)を座標変換等によって取得する。具体的には、処理ユニット30は、カメラ座標系Σ1での位置情報(撮影画像内での平面位置および撮影画像の法線方向における奥行き位置)を、居室に対して固定された座標系Σ2での3次元位置情報150へと変換する。カメラ座標系Σ1は、たとえば、撮影画像平面に平行な直交2軸と当該撮影画像平面に垂直な方向に伸びる1軸との直交3軸を基準とする3次元直交座標系である。また、変換後の座標系Σ2は、たとえば、水平平面に平行な直交2軸と鉛直方向(高さ方向)に伸びる1軸との直交3軸を基準とする3次元直交座標系である。 Then, the processing unit 30 is based on the information on the plane position in the captured image of each specific part of the subject person and the distance information (depth information) to the specific part, and the three-dimensional position information 150 of each specific part. (3D position information in the living room space) is acquired by coordinate conversion or the like. Specifically, the processing unit 30 uses the coordinate system Σ2 fixed to the living room to provide position information (planar position in the captured image and depth position in the normal direction of the captured image) in the camera coordinate system Σ1. Is converted into the three-dimensional position information 150 of. The camera coordinate system Σ1 is, for example, a three-dimensional Cartesian coordinate system based on three orthogonal axes of two orthogonal axes parallel to the captured image plane and one axis extending in a direction perpendicular to the captured image plane. Further, the coordinate system Σ2 after conversion is, for example, a three-dimensional orthogonal coordinate system based on three orthogonal axes of two orthogonal axes parallel to the horizontal plane and one axis extending in the vertical direction (height direction).

このようにして、処理ユニット30は、被写体人物の各特定部位の3次元位置の情報を取得(算出)する。ここでは撮影画像内の被写体人物は、原則として観察対象人物であると見做される。なお、カメラ視野内に複数の被写体人物が存在する場合には、全ての被写体人物が観察対象人物として特定されればよい。ただし、これに限定されず、身長等の情報を用いて(あるいは顔認識技術等を用いて)複数の被写体人物の中から所望の観察対象事物が特定されてもよい。 In this way, the processing unit 30 acquires (calculates) information on the three-dimensional position of each specific portion of the subject person. Here, the subject person in the captured image is, in principle, regarded as the person to be observed. When there are a plurality of subject persons in the field of view of the camera, all the subject persons may be specified as the observation target persons. However, the present invention is not limited to this, and a desired observation target object may be specified from a plurality of subject persons using information such as height (or using face recognition technology or the like).

なお、ここでは、処理ユニット30のコントローラ31が骨格情報140および各特定部位の3次元位置情報150等を生成しているが、これに限定されない。 Here, the controller 31 of the processing unit 30 generates the skeleton information 140, the three-dimensional position information 150 of each specific part, and the like, but the present invention is not limited to this.

たとえば、カメラユニット20のコントローラ21が骨格情報140を生成してもよい。また、カメラユニット20のコントローラ21が、各特定部位の3次元位置情報150を生成してもよい。詳細には、コントローラ21が、被写体人物の各特定部位の撮影画像内での位置に関する情報と各特定部位までの距離情報(奥行き情報)とを取得し、各特定部位の3次元位置情報150を座標変換等によって取得してもよい。そして、処理ユニット30のコントローラ31は、各特定部位の3次元位置情報150をカメラユニット20から取得するようにしてもよい。あるいは、カメラユニット20および処理ユニット30の両コントローラ21,31が協働して、これらの各種の処理を実行してもよい。換言すれば、骨格情報140および3次元位置情報150は、両コントローラ21,31の双方または一方により生成され得る。 For example, the controller 21 of the camera unit 20 may generate the skeleton information 140. Further, the controller 21 of the camera unit 20 may generate the three-dimensional position information 150 of each specific portion. Specifically, the controller 21 acquires information on the position of each specific part of the subject person in the captured image and distance information (depth information) to each specific part, and obtains three-dimensional position information 150 of each specific part. It may be acquired by coordinate conversion or the like. Then, the controller 31 of the processing unit 30 may acquire the three-dimensional position information 150 of each specific portion from the camera unit 20. Alternatively, both the controllers 21 and 31 of the camera unit 20 and the processing unit 30 may cooperate to execute these various processes. In other words, the skeleton information 140 and the three-dimensional position information 150 can be generated by both or one of the controllers 21 and 31.

また、ここでは、ドットパターンの照射に基づき各画素の深度情報を取得するパターン照射方式による3次元カメラが例示されるが、これに限定されない。3次元カメラは、ステレオ視方式のカメラ、あるいは、TOF(Time of Flight)方式のカメラ等であってもよい。任意の方式の3次元カメラによって、観察対象人物に関する撮影画像と当該撮影画像内の被写体物体までの距離の情報である深度情報(各画素の深度情報等)とが取得されればよい。 Further, here, a three-dimensional camera based on a pattern irradiation method that acquires depth information of each pixel based on the irradiation of a dot pattern is exemplified, but the present invention is not limited to this. The three-dimensional camera may be a stereo viewing type camera, a TOF (Time of Flight) type camera, or the like. It suffices to acquire a photographed image of the person to be observed and depth information (depth information of each pixel, etc.) which is information on the distance to the subject object in the photographed image by a three-dimensional camera of an arbitrary method.

また、検知装置10は、撮影画像等に関する画像処理を実行する装置であることから、画像処理装置であるとも表現される。また、検知システム1は、画像処理システムなどとも表現される。 Further, since the detection device 10 is a device that executes image processing related to a captured image or the like, it is also expressed as an image processing device. The detection system 1 is also referred to as an image processing system or the like.

<2.検知装置10>
図2は、検知装置10の概略構成を示す機能ブロック図である。
<2. Detection device 10>
FIG. 2 is a functional block diagram showing a schematic configuration of the detection device 10.

検知装置10は、図2の機能ブロック図に示すように、カメラユニット20と処理ユニット30とを備える。 The detection device 10 includes a camera unit 20 and a processing unit 30 as shown in the functional block diagram of FIG.

上述のように、カメラユニット20は、赤外線カメラおよび赤外線プロジェクタ等を備える。 As described above, the camera unit 20 includes an infrared camera, an infrared projector, and the like.

また、処理ユニット30は、コントローラ31と記憶部32と通信部34と操作部35とを備える。 Further, the processing unit 30 includes a controller 31, a storage unit 32, a communication unit 34, and an operation unit 35.

コントローラ31は、処理ユニット30に内蔵され、検知装置10を制御する制御装置である。 The controller 31 is a control device built in the processing unit 30 and controls the detection device 10.

コントローラ31は、CPU(Central Processing Unit)(マイクロプロセッサあるいはハードウエアプロセッサなどとも称される)等を備えるコンピュータシステムとして構成される。コントローラ31は、CPUにおいて、記憶部(ROMおよび/またはハードディスクなどの不揮発性記憶部)32内に格納されている所定のソフトウエアプログラム(以下、単にプログラムとも称する)を実行することによって、各種の処理を実現する。なお、当該プログラム(詳細にはプログラムモジュール群)は、USBメモリなどの可搬性の記録媒体に記録され、当該記録媒体から読み出されて検知装置10にインストールされるようにしてもよい。あるいは、当該プログラムは、通信ネットワーク等を経由してダウンロードされて検知装置10にインストールされるようにしてもよい。 The controller 31 is configured as a computer system including a CPU (Central Processing Unit) (also referred to as a microprocessor or a hardware processor) and the like. The controller 31 executes various software programs (hereinafter, also simply referred to as programs) stored in the storage unit (non-volatile storage unit such as ROM and / or hard disk) 32 in the CPU. Realize the processing. The program (specifically, a program module group) may be recorded on a portable recording medium such as a USB memory, read from the recording medium, and installed in the detection device 10. Alternatively, the program may be downloaded via a communication network or the like and installed in the detection device 10.

コントローラ31は、観察対象人物に関する撮影画像情報をカメラユニット20から取得するとともに、当該観察対象人物(被写体人物)の各特定部位に関して当該各特定部位までの距離情報(奥行き情報)をカメラユニット20から取得する。そして、コントローラ31は、撮影画像情報(特に撮影画像内における被写体の各特定部位の平面位置情報)と距離情報(被写体の奥行き情報)とに基づいて、各特定部位の3次元位置情報を取得する。 The controller 31 acquires photographed image information about the person to be observed from the camera unit 20, and obtains distance information (depth information) from the camera unit 20 to each specific part of the person to be observed (subject person) from the camera unit 20. get. Then, the controller 31 acquires the three-dimensional position information of each specific portion based on the captured image information (particularly, the plane position information of each specific portion of the subject in the captured image) and the distance information (depth information of the subject). ..

また、コントローラ31は、各特定部位の3次元位置情報に基づいて「検知対象事象」(後述)を検知する。詳細には、コントローラ31は、端末装置70,80にて受け付けられた設定操作に応じて「検知対象事象」(後述)を設定する。そして、コントローラ31は、当該設定操作による設定内容に基づき検知対象事象を検知する。 Further, the controller 31 detects the "detection target event" (described later) based on the three-dimensional position information of each specific portion. Specifically, the controller 31 sets the "detection target event" (described later) according to the setting operation accepted by the terminal devices 70 and 80. Then, the controller 31 detects the event to be detected based on the setting content by the setting operation.

また、コントローラ31は、観察対象人物に関するモニタリング用画面等を端末装置70,80にて表示する処理を制御する。詳細には、コントローラ31は、後述するような観察画像330(図18)の画像データ等を生成し、当該画像データ等を端末装置70,80に送信する。これに応じて、端末装置70,80にて画像データ等に基づく観察画像330が表示される。 Further, the controller 31 controls a process of displaying a monitoring screen or the like regarding the person to be observed on the terminal devices 70, 80. Specifically, the controller 31 generates image data or the like of the observation image 330 (FIG. 18) as described later, and transmits the image data or the like to the terminal devices 70 and 80. Accordingly, the terminal devices 70 and 80 display the observation image 330 based on the image data and the like.

記憶部32は、ハードディスクドライブ(HDD)あるいはソリッドステートドライブ(SSD)等の記憶装置で構成される。記憶部32は、観察対象人物に関する複数の特定部位の3次元位置の時系列データ等を格納(記憶)する。 The storage unit 32 is composed of a storage device such as a hard disk drive (HDD) or a solid state drive (SSD). The storage unit 32 stores (stores) time-series data and the like of three-dimensional positions of a plurality of specific parts related to the person to be observed.

通信部34は、ネットワーク108を介したネットワーク通信を行うことが可能である。このネットワーク通信では、たとえば、TCP/IP(Transmission Control Protocol / Internet Protocol)等の各種のプロトコルが利用される。当該ネットワーク通信を利用することによって、検知装置10は、所望の相手先(たとえば、端末装置70,80)との間で各種のデータを授受することが可能である。 The communication unit 34 can perform network communication via the network 108. In this network communication, for example, various protocols such as TCP / IP (Transmission Control Protocol / Internet Protocol) are used. By using the network communication, the detection device 10 can exchange various data with and from a desired destination (for example, terminal devices 70 and 80).

操作部35は、検知装置10に対する操作入力を受け付ける操作入力部35aと、各種情報の表示出力を行う表示部35bとを備えている。なお、本システム1においては、検知装置10に関する入出力機能(操作入力の受付機能および出力機能(表示機能等))を主に端末装置70,80が発揮する。それ故、操作部35は、メンテナンス時等においてのみ処理ユニット30に装着されるタイプのものであってもよい。 The operation unit 35 includes an operation input unit 35a for receiving an operation input to the detection device 10 and a display unit 35b for displaying and outputting various information. In the system 1, the terminal devices 70 and 80 mainly exhibit the input / output functions (operation input reception function and output function (display function, etc.)) related to the detection device 10. Therefore, the operation unit 35 may be of a type that is attached to the processing unit 30 only at the time of maintenance or the like.

<3.端末装置70,80>
つぎに、端末装置70,80の構成について説明する。
<3. Terminal devices 70, 80>
Next, the configurations of the terminal devices 70 and 80 will be described.

端末装置70,80のうち、管理装置70は、検知システム1全体の管理を行う装置であり、主に管理者によって操作される。一方、携帯端末装置80は、検知システム1における各種の情報を表示する表示装置等として機能する。携帯端末装置80は、被介護者を介護する人物(介護者)によって携帯され、被介護者等に関する各種の情報を表示する。また、管理装置70は、検知システム1における各種の情報を表示する表示装置としても機能する。さらに、管理装置70は、検知対象事象(後述)等に関してユーザによる設定操作を受け付ける設定受付装置としても機能する。 Of the terminal devices 70 and 80, the management device 70 is a device that manages the entire detection system 1, and is mainly operated by an administrator. On the other hand, the mobile terminal device 80 functions as a display device or the like that displays various information in the detection system 1. The mobile terminal device 80 is carried by a person (caregiver) who cares for the care recipient, and displays various information about the care recipient and the like. The management device 70 also functions as a display device for displaying various information in the detection system 1. Further, the management device 70 also functions as a setting reception device that accepts a setting operation by the user regarding a detection target event (described later) or the like.

端末装置70,80は、他の装置(10等)との間でのネットワーク通信が可能な情報入出力端末装置(情報処理装置)である。端末装置70,80は、スマートフォン、タブレット型端末、あるいはパーソナルコンピュータ(固定式(据置型)あるいは携帯式の何れでもよい)などとして構成される。たとえば、端末装置70は固定式のパーソナルコンピュータであり、端末装置80は、携帯式の装置(携帯端末装置)、より詳細には、スマートフォンである。 The terminal devices 70 and 80 are information input / output terminal devices (information processing devices) capable of network communication with other devices (10 and the like). The terminal devices 70 and 80 are configured as a smartphone, a tablet type terminal, a personal computer (either a fixed type (stationary type) or a portable type) or the like. For example, the terminal device 70 is a fixed personal computer, and the terminal device 80 is a portable device (portable terminal device), more particularly a smartphone.

まず、管理装置70について説明する。 First, the management device 70 will be described.

図3は、管理装置70の概略構成を示す機能ブロック図である。 FIG. 3 is a functional block diagram showing a schematic configuration of the management device 70.

管理装置70は、図3の機能ブロック図に示すように、コントローラ71、記憶部72、通信部74、操作部75等を備えており、これらの各部を複合的に動作させることによって、各種の機能を実現する。 As shown in the functional block diagram of FIG. 3, the management device 70 includes a controller 71, a storage unit 72, a communication unit 74, an operation unit 75, and the like, and various types can be obtained by operating each of these units in a complex manner. Realize the function.

コントローラ(制御部)71は、管理装置70を制御する制御装置である。 The controller (control unit) 71 is a control device that controls the management device 70.

コントローラ71は、コントローラ31と同様のハードウエア構成を有している。また、コントローラ71は、CPUにおいて、記憶部(ROMおよび/またはハードディスクなどの不揮発性記憶部)72内に格納されている所定のソフトウエアプログラムを実行することによって、各種の処理を実現する。なお、当該プログラム(詳細にはプログラムモジュール群)は、USBメモリなどの可搬性の記録媒体に記録され、当該記録媒体から読み出されて管理装置70にインストールされるようにしてもよい。あるいは、当該プログラムは、通信ネットワーク等を経由してダウンロードされて管理装置70にインストールされるようにしてもよい。 The controller 71 has the same hardware configuration as the controller 31. Further, the controller 71 realizes various processes by executing a predetermined software program stored in the storage unit (nonvolatile storage unit such as ROM and / or hard disk) 72 in the CPU. The program (specifically, a program module group) may be recorded on a portable recording medium such as a USB memory, read from the recording medium, and installed in the management device 70. Alternatively, the program may be downloaded via a communication network or the like and installed in the management device 70.

コントローラ71は、当該プログラムを実行し、次のような各種の処理を実行する。 The controller 71 executes the program and executes various processes such as the following.

コントローラ71は、操作部75と協働して、各種の設定操作等を受け付ける。たとえば、コントローラ71は、観察対象人物に関する検知対象事象の設定操作を受け付ける。より詳細には、コントローラ71は、観察対象人物に関する検知対象事象の設定画面200を生成して当該設定画面200を表示部75bに表示し、当該設定画面200を用いたユーザ操作を受け付ける。また、コントローラ71は、当該設定操作による設定内容を検知装置10に送信して、検知対象事象を登録する登録処理(設定処理)を検知装置10に実行させる。 The controller 71 cooperates with the operation unit 75 to receive various setting operations and the like. For example, the controller 71 accepts a setting operation of a detection target event related to an observation target person. More specifically, the controller 71 generates a setting screen 200 for a detection target event related to the observation target person, displays the setting screen 200 on the display unit 75b, and accepts a user operation using the setting screen 200. Further, the controller 71 transmits the setting contents by the setting operation to the detection device 10, and causes the detection device 10 to execute the registration process (setting process) for registering the detection target event.

また、コントローラ71は、検知装置10から送信されてくる表示用の画像情報(観察画像330(図16および図17参照)(後述)等)に基づき、観察対象人物に関する情報(骨格画像325(後述)等)を表示部75bに表示させる。 Further, the controller 71 is based on the display image information (observation image 330 (see FIGS. 16 and 17) (described later) and the like) transmitted from the detection device 10, and information about the observation target person (skeleton image 325 (described later)). ) Etc.) are displayed on the display unit 75b.

記憶部72は、記憶部32と同様のハードウエア構成を有している。記憶部72(特に不揮発性記憶部)は、管理装置70による設定内容(検知対象事象に関する設定内容等)を記憶する。なお、記憶部72は、検知装置10で取得され検知装置10から転送される3次元位置情報等(観察対象人物に関する複数の特定部位の3次元位置の時系列データ等)を格納(記憶)してもよい。 The storage unit 72 has the same hardware configuration as the storage unit 32. The storage unit 72 (particularly the non-volatile storage unit) stores the setting contents (setting contents and the like related to the event to be detected) by the management device 70. The storage unit 72 stores (stores) three-dimensional position information and the like (time-series data and the like of three-dimensional positions of a plurality of specific parts relating to the observation target person) acquired by the detection device 10 and transferred from the detection device 10. You may.

通信部74は、通信部34と同様のハードウエア構成を有している。通信部74によるネットワーク通信を利用することによって、管理装置70は、所望の相手先(たとえば、各装置10,80)との間で各種のデータを授受することが可能である。 The communication unit 74 has the same hardware configuration as the communication unit 34. By using the network communication by the communication unit 74, the management device 70 can exchange various data with and from a desired destination (for example, the devices 10 and 80).

操作部75は、管理装置70に対する操作入力を受け付ける操作入力部75aと、各種情報の表示出力を行う表示部75bとを備えている。操作入力部75aとしてはマウス、キーボード等が用いられ、表示部75bとしてはディスプレイ(液晶ディスプレイ等)が用いられる。 The operation unit 75 includes an operation input unit 75a for receiving an operation input to the management device 70, and a display unit 75b for displaying and outputting various information. A mouse, keyboard or the like is used as the operation input unit 75a, and a display (liquid crystal display or the like) is used as the display unit 75b.

次に、携帯端末装置80について説明する。 Next, the mobile terminal device 80 will be described.

図4は、携帯端末装置80の概略構成を示す機能ブロック図である。 FIG. 4 is a functional block diagram showing a schematic configuration of the mobile terminal device 80.

携帯端末装置80は、図4の機能ブロック図に示すように、コントローラ81、記憶部82、通信部84、操作部85等を備えており、これらの各部を複合的に動作させることによって、各種の機能を実現する。 As shown in the functional block diagram of FIG. 4, the mobile terminal device 80 includes a controller 81, a storage unit 82, a communication unit 84, an operation unit 85, and the like, and various types can be obtained by operating each of these units in a complex manner. To realize the function of.

コントローラ81、記憶部82、通信部84、操作部85は、コントローラ71、記憶部72、通信部74、操作部75とそれぞれ同様のハードウエア構成を有している。 The controller 81, the storage unit 82, the communication unit 84, and the operation unit 85 each have the same hardware configuration as the controller 71, the storage unit 72, the communication unit 74, and the operation unit 75.

コントローラ(制御部)81は、携帯端末装置80を制御する制御装置(コントローラとも称する)である。 The controller (control unit) 81 is a control device (also referred to as a controller) that controls the mobile terminal device 80.

コントローラ81は、CPUにおいて、記憶部(ROMおよび/またはハードディスクなどの不揮発性記憶部)82内に格納されている所定のソフトウエアプログラムを実行することによって、各種の処理を実現する。なお、当該プログラム(詳細にはプログラムモジュール群)は、USBメモリなどの可搬性の記録媒体に記録され、当該記録媒体から読み出されて携帯端末装置80にインストールされるようにしてもよい。あるいは、当該プログラムは、通信ネットワーク等を経由してダウンロードされて携帯端末装置80にインストールされるようにしてもよい。 The controller 81 realizes various processes by executing a predetermined software program stored in the storage unit (nonvolatile storage unit such as ROM and / or hard disk) 82 in the CPU. The program (specifically, a program module group) may be recorded on a portable recording medium such as a USB memory, read from the recording medium, and installed in the portable terminal device 80. Alternatively, the program may be downloaded via a communication network or the like and installed in the mobile terminal device 80.

コントローラ81は、当該プログラムを実行し、次のような各種の処理を実行する。 The controller 81 executes the program and executes various processes such as the following.

たとえば、コントローラ81は、検知装置10から送信されてくる表示用の画像情報(観察画像330(図16および図17参照)(後述)等)に基づき、観察対象人物に関する情報(骨格画像325(後述)等)を表示部85bに表示させる。 For example, the controller 81 is based on display image information (observation image 330 (see FIGS. 16 and 17) (described later) and the like) transmitted from the detection device 10, and information about an observation target person (skeleton image 325 (described later)). ) Etc.) are displayed on the display unit 85b.

携帯端末装置80は、通信部84によるネットワーク通信を利用することによって、所望の相手先(たとえば、各装置10,70)との間で各種のデータを授受することが可能である。 The mobile terminal device 80 can exchange various data with and from a desired destination (for example, each device 10, 70) by using the network communication by the communication unit 84.

なお、携帯端末装置80においては、タッチパネル87(図1参照)が設けられている。タッチパネル87は、液晶表示パネルに各種センサ等が埋め込まれて構成され、各種情報を表示するとともに操作者(ユーザ)からの各種の操作入力を受け付けることが可能である。当該タッチパネル87は、操作入力部85aの一部としても機能するとともに、表示部85bの一部としても機能する。 The mobile terminal device 80 is provided with a touch panel 87 (see FIG. 1). The touch panel 87 is configured by embedding various sensors and the like in a liquid crystal display panel, and is capable of displaying various information and receiving various operation inputs from an operator (user). The touch panel 87 functions as a part of the operation input unit 85a and also as a part of the display unit 85b.

<4.検知対象事象>
次に、検知対象事象について説明する。
<4. Event to be detected>
Next, the event to be detected will be described.

検知システム1においては、観察対象人物に関する各種の検知対象事象を検知することが可能である。「検知対象事象」は、観察対象人物に関して検知されるべき事象(検知処理の対象となる事象)である。具体的には、「検知対象事象」は、人物の状態と人物の動作との少なくとも一方を含む。 In the detection system 1, it is possible to detect various detection target events related to the observation target person. The "detection target event" is an event (event to be detected) that should be detected with respect to the observation target person. Specifically, the "detection target event" includes at least one of the state of the person and the movement of the person.

「検知対象事象」としては、たとえば、「ベッドからの起き上がり」、「端座位」、「離床」、「床での転倒」、「床での横たわり」、「ベッドからの全身ずり落ち」、「ベッドからの下半身ずり落ち」、「ベッドからの片手伸ばし」、が例示される。図7~図14は、これらの検知対象事象(事象E1~E8)をそれぞれ示す図である。 "Events to be detected" include, for example, "getting up from the bed", "sitting on the edge", "getting out of bed", "falling on the floor", "lying on the floor", "sliding the whole body from the bed", "" Examples include "sliding the lower half of the body from the bed" and "stretching one hand from the bed". 7 to 14 are diagrams showing these detection target events (events E1 to E8), respectively.

事象E1「ベッドからの起き上がり」(図7参照)は、(臥位を有していた)観察対象人物の上半身がベッド上にて起き上がる動作である。当該事象E1は、たとえば、ベッドエリアR1(ベッドが配置されている平面領域)内において観察対象人物の胸の高さ(ベッド上面からの胸の高さ)が30cm以上高くなる、旨の条件が充足されると検出される。 Event E1 "Getting up from bed" (see FIG. 7) is an action in which the upper body of the observation target person (who had a recumbent position) gets up on the bed. The event E1 is, for example, a condition that the chest height (chest height from the upper surface of the bed) of the observation target person is increased by 30 cm or more in the bed area R1 (the plane area where the bed is arranged). Detected when satisfied.

事象E2「端座位」(図8参照)は、ベッド端において観察対象人物が座っている(座位を有している)状態である。「端座位」は、ベッドエリアR1と隣接エリアとの境界付近で生じる事象「境界位」のひとつである。「端座位」は、たとえば、ベッドエリアR1からベッドサイドエリアR2へと観察対象人物の下半身の末端側の部位(足首等)が移動し且つ観察対象人物の他の幾つかの部位(腰等)がベッドエリアR1に残っている旨の条件が充足されると、検出される。なお、「端座位」は、観察対象人物の両足首がベッドエリアR1からベッドサイドエリアR2へと移動する動作と、観察対象人物の腰がベッドエリアR1内に存在する状態との複合事象である、とも表現される。 Event E2 "edge sitting position" (see FIG. 8) is a state in which the observation target person is sitting (having a sitting position) at the bed edge. The "end sitting position" is one of the events "boundary position" that occurs near the boundary between the bed area R1 and the adjacent area. In the "end sitting position", for example, the terminal part (ankle, etc.) of the lower body of the observation target person moves from the bed area R1 to the bedside area R2, and some other parts (waist, etc.) of the observation target person. Is detected when the condition that is left in the bed area R1 is satisfied. The "end sitting position" is a compound event of the movement of both ankles of the observation target person from the bed area R1 to the bedside area R2 and the state in which the waist of the observation target person exists in the bed area R1. , Also expressed.

事象E3「離床」(図9参照)は、観察対象人物がベッドから離れてベッド以外の場所へ移動する動作である。「離床」は、たとえば、ベッドエリアR1からベッドサイドエリアR2へと観察対象人物の全身(全ての特定部位)が移動した旨の条件が充足されると、検出される。 Event E3 "getting out of bed" (see FIG. 9) is an action in which the person to be observed moves away from the bed to a place other than the bed. "Getting out of bed" is detected when, for example, the condition that the whole body (all specific parts) of the observation target person has moved from the bed area R1 to the bedside area R2 is satisfied.

事象E4「床での転倒」(図10参照)は、観察対象人物が床上で転倒する動作である。「床での転倒」は、たとえば、ベッドエリアR1以外の平面エリアにおいて観察対象人物の特定部位(胸等)が所定速度(1m/s等)以上で床面上の所定高さ(50cm等)以下(の空間)に入る、旨の条件が充足されると、検出される。 Event E4 "falling on the floor" (see FIG. 10) is an action in which the person to be observed falls on the floor. "Falling on the floor" means, for example, that a specific part (chest, etc.) of the person to be observed is at a predetermined speed (1 m / s, etc.) or higher in a flat area other than the bed area R1 and a predetermined height (50 cm, etc.) on the floor surface. It is detected when the condition of entering (space) below is satisfied.

なお、事象E1,E2,E3,E4は、この順序で発生することがある。これらの事象E1~E4のうち最も危険な事象E4の発生を防ぐためには、当該事象E4よりも前に発生する事象E1,E2,E3がそれぞれ(順次に)検知されることが好ましい。各事象E1,E2,E3が検知され介護者等に報知されることによって、危険な事象E4の発生を未然に防ぐことが可能である。 The events E1, E2, E3, and E4 may occur in this order. In order to prevent the occurrence of the most dangerous event E4 among these events E1 to E4, it is preferable that the events E1, E2, and E3 that occur before the event E4 are detected (sequentially). By detecting each event E1, E2, E3 and notifying the caregiver or the like, it is possible to prevent the occurrence of the dangerous event E4.

事象E5「床での横たわり」(図11参照)は、観察対象人物が床上で所定期間以上に亘って横たわっている(臥位を有している)状態である。「床での横たわり」は、たとえば、ベッドエリアR1の範囲外において上半身の特定部位(鼻および胸等)が床面から所定高さ(たとえば50cm)以下の空間に所定時間(たとえば5秒)以上留まる、旨の条件が充足されると、検出される。 Event E5 "Lying on the floor" (see FIG. 11) is a state in which the person to be observed is lying on the floor for a predetermined period or longer (having a lying position). "Lying on the floor" means, for example, a space where a specific part of the upper body (nose, chest, etc.) is at a predetermined height (for example, 50 cm) or less from the floor surface outside the range of the bed area R1 for a predetermined time (for example, 5 seconds) or more. It is detected when the condition to stay is satisfied.

事象E6「ベッドからの全身ずり落ち」(図12参照)は、観察対象人物の全身がベッド上からベッドサイドへとずり落ちる動作である。「ベッドからの全身ずり落ち」は、次のような条件が充足されると、検出される。当該条件は、たとえば、ベッドエリアR1からベッドサイドエリアR2へと所定速度(たとえば1m/s)以上で主要な複数の部位(上半身の胸、および下半身の腰等)の位置が所定高さ(たとえば50cm)以下の空間に移動することである。 Event E6 "whole body sliding off the bed" (see FIG. 12) is an action in which the whole body of the observation target person slides down from the bed to the bedside. "Whole body slip from bed" is detected when the following conditions are met. The condition is that, for example, the positions of a plurality of major parts (such as the chest of the upper body and the waist of the lower body) at a predetermined speed (for example, 1 m / s) or more from the bed area R1 to the bedside area R2 are at a predetermined height (for example). It is to move to a space of 50 cm) or less.

事象E7「ベッドからの下半身ずり落ち」(図13参照)は、観察対象人物の下半身がベッド上からベッドサイドへとずり落ちる動作である。「ベッドからの下半身ずり落ち」は、次のような条件が充足されると、検出される。当該条件は、たとえば、ベッドエリアR1からベッドサイドエリアR2へと所定速度(たとえば1m/s)以上で観察対象人物の下半身の末端側の部位(腰等)の位置が所定高さ(たとえば50cm)以下の空間に移動することである。 Event E7 "sliding the lower body from the bed" (see FIG. 13) is an action in which the lower body of the person to be observed slides down from the bed to the bedside. "Lower body slippage from bed" is detected when the following conditions are met. The condition is that, for example, the position of the terminal portion (waist, etc.) of the lower body of the observation target person at a predetermined speed (for example, 1 m / s) or more from the bed area R1 to the bedside area R2 is a predetermined height (for example, 50 cm). It is to move to the following space.

事象E8「ベッドからの片手伸ばし」(図14参照)は、観察対象人物の片手がベッドサイドへと伸びている状態である。「ベッドからの片手伸ばし」は、ベッドエリアと他エリアとの境界付近で生じる事象「境界位」のひとつである。 Event E8 "stretching one hand from the bed" (see FIG. 14) is a state in which one hand of the person to be observed is stretched to the bedside. "One-handed extension from the bed" is one of the events "boundary position" that occurs near the boundary between the bed area and the other area.

「ベッドからの片手伸ばし」は、たとえば、観察対象人物の片手の部位(手首)がベッドエリアR1からベッドサイドエリアR2へと移動し且つ観察対象人物の腰等がベッドエリアR1に残っている旨の条件が充足されると、検出される。なお、「ベッドからの片手伸ばし」は、観察対象人物の片方の手首がベッドエリアR1からベッドサイドエリアR2へと移動する動作と、観察対象人物の腰がベッドエリアR1内に存在する状態との複合事象である、とも表現される。 "Extending one hand from the bed" means that, for example, the part (wrist) of one hand of the person to be observed has moved from the bed area R1 to the bedside area R2, and the waist of the person to be observed remains in the bed area R1. Is detected when the condition of is satisfied. In "extending one hand from the bed", one wrist of the observation target person moves from the bed area R1 to the bedside area R2, and the waist of the observation target person exists in the bed area R1. It is also expressed as a compound event.

事象E8は、危険な事象E5~E7の発生を導きかねない事象であり、これらの事象E5~E7の発生よりも前に検知されることが好ましい。事象E8が検知され介護者等に報知されることによって、危険な事象E5~E7の発生を未然に防ぐことが可能である。 Event E8 is an event that may lead to the occurrence of dangerous events E5 to E7, and is preferably detected before the occurrence of these events E5 to E7. By detecting the event E8 and notifying the caregiver or the like, it is possible to prevent the occurrence of dangerous events E5 to E7.

<5.処理の流れ>
図5は、検知装置10(特に処理ユニット30)における処理の流れを示すフローチャートである。図5を参照しつつ検知システム1での処理について説明する。
<5. Processing flow>
FIG. 5 is a flowchart showing a processing flow in the detection device 10 (particularly the processing unit 30). The processing in the detection system 1 will be described with reference to FIG.

まず、管理装置70は、観察対象人物に関する検知対象事象の設定操作を受け付ける。具体的には、管理装置70は、設定画面200をその表示部75bに表示し、操作ユーザ(管理者等)からの操作入力を受け付ける。管理装置70は、操作ユーザからの当該操作入力に関する設定情報を検知装置10に送信する。検知装置10は、受信した設定情報に基づき「検知対象事象」を設定(登録)する(ステップS1)。管理装置70を用いた設定操作等については後述する。 First, the management device 70 accepts a setting operation of a detection target event related to the observation target person. Specifically, the management device 70 displays the setting screen 200 on the display unit 75b, and receives an operation input from an operation user (administrator or the like). The management device 70 transmits the setting information regarding the operation input from the operation user to the detection device 10. The detection device 10 sets (registers) a "detection target event" based on the received setting information (step S1). The setting operation and the like using the management device 70 will be described later.

その後、観察処理(検知処理等)の開始指示がユーザによって付与されると、検知装置10は、図5に示されるように、ステップS11~S15の処理(検知処理等)を微少時間(たとえば、数十ミリ秒~数百ミリ秒)ごとに繰り返し実行する。具体的には、観察対象人物に関する検知対象事象を検知する検知処理等が実行される。換言すれば、観察対象人物の複数の特定部位に関する時系列の3次元位置の情報等に基づいて、検知対象事象が検知される。 After that, when the user gives an instruction to start the observation process (detection process, etc.), the detection device 10 performs the process (detection process, etc.) in steps S11 to S15 for a very short time (for example, as shown in FIG. 5). Repeat every few tens of milliseconds to hundreds of milliseconds). Specifically, a detection process or the like for detecting a detection target event related to the observation target person is executed. In other words, the event to be detected is detected based on the information of the three-dimensional position in the time series regarding the plurality of specific parts of the person to be observed.

ステップS11において、検知装置10は、観察対象人物に関する深度情報付き撮影画像(110,120)等に基づき、観察対象人物の骨格情報140と観察対象人物の複数の特定部位の3次元位置情報150とを取得する。 In step S11, the detection device 10 obtains the skeleton information 140 of the observation target person and the three-dimensional position information 150 of a plurality of specific parts of the observation target person based on the captured images (110, 120) with depth information regarding the observation target person. To get.

たとえば、上述のように、検知装置10は、カメラユニット20によって取得された深度情報付き撮影画像(特に、観察対象人物に関する撮影画像)(110,120)等に基づいて、観察対象人物の骨格情報140を取得する。また、検知装置10は、観察対象人物の各特定部位の撮影画像内での平面位置情報(2次元位置に関する情報)と当該観察対象人物における各特定部位までの距離情報(奥行き情報)とを取得する。そして、検知装置10は、これらの情報に基づいて、各特定部位の3次元位置情報150(居室空間内での3次元位置情報)を座標変換等によって取得する。 For example, as described above, the detection device 10 has skeleton information of the observation target person based on the captured image with depth information (particularly, the captured image relating to the observation target person) (110, 120) acquired by the camera unit 20. Get 140. Further, the detection device 10 acquires the plane position information (information about the two-dimensional position) in the captured image of each specific part of the observation target person and the distance information (depth information) to each specific part of the observation target person. do. Then, the detection device 10 acquires the three-dimensional position information 150 (three-dimensional position information in the living room space) of each specific portion by coordinate conversion or the like based on these information.

ステップS12において、検知装置10は、モニタリング表示用の画像(観察画像とも称する)を生成する。具体的には、検知装置10は、観察対象人物の撮影画像110から観察対象人物の骨格画像325(図18参照)(後述)を生成するとともに、当該骨格画像325に基づいて観察対象人物に関する観察画像330を生成する。当該観察画像330は、観察対象人物自体の撮影画像を有さず且つ観察対象人物の骨格画像を有する画像である。 In step S12, the detection device 10 generates an image for monitoring display (also referred to as an observation image). Specifically, the detection device 10 generates a skeleton image 325 (see FIG. 18) (described later) of the observation target person from the captured image 110 of the observation target person, and observes the observation target person based on the skeleton image 325. Generate image 330. The observation image 330 is an image that does not have a photographed image of the observation target person itself and has a skeleton image of the observation target person.

そして、検知装置10は当該観察画像330に関する画像データを端末装置70,80(詳細には、モニタリング表示要求(後述)を検知装置10に送出した装置)に送信し、当該観察画像330を当該端末装置70等の表示部に表示させる(ステップS12)。これによれば、観察対象人物の撮影画像自体がそのままモニタリング表示されるのではなく、観察対象人物の観察画像330がモニタリング表示される。したがって、観察対象人物のプライバシーに十分に配慮した表示を実現することが可能である。 Then, the detection device 10 transmits image data related to the observation image 330 to the terminal devices 70 and 80 (specifically, a device that sends a monitoring display request (described later) to the detection device 10), and the observation image 330 is transmitted to the terminal. It is displayed on the display unit of the device 70 or the like (step S12). According to this, the observed image 330 of the observation target person is not monitored and displayed as it is, but the observation image 330 of the observation target person is monitored and displayed. Therefore, it is possible to realize a display that gives due consideration to the privacy of the person to be observed.

また、ステップS12においては、時系列の観察画像330がログ画像(記録用画像)として記憶部32内に記憶される。 Further, in step S12, the time-series observation image 330 is stored in the storage unit 32 as a log image (recording image).

ステップS13においては、検知装置10は、観察対象人物の複数の特定部位の3次元位置情報に基づき、複数の検知対象事象(たとえば、事象E1~E8)の検知処理をそれぞれ実行する。検知装置10は、管理装置70等にて受け付けられた設定操作による設定内容(ステップS1で設定された内容)に基づいて各検知対象事象を検知する。 In step S13, the detection device 10 executes detection processing of a plurality of detection target events (for example, events E1 to E8) based on three-dimensional position information of a plurality of specific parts of the observation target person. The detection device 10 detects each detection target event based on the setting content (content set in step S1) by the setting operation received by the management device 70 or the like.

ステップS14においては、いずれかの検知対象事象が検知されたか否かが判定される。 In step S14, it is determined whether or not any of the detection target events has been detected.

いずれの検知対象事象も検知されない場合には、ステップS11に戻る。 If none of the detection target events is detected, the process returns to step S11.

一方、いずれかの検知対象事象が検知された場合には、ステップS15に進む。ステップS15では、検知結果に応じた処理(発報処理等)が行われる。たとえば、事象E4「床での転倒」が検知されると、「警告」が端末装置70,80等に対して発報される。たとえば、各端末装置70,80にて警告音が出力されるとともに、その表示部75b,85bにて「101号室で転倒!」などの文字を含む警告画面が表示される。これにより、介護者等は、事象E4「床での転倒」の発生を知得することが可能である。 On the other hand, if any of the detection target events is detected, the process proceeds to step S15. In step S15, processing (reporting processing, etc.) according to the detection result is performed. For example, when the event E4 "fall on the floor" is detected, a "warning" is issued to the terminal devices 70, 80 and the like. For example, warning sounds are output from the terminal devices 70 and 80, and warning screens including characters such as "Tumble in room 101!" Are displayed on the display units 75b and 85b. This allows the caregiver or the like to be aware of the occurrence of event E4 "fall on the floor".

<6.設定操作等>
図30は,管理装置70の処理(検知対象事象に関する設定操作の受付処理等)を示すフローチャートである。なお、検知装置10におけるステップS1(図5)の処理は、管理装置70における図30の処理に応じて行われる。
<6. Setting operation, etc.>
FIG. 30 is a flowchart showing a process of the management device 70 (a process of accepting a setting operation related to a detection target event, etc.). The process of step S1 (FIG. 5) in the detection device 10 is performed in accordance with the process of FIG. 30 in the management device 70.

ステップS31において、管理装置70は、操作ユーザ(管理者等)の所定の操作に応じて、設定画面200(図19参照)を表示部75bに表示する。設定画面(登録画面とも称する)200は、観察対象人物に関する検知対象事象を設定(登録)するための画面である。そして、管理装置70は、設定画面200を用いて、観察対象人物に関する検知対象事象の設定操作を受け付ける。 In step S31, the management device 70 displays the setting screen 200 (see FIG. 19) on the display unit 75b in response to a predetermined operation of the operating user (administrator or the like). The setting screen (also referred to as a registration screen) 200 is a screen for setting (registering) a detection target event related to the observation target person. Then, the management device 70 accepts the setting operation of the detection target event regarding the observation target person by using the setting screen 200.

次に、ステップS32において、管理装置70は、ステップS31にて受け付けられた設定操作に基づく設定情報を検知装置10(処理ユニット30)に送信する。検知装置10は、管理装置70から受信した設定情報に基づき、検知対象事象を設定(登録)する(図5のステップS1参照)。換言すれば、検知対象事象がユーザの要求に応じてカスタマイズされて登録される。なお、管理装置70から検知装置10へと送信される設定情報は、管理装置70で受け付けられた情報そのものであってもよく、管理装置70で加工された情報であってもよい。 Next, in step S32, the management device 70 transmits the setting information based on the setting operation received in step S31 to the detection device 10 (processing unit 30). The detection device 10 sets (registers) a detection target event based on the setting information received from the management device 70 (see step S1 in FIG. 5). In other words, the event to be detected is customized and registered according to the user's request. The setting information transmitted from the management device 70 to the detection device 10 may be the information itself received by the management device 70 or the information processed by the management device 70.

このような処理において、或る検知対象事象は、観察対象人物における特定部位の3次元位置(平面位置(特に平面エリアR1,R2(後述)等)および/または高さ等)に関する条件を充足する事象として設定される。特に、或る検知対象事象は、観察対象人物の特定部位と観察対象人物以外の所定の物体(ベッド等)との位置関係に関する条件を充足する事象として設定される。 In such processing, a certain detection target event satisfies the condition regarding the three-dimensional position (particularly the plane position (particularly the plane areas R1, R2 (described later) and / or the height)) of the specific part in the observation target person. Set as an event. In particular, a certain detection target event is set as an event that satisfies the condition regarding the positional relationship between the specific part of the observation target person and a predetermined object (bed or the like) other than the observation target person.

また、或る検知対象事象は、観察対象人物における特定部位の3次元位置の変化(平面位置の移動(特に平面エリア間の移動)、および/または高さの変動等)に関する条件を充足する事象として設定される。また、或る検知対象事象は、観察対象人物における特定部位の3次元位置の変化速度(移動速度等)に関する条件を充足する事象として設定される。 In addition, a certain detection target event is an event that satisfies the conditions related to the change in the three-dimensional position of a specific part in the observation target person (movement of the plane position (particularly movement between plane areas) and / or height change, etc.). Is set as. Further, a certain detection target event is set as an event that satisfies the condition regarding the change speed (movement speed, etc.) of the three-dimensional position of the specific part in the observation target person.

また、各検知対象事象は、「3次元位置」と「3次元位置の変化」と「3次元位置の変化速度」との任意の組合せに関する条件を充足する事象として設定されてもよい。 Further, each detection target event may be set as an event that satisfies the conditions relating to any combination of the "three-dimensional position", the "change in the three-dimensional position", and the "change speed of the three-dimensional position".

以下では、設定画面200を用いた設定操作(ステップS31)について説明する。 Hereinafter, the setting operation (step S31) using the setting screen 200 will be described.

図19は、設定画面200を示す図である。 FIG. 19 is a diagram showing a setting screen 200.

設定画面200は、部屋指定領域201と人物情報登録ボタン202とエリア設定領域210と骨格情報表示領域220とルール指定領域230とルール編集領域240と発報レベル指定領域280と登録ボタン291とキャンセルボタン292とを備えている。 The setting screen 200 has a room designation area 201, a person information registration button 202, an area setting area 210, a skeleton information display area 220, a rule designation area 230, a rule editing area 240, an alarm level designation area 280, a registration button 291 and a cancel button. It is equipped with 292.

部屋指定領域201は、設定対象の部屋(居室)を指定する領域である。操作ユーザは、ドロップダウンリストに表示される複数の部屋(「101号室」、「102号室」、「103号室」...)の中から所望の部屋(たとえば、「101号室」)を指定することが可能である。そして、操作ユーザは、指定した部屋に関する1又は複数の検知対象事象を設定することが可能である。 The room designation area 201 is an area for designating a room (living room) to be set. The operation user specifies a desired room (for example, "Room 101") from a plurality of rooms ("Room 101", "Room 102", "Room 103" ...) displayed in the drop-down list. It is possible. Then, the operating user can set one or a plurality of detection target events related to the designated room.

人物情報登録ボタン202は、部屋に居住する人物(観察対象人物)の情報を登録するためのボタンである。当該人物情報登録ボタン202が押下されると、部屋ごとの観察対象人物の情報登録用画面(不図示)がポップアップ表示される。当該情報登録用画面を用いること等によって、観察対象人物の情報(たとえば、身長情報等)を設定する設定操作が受け付けられる。 The person information registration button 202 is a button for registering information on a person (person to be observed) who lives in the room. When the person information registration button 202 is pressed, an information registration screen (not shown) of the person to be observed for each room is displayed in a pop-up. By using the information registration screen or the like, a setting operation for setting information (for example, height information) of the person to be observed is accepted.

エリア設定領域210は、エリア追加ボタン211とエリア削除ボタン212とエリア選択領域213とカメラ映像表示領域215とを備えている。 The area setting area 210 includes an area addition button 211, an area deletion button 212, an area selection area 213, and a camera image display area 215.

ここにおいて、部屋内(詳細には、その検知可能空間内)の平面位置(詳細には、その一部または全部)は、エリア設定領域210を用いた設定操作によって、複数のエリア(平面エリア)R1,R2,...に区分される。後述するように、観察対象人物の各特定部位の3次元位置のうち平面位置に関する条件は、複数のエリアのうちの所望のエリアを指定することによって設定される。 Here, the plane position (specifically, a part or all of the plane position) in the room (specifically, in the detectable space thereof) is a plurality of areas (planar area) by the setting operation using the area setting area 210. It is divided into R1, R2, .... As will be described later, the condition regarding the plane position among the three-dimensional positions of each specific part of the observation target person is set by designating a desired area among a plurality of areas.

カメラ映像表示領域215は、カメラユニット20による検知対象空間に関する撮影画像をエリア指定用画像として表示する領域である。たとえば、被介護者が存在しない状況での撮影画像が表示される。なお、これに限定されず、当該撮影画像を加工した模式的な図形画像等がエリア指定用画像として表示されてもよい。 The camera image display area 215 is an area for displaying an image captured by the camera unit 20 regarding the detection target space as an area designation image. For example, a captured image is displayed in a situation where the care recipient does not exist. In addition, the present invention is not limited to this, and a schematic graphic image or the like obtained by processing the captured image may be displayed as an area designation image.

エリア追加ボタン211は、エリアを追加するためのボタンであり、エリア削除ボタン212は、エリアを削除するためのボタンである。また、エリア選択領域213は、生成された1又は複数のエリアのエリア名称(「R1」,「R2」等)が表示される領域である。操作ユーザは、エリア選択領域213に表示されたエリアの中から、編集対象のエリアを選択することができる。 The area addition button 211 is a button for adding an area, and the area deletion button 212 is a button for deleting an area. Further, the area selection area 213 is an area in which the area names (“R1”, “R2”, etc.) of the generated one or a plurality of areas are displayed. The operation user can select the area to be edited from the areas displayed in the area selection area 213.

たとえば、エリア追加ボタン211を最初に押下すると、新たな名称「R1」がエリア選択領域213に追加されるとともに、カメラ映像表示領域215内にエリアR1を示すハッチング領域が表示される。当該ハッチング領域は、カメラ映像(撮影画像)に重畳して表示される。操作ユーザは、当該ハッチング領域の位置および大きさ等をマウス操作等によって適宜に整形することによって、エリアR1の位置および大きさを設定することが可能である。 For example, when the area addition button 211 is first pressed, a new name "R1" is added to the area selection area 213, and a hatch area indicating the area R1 is displayed in the camera image display area 215. The hatched area is superimposed and displayed on the camera image (captured image). The operating user can set the position and size of the area R1 by appropriately shaping the position and size of the hatched area by operating the mouse or the like.

各エリアの床面からの高さ(エリア内において一定値)は、エリアごとに設定される。各エリアの高さは、詳細には、ハッチング領域の重心(中心)位置に対応する物体の3次元位置の高さに自動的に設定される。たとえば、ベッド上に配置されたエリアR1の高さは、ベッド上面の高さ(計測値)(床面から50cm等)に自動的に設定される。ただし、これに限定されず、エリアR1の高さは、操作ユーザによって指定されてもよい。 The height from the floor of each area (a constant value within the area) is set for each area. In detail, the height of each area is automatically set to the height of the three-dimensional position of the object corresponding to the position of the center of gravity (center) of the hatching region. For example, the height of the area R1 arranged on the bed is automatically set to the height (measured value) of the upper surface of the bed (50 cm from the floor surface, etc.). However, the height of the area R1 is not limited to this, and may be specified by the operating user.

また、各エリアの境界位置(平面位置)は、部屋内に固定された3次元空間内の座標系Σ2での座標位置に自動的に変換されて登録される。たとえば、エリアR1は、床面に平行な水平平面内における矩形領域(2点(0,100)および(80,280)を対角頂点(対頂点)とする矩形領域)として登録される。 Further, the boundary position (planar position) of each area is automatically converted and registered to the coordinate position in the coordinate system Σ2 in the three-dimensional space fixed in the room. For example, the area R1 is registered as a rectangular area (a rectangular area having two points (0,100) and (80,280) as diagonal vertices (counter-vertices)) in a horizontal plane parallel to the floor surface.

なお、これに限定されず、矩形領域を有する各エリアの対角頂点(2点)の座標値が操作ユーザによって入力され、各エリアの位置および大きさ等が指定されてもよい。たとえば、部屋に固定された3次元座標系Σ2における当該2点の座標値(0,100,50)および(80,280,50)が入力されればよい。なお、Z座標値(「50」)は、指定されてもよく、指定されなくてもよい。 In addition, the present invention is not limited to this, and the coordinate values of the diagonal vertices (two points) of each area having a rectangular area may be input by the operation user, and the position and size of each area may be specified. For example, the coordinate values (0,100,50) and (80,280,50) of the two points in the three-dimensional coordinate system Σ2 fixed to the room may be input. The Z coordinate value (“50”) may or may not be specified.

骨格情報表示領域220は、人物(人間)の骨格情報を示す画像を表示する領域である。人物の骨格情報には、人物の複数の特定部位(胸、腰、肩、肘、手首、膝、足首等)の情報が含まれる。骨格情報表示領域220には、人間の各特定部位がその指定番号とともに示されている。具体的には、「鼻」、「胸」、「右肩」、「右肘」、「右手首」、「左肩」、「左肘」、「左手首」の各部位が、それぞれの部位番号「B0」~「B7」とともに示されている。また、「右腰」、「右膝」、「右足首」、「左腰」、「左膝」、「左足首」の各部位が、それぞれの部位番号「B8」~「B13」とともに示されている。また、「右目」、「左目」、「右耳」、「左耳」の各部位が、それぞれの部位番号「B14」~「B17」とともに示されている。 The skeleton information display area 220 is an area for displaying an image showing skeleton information of a person (human). The skeletal information of a person includes information on a plurality of specific parts of the person (chest, waist, shoulders, elbows, wrists, knees, ankles, etc.). In the skeleton information display area 220, each specific part of a human being is shown together with a designated number thereof. Specifically, each part of "nose", "chest", "right shoulder", "right elbow", "right wrist", "left shoulder", "left elbow", and "left wrist" is the respective part number. It is shown together with "B0" to "B7". In addition, each part of "right hip", "right knee", "right ankle", "left hip", "left knee", and "left ankle" is shown together with the respective part numbers "B8" to "B13". ing. Further, each part of the "right eye", "left eye", "right ear", and "left ear" is shown together with the respective part numbers "B14" to "B17".

このような骨格情報(部位情報)は、後述するようなルール作成(検知対象事象の検知ルールの作成)に際して、所望の部位を指定番号(数字および/または文字等を含む)で指定する操作等に利用される。操作ユーザは、当該骨格情報表示領域220内の画像(骨格情報を示す画像)を参照しつつ、複数の特定部位のうちの所望の特定部位を指定することが可能である。なお、骨格情報表示領域220内の画像は、人物に関する複数の特定部位を指定するための画像(複数の特定部位を一覧表示する画像)であり、「部位指定用画像」(あるいは「部位一覧表示画像」)とも称される。 Such skeleton information (part information) is an operation of designating a desired part with a designated number (including numbers and / or characters) when creating a rule (creating a detection rule for a detection target event) as described later. Used for. The operation user can specify a desired specific part among a plurality of specific parts while referring to an image (an image showing the skeleton information) in the skeleton information display area 220. The image in the skeleton information display area 220 is an image for designating a plurality of specific parts related to a person (an image displaying a list of a plurality of specific parts), and is an "image for specifying a part" (or a "part list display"). Also called "image").

たとえば、各特定部位に対応する指定番号(部位指定用画像内の対応部位に関連付けられて示されている指定番号)(「B1」等)によって所望の特定部位が指定される。なお、これに限定されず、部位指定用画像の各特定部位の表示部分(B1に対応する点部分等)をマウスでクリック(あるいは画面上でタッチ)することによって、当該表示部分に対応する特定部位(所望の特定部位)が指定されるようにしてもよい。 For example, a desired specific part is designated by a designated number corresponding to each specific part (designated number associated with the corresponding part in the part designation image) (“B1” or the like). Not limited to this, by clicking (or touching on the screen) the display part (point part corresponding to B1) of each specific part of the image for specifying the part with the mouse, the specific part corresponding to the display part can be specified. A site (desired specific site) may be designated.

ルール指定領域230は、ルール追加ボタン231とルール削除ボタン232とルール選択領域233とを備える。 The rule designation area 230 includes a rule addition button 231, a rule deletion button 232, and a rule selection area 233.

ルール追加ボタン231は、検知対象事象の検知ルール(検知対象事象の検知条件とも称される)を追加するためのボタンであり、ルール削除ボタン232は、検知ルールを削除するためのボタンである。また、ルール選択領域233は、生成された1又は複数のルールの名称を選択肢として表示する領域である。ルール選択領域233は、(複数のルールの中から)所望のルールを編集対象のルールとして選択するための領域である。ルール選択領域233にて選択されたルールの内容が、ルール編集領域240にて詳細に規定(設定)される。なお、ルール追加ボタン231が押下されたときには、図19のように「新規ルール」がルール選択領域233内の選択肢として追加表示される。 The rule addition button 231 is a button for adding a detection rule for a detection target event (also referred to as a detection condition for the detection target event), and the rule deletion button 232 is a button for deleting the detection rule. Further, the rule selection area 233 is an area for displaying the names of one or a plurality of generated rules as options. The rule selection area 233 is an area for selecting a desired rule (from a plurality of rules) as a rule to be edited. The content of the rule selected in the rule selection area 233 is defined (set) in detail in the rule editing area 240. When the rule addition button 231 is pressed, the "new rule" is additionally displayed as an option in the rule selection area 233 as shown in FIG.

ルール編集領域240は、編集対象ルールの詳細内容を編集する領域である。ルール編集領域240内の各種の入力欄に適宜の内容を入力することによって、当該ルール(編集対象の検知ルール(検知条件))が指定(規定)される。 The rule editing area 240 is an area for editing the detailed contents of the rule to be edited. The rule (detection rule (detection condition) to be edited) is designated (defined) by inputting appropriate contents in various input fields in the rule editing area 240.

ルール編集領域240は、ルール名称入力欄241と詳細条件指定欄250とを備えている。 The rule editing area 240 includes a rule name input field 241 and a detailed condition designation field 250.

ルール名称入力欄241には、任意のルール名称が入力される。「ルール名称」は、検知対象事象の名称であるとも表現される。なお、ルール名称入力欄241に入力された名称(たとえば、「起き上がり(ベッド上)」)がルール名称として決定されるとともに、当該名称がルール選択領域233における選択肢として表示される(図20参照)。 An arbitrary rule name is input in the rule name input field 241. The "rule name" is also expressed as the name of the event to be detected. The name entered in the rule name input field 241 (for example, "getting up (on the bed)") is determined as the rule name, and the name is displayed as an option in the rule selection area 233 (see FIG. 20). ..

詳細条件指定欄250は、部位指定欄251と動作等指定欄252とを備えている。 The detailed condition designation column 250 includes a part designation column 251 and an operation or the like designation column 252.

部位指定欄251は、注目すべき特定部位を指定する入力欄である。操作ユーザは、部位指定欄251内の1つ目のドロップダウンリストの複数の選択肢(B0~B17等)の中から所望の選択肢(たとえば、「B1」)を指定することができる。すなわち、操作ユーザは、複数の特定部位のうち所望の特定部位を指定することが可能である。たとえば、操作ユーザが「胸」を特定部位として指定したい場合には、骨格情報表示領域220内の表示内容を参照して、「胸」に対応する指定番号B1を指定すればよい。 The site designation field 251 is an input field for designating a specific site to be noted. The operation user can specify a desired option (for example, "B1") from a plurality of options (B0 to B17, etc.) in the first drop-down list in the site designation field 251. That is, the operating user can specify a desired specific part among a plurality of specific parts. For example, when the operating user wants to specify the "chest" as a specific part, the designated number B1 corresponding to the "chest" may be specified by referring to the display content in the skeleton information display area 220.

また、操作ユーザは、部位指定欄251内の「部位追加」ボタンを押下することによって、2以上の特定部位を指定することが可能である。たとえば、当該部位追加ボタンの押下に応じて、2つ目の部位指定用のドロップダウンリストとAND/OR条件指定用のドロップダウンリストとが追加表示される(図21参照)。そして、操作ユーザは、2つ目の部位指定用のドロップダウンリストにて2つ目の特定部位を指定するとともに、AND/OR条件指定用のドロップダウンリストにて当該2以上の特定部位の相互間の関係(AND条件/OR条件)を指定することが可能である。さらに3つ目以降の特定部位も同様にして指定され得る。 Further, the operating user can specify two or more specific parts by pressing the "Add part" button in the part designation field 251. For example, the drop-down list for specifying the second part and the drop-down list for specifying the AND / OR condition are additionally displayed in response to the pressing of the part addition button (see FIG. 21). Then, the operation user specifies the second specific part in the drop-down list for specifying the second part, and the operation user mutually of the two or more specific parts in the drop-down list for specifying the AND / OR condition. It is possible to specify the relationship between (AND condition / OR condition). Further, the third and subsequent specific parts can be specified in the same manner.

動作等指定欄252は、部位指定欄251で指定された特定部位の動作あるいは状態等を指定する入力欄である。たとえば、動作等指定欄252内のドロップダウンリストには、「移動する」、「留まる」などの複数の選択肢が表示される。操作ユーザは、当該複数の選択肢の中から所望の選択肢を指定することが可能である。 The operation or the like designation field 252 is an input field for designating the operation or state of the specific part designated by the part designation field 251. For example, in the drop-down list in the operation designation field 252, a plurality of options such as "move" and "stay" are displayed. The operating user can specify a desired option from the plurality of options.

また、詳細条件指定欄250は、エリア指定欄253と高さ指定欄254と速度指定欄255と期間指定欄256とをさらに備えている。 Further, the detailed condition designation column 250 further includes an area designation column 253, a height designation column 254, a speed designation column 255, and a period designation column 256.

操作ユーザは、これらの指定欄253~256のうちの所望の指定欄において、その先頭のチェックボックスにチェック印を付するとともに当該所望の指定欄の詳細内容を指定することができる。なお、チェック印が付されていないチェックボックスの指定欄の内容は、無効化される。 The operating user can put a check mark in the check box at the head of the desired designated field among these designated fields 253 to 256 and specify the detailed contents of the desired designated field. The contents of the designated fields of the check boxes that are not marked with a check mark are invalidated.

エリア指定欄253は、特定部位の動作あるいは状態に関する検知エリア(平面位置)を指定する入力欄である。操作ユーザは、1つ目のエリア指定用ドロップダウンリストにてエリア(たとえば「R1」)を指定するとともに、当該エリアに関する付随条件指定用ドロップダウンリストにて付随条件(たとえば「内にて」)を指定することができる(図20参照)。当該付随条件としては、「内にて」、「外にて」、「内へと」、「外へと」、「から(FROM)」などの複数の選択肢が存在する。 The area designation field 253 is an input field for designating a detection area (planar position) related to the operation or state of a specific part. The operation user specifies an area (for example, "R1") in the first drop-down list for specifying an area, and ancillary conditions (for example, "inside") in the drop-down list for specifying ancillary conditions related to the area. Can be specified (see FIG. 20). As the incidental condition, there are a plurality of options such as "inside", "outside", "inside", "outside", and "from (FROM)".

また、この付随条件指定用ドロップダウンリストにて「から(FROM)」が指定された場合には、2つ目のエリア指定用ドロップダウンリストと当該エリアに関する付随条件指定用ドロップダウンリストとが追加表示される(図21参照)。この付随条件指定用ドロップダウンリストには、「へと(TO)」などの選択肢が設けられる。これにより、特定部位が「エリアR1からエリアR2へと」移動すること等を指定することも可能である。 If "kara (FROM)" is specified in this drop-down list for specifying ancillary conditions, a second drop-down list for specifying an area and a drop-down list for specifying ancillary conditions related to the area are added. It is displayed (see FIG. 21). In this drop-down list for specifying incidental conditions, options such as "heto (TO)" are provided. Thereby, it is also possible to specify that the specific portion moves “from the area R1 to the area R2” and the like.

高さ指定欄254は、特定部位の動作あるいは状態に関する高さを指定する入力欄である。高さ指定欄25内の最初のドロップダウンリストには、高さの基準を示す選択肢(「現在地」、「床面」等)が存在する。さらに、高さ指定欄25内の他の入力欄にて、「30cm以上」(より具体的には、「30」cm「以上」)等を指定することが可能である。なお、数値は任意の数値を指定することが可能であるとともに、当該数値「以上」ではなく当該数値「以下」等を指定することも可能である。他の欄も同様である。 The height designation field 254 is an input field for designating a height related to the movement or state of a specific part. In the first drop-down list in the height designation field 25, there are options (“current location”, “floor surface”, etc.) indicating the height standard. Further, it is possible to specify "30 cm or more" (more specifically, "30" cm "or more") or the like in another input field in the height designation field 25. In addition, it is possible to specify an arbitrary numerical value as the numerical value, and it is also possible to specify the numerical value "or less" instead of the numerical value "greater than or equal to". The same applies to the other columns.

また、ここでは、高さ指定欄254において、或る状態での高さあるいは移動後の高さが指定されているが、これに限定されず、たとえば移動前(状態遷移前)の高さと移動後(状態遷移後)の高さとが指定されてもよい。 Further, here, in the height designation column 254, the height in a certain state or the height after the movement is specified, but the height is not limited to this, and for example, the height before the movement (before the state transition) and the movement. The height after (after the state transition) may be specified.

速度指定欄255は、特定部位の動作に関する速度を指定する入力欄である。具体的には、特定部位の移動速度が「1」m/s「以上」であることなどを指定することが可能である(図24参照)。 The speed designation field 255 is an input field for designating the speed related to the operation of the specific portion. Specifically, it is possible to specify that the moving speed of the specific part is "1" m / s "or more" (see FIG. 24).

期間指定欄256は、特定部位の状態(あるいは動作)に関する期間を指定する入力欄である。具体的には、状態の継続時間(あるいは動作の継続時間)が所定長さ以上であること等を指定することが可能である(図25参照)。 The period designation field 256 is an input field for designating a period related to the state (or operation) of a specific part. Specifically, it is possible to specify that the duration of the state (or the duration of the operation) is equal to or longer than a predetermined length (see FIG. 25).

操作ユーザは、このような詳細条件指定欄250を用いることによって、検知対象事象を設定することが可能である。 The operating user can set the detection target event by using such a detailed condition designation field 250.

たとえば、「起き上がり(ベッド上)」の名称を有する検知対象事象として、図20に示すような事象が設定され得る。図20では、「エリアR1内にて部位B1(胸)が現在地(現在高さ)からの高さが30cm以上になるように移動する」との条件を充足する事象が設定(規定ないし定義とも表現される)されている。 For example, an event as shown in FIG. 20 can be set as a detection target event having the name of “getting up (on the bed)”. In FIG. 20, an event that satisfies the condition that "the part B1 (chest) moves within the area R1 so that the height from the current location (current height) is 30 cm or more" is set (both specified and defined). Is expressed).

さらに、ルール編集領域240内の条件追加ボタン242を押下することによって、2以上の条件からなる複雑な条件を規定することも可能である(図21および図22等参照)。たとえば、図21の詳細条件指定欄250にて第1条件を指定した後に条件追加ボタン242が押下されると、第2条件を指定するための詳細条件指定欄260(図22参照)が表示される。詳細条件指定欄260は、詳細条件指定欄250と同様の構成を有している。また、図22においては、ボタン243とドロップダウンリスト244とが(ルール名称入力欄241に代えて)設けられている。ドロップダウンリスト244には、第1条件と第2条件との関係(AND/OR等)が入力される。また、ボタン243の押下に応じて、第1条件に関する詳細条件指定欄250が再び表示される。 Further, by pressing the condition addition button 242 in the rule editing area 240, it is possible to specify a complicated condition consisting of two or more conditions (see FIGS. 21 and 22). For example, when the condition addition button 242 is pressed after the first condition is specified in the detailed condition specification field 250 of FIG. 21, the detailed condition specification field 260 (see FIG. 22) for designating the second condition is displayed. To. The detailed condition designation column 260 has the same configuration as the detailed condition designation column 250. Further, in FIG. 22, a button 243 and a drop-down list 244 are provided (instead of the rule name input field 241). The relationship between the first condition and the second condition (AND / OR, etc.) is input to the drop-down list 244. Further, in response to the pressing of the button 243, the detailed condition designation field 250 relating to the first condition is displayed again.

発報レベル指定領域280は、複数の発報レベル(「警告」、「注意」、「日常動作」)を指定する領域である。操作ユーザは、発報レベル指定領域280内のドロップダウンリストから所望の選択肢(たとえば、「警告」)を選択することによって、複数の発報レベルの中から所望のレベルを指定することができる。たとえば、「起き上がり(ベッド上)」の検知対象事象に対しては「日常動作」が指定され、「端座位(ベッド)」の検知対象事象に対しては「注意」が指定される。また、「転倒(床上)」の検知対象事象に対しては「警告」が指定される。これによれば、検知対象事象ごとに発報レベルを指定(変更)することが可能である。特に、現場のニーズ等に即して、各検知対象事象に対する発報レベルを施設ごとに(あるいは部屋ごとに)変更することも可能である。 The alert level designation area 280 is an area for designating a plurality of alert levels (“warning”, “caution”, “daily operation”). The operating user can specify a desired level from a plurality of alert levels by selecting a desired option (eg, "warning") from the drop-down list in the alert level designation area 280. For example, "daily movement" is specified for the detection target event of "getting up (on the bed)", and "caution" is specified for the detection target event of "end sitting position (bed)". In addition, a "warning" is specified for the event to be detected of "falling (on the floor)". According to this, it is possible to specify (change) the alarm level for each event to be detected. In particular, it is possible to change the alarm level for each detection target event for each facility (or for each room) according to the needs of the site.

登録ボタン291は、ルール編集領域240、詳細条件指定欄250および発報レベル指定領域280等を用いて編集した内容を登録(確定)するためのボタンである。登録ボタン291の押下に応じて編集内容が確定される。 The registration button 291 is a button for registering (confirming) the content edited by using the rule editing area 240, the detailed condition designation field 250, the alarm level designation area 280, and the like. The edited content is confirmed by pressing the registration button 291.

キャンセルボタン292は、編集内容を破棄するためのボタンである。キャンセルボタン292の押下に応じて編集内容は破棄され、編集開始前の設定内容に戻る。 The cancel button 292 is a button for discarding the edited content. When the cancel button 292 is pressed, the edited content is discarded and the setting content before the start of editing is restored.

このような設定画面200を用いることによって、上記事象E1~E8等が設定され得る。 By using such a setting screen 200, the above-mentioned events E1 to E8 and the like can be set.

図20は、検知対象事象E1「起き上がり(ベッド上)」の設定画面を示す図である。図20の設定画面200では、ベッドエリアR1(ベッドが配置されている平面領域)内において観察対象人物の胸(部位B1)の高さ(現在地からの高さ)が30cm以上になる、との条件が規定されている。当該条件が充足されると、事象E1(観察対象人物の上半身がベッド上にて起き上がる動作)(図7参照)が検知される。 FIG. 20 is a diagram showing a setting screen of the event to be detected E1 “getting up (on the bed)”. In the setting screen 200 of FIG. 20, the height (height from the current location) of the chest (site B1) of the person to be observed is 30 cm or more in the bed area R1 (the plane area where the bed is arranged). The conditions are stipulated. When the condition is satisfied, event E1 (movement of the upper body of the observation target person rising on the bed) (see FIG. 7) is detected.

図20の検知対象事象E1は、観察対象人物における特定部位B1の3次元位置(平面エリアR1および/または高さ)に関する条件を充足する事象として規定されている。特に、検知対象事象E1は、観察対象人物の特定部位B1と観察対象人物以外の所定の物体(ここではベッド)との位置関係に関する条件(「特定部位B1がベッドエリアR1内」に存在すること)を充足する事象として規定されている。また、検知対象事象E1は、観察対象人物における特定部位の3次元位置の変化(高さの変化)に関する条件をも充足する事象として規定されている。 The detection target event E1 in FIG. 20 is defined as an event that satisfies the condition regarding the three-dimensional position (plane area R1 and / or height) of the specific portion B1 in the observation target person. In particular, the detection target event E1 is a condition relating to the positional relationship between the specific portion B1 of the observation target person and a predetermined object (here, the bed) other than the observation target person (“the specific portion B1 is in the bed area R1”). ) Is specified as an event that satisfies. Further, the detection target event E1 is defined as an event that also satisfies the condition regarding the change in the three-dimensional position (change in height) of the specific portion in the observation target person.

図21および図22は、検知対象事象E2「端座位(ベッド)」の設定画面を示す図である。図21では、「観察対象人物の足首(部位B10および部位B13)がベッドエリアR1からベッドサイドエリアR2へと移動する」旨の条件(第1条件)が既定されている。また、図22では、「観察対象人物の腰(部位B8および部位B11)がベッドエリアR1内に留まっている」旨の条件(第2条件)が規定されている。さらに、ドロップダウンリスト244にて(前頁条件(図21の第1条件)との)「AND」が指定されている。すなわち、第1条件と第2条件との論理積(AND)の条件が充足されることも規定されている。 21 and 22 are diagrams showing a setting screen of the event to be detected E2 “end sitting position (bed)”. In FIG. 21, the condition (first condition) that "the ankles (sites B10 and B13) of the observation target person move from the bed area R1 to the bedside area R2" is defined. Further, in FIG. 22, a condition (second condition) to the effect that "the waist (site B8 and site B11) of the observation target person remains in the bed area R1" is defined. Further, "AND" (with the condition on the previous page (first condition in FIG. 21)) is specified in the drop-down list 244. That is, it is also stipulated that the condition of the logical product (AND) of the first condition and the second condition is satisfied.

このように、観察対象人物の足首(部位B10および部位B13)がベッドエリアR1からベッドサイドエリアR2へと移動し且つ観察対象人物の腰(部位B8および部位B11)がベッドエリアR1内に留まっている旨の条件が規定されている。当該条件が充足されると、事象E2(ベッド端において観察対象人物が座っている状態)(図8参照)が検知される。 In this way, the ankles (sites B10 and B13) of the observer move from the bed area R1 to the bedside area R2, and the waists (sites B8 and B11) of the observer remain in the bed area R1. The conditions to the effect are stipulated. When the condition is satisfied, event E2 (a state in which the person to be observed is sitting at the edge of the bed) (see FIG. 8) is detected.

図21および図22の検知対象事象E2は、観察対象人物における特定部位B10,B13(右足首および左足首)の3次元位置の変化(平面エリアR1から平面エリアR2へと移動すること)に関する条件を充足する事象として規定されている。特に、検知対象事象E2は、観察対象人物の特定部位B10,B13とベッドとの位置関係の変化に関する条件を充足する事象として規定されている。詳細には、当該条件は、「特定部位B10,B13がベッドエリアR1内からベッドエリアR1外のベッドサイドエリアR2へと移動すること」である。 The detection target event E2 in FIGS. 21 and 22 is a condition relating to a change in the three-dimensional position (moving from the plane area R1 to the plane area R2) of the specific parts B10 and B13 (right ankle and left ankle) in the observation target person. Is defined as an event that satisfies. In particular, the detection target event E2 is defined as an event that satisfies the condition regarding the change in the positional relationship between the specific parts B10 and B13 of the observation target person and the bed. Specifically, the condition is "the specific portions B10 and B13 move from the inside of the bed area R1 to the bedside area R2 outside the bed area R1".

また、検知対象事象E2は、観察対象人物における特定部位B8,B11の3次元位置(平面エリアR1)に関する条件を充足する事象として規定されている。特に、検知対象事象E2は、観察対象人物の特定部位B8,B11と観察対象人物以外の所定の物体(ベッド)との位置関係に関する条件を充足する事象として規定されている。詳細には、当該条件は、「特定部位B8,B11がベッドエリアR1内に存在すること」である。 Further, the detection target event E2 is defined as an event that satisfies the condition regarding the three-dimensional position (plane area R1) of the specific parts B8 and B11 in the observation target person. In particular, the detection target event E2 is defined as an event that satisfies the condition regarding the positional relationship between the specific parts B8 and B11 of the observation target person and a predetermined object (bed) other than the observation target person. Specifically, the condition is "the specific sites B8 and B11 are present in the bed area R1".

図23は、検知対象事象E3「離床」の設定画面を示す図である。図23の設定画面200では、ベッドエリアR1から、別のエリアR3(ベッドエリアR1から離れたエリア)へと観察対象人物の全身(全ての特定部位B0~B17)が移動する、との条件が規定されている。当該条件が充足されると、事象E3(観察対象人物がベッドから離れてベッド以外の場所へ移動する動作)(図9参照)が検知される。 FIG. 23 is a diagram showing a setting screen of the event to be detected E3 “getting out of bed”. In the setting screen 200 of FIG. 23, there is a condition that the whole body (all specific parts B0 to B17) of the observation target person moves from the bed area R1 to another area R3 (area away from the bed area R1). It is stipulated. When the condition is satisfied, event E3 (movement of the person to be observed to move away from the bed to a place other than the bed) (see FIG. 9) is detected.

図23の検知対象事象E3は、観察対象人物における特定部位B0~B17の3次元位置の変化(平面エリアR1から平面エリアR3へと移動すること)に関する条件を充足する事象として規定されている。特に、検知対象事象E3は、観察対象人物の特定部位B0~B17とベッドとの位置関係の変化に関する条件(「特定部位B0~B17がベッドエリアR1内からベッドエリアR1外のエリアR3へと移動すること」)を充足する事象として規定されている。 The detection target event E3 in FIG. 23 is defined as an event that satisfies the condition regarding the change in the three-dimensional position (moving from the plane area R1 to the plane area R3) of the specific parts B0 to B17 in the observation target person. In particular, the detection target event E3 is a condition relating to a change in the positional relationship between the specific parts B0 to B17 of the observation target person and the bed (“The specific parts B0 to B17 move from the inside of the bed area R1 to the area R3 outside the bed area R1). What to do ") is defined as an event that satisfies.

図24は、検知対象事象E4「転倒(床上)」の設定画面を示す図である。図24の設定画面200では、ベッドエリアR1外において観察対象人物の胸(特定部位B1)が1m/s以上で床面上の所定高さ(50cm)以下の空間に入る、との条件が規定されている。当該条件が充足されると、事象E4(観察対象人物が床上で転倒する動作)(図10参照)が検知される。 FIG. 24 is a diagram showing a setting screen of the event to be detected E4 “falling (on the floor)”. In the setting screen 200 of FIG. 24, the condition that the chest (specific portion B1) of the person to be observed is 1 m / s or more and enters a space of a predetermined height (50 cm) or less on the floor surface is defined outside the bed area R1. Has been done. When the condition is satisfied, event E4 (movement of the person to be observed to fall on the floor) (see FIG. 10) is detected.

図24の検知対象事象E4は、観察対象人物における特定部位B1の3次元位置に関する条件(「ベッドエリアR1外」)を充足する事象として規定されている。また、検知対象事象E4は、観察対象人物における胸(特定部位B1)の3次元位置の変化(高さの変化)に関する条件をも充足する事象として規定されている。さらに、検知対象事象E4は、観察対象人物における胸(特定部位B1)の3次元位置の変化速度(移動速度)に関する条件(「1m/s以上」)をも充足する事象として規定されている。 The detection target event E4 in FIG. 24 is defined as an event that satisfies the condition regarding the three-dimensional position of the specific portion B1 in the observation target person (“outside the bed area R1”). Further, the detection target event E4 is defined as an event that also satisfies the condition regarding the change (change in height) of the three-dimensional position of the chest (specific portion B1) in the observation target person. Further, the detection target event E4 is defined as an event that also satisfies the condition (“1 m / s or more”) regarding the change speed (movement speed) of the three-dimensional position of the chest (specific portion B1) in the observation target person.

特に、「転倒」は、観察対象人物(被介護者等)の自らの意思に反して当該人物の姿勢が変化していく動作である。そのため、通常、「転倒」における移動速度は一定程度以上である。図24では、このような特質を利用してより適切に検知対象事象が設定されている。これによれば、観察対象人物(被介護者等)が自らの意思に反して転倒する動作(図10参照)と観察対象人物が自らの意思でゆっくり(一定速度未満で)寝そべっていく動作(不図示)とを適切に区別することが可能である。 In particular, "falling" is an action in which the posture of the person to be observed (such as a care recipient) changes against his / her own will. Therefore, the moving speed in "falling" is usually above a certain level. In FIG. 24, the event to be detected is set more appropriately by utilizing such a characteristic. According to this, the movement of the person to be observed (the care recipient, etc.) to fall against his / her will (see FIG. 10) and the movement of the person to be observed to lie down slowly (at a speed less than a certain speed) by his / her own will (see FIG. 10). It is possible to properly distinguish from (not shown).

図25は、検知対象事象E5「横たわり(床上)」の設定画面を示す図である。図25の設定画面200では、ベッドエリアR1の範囲外において観察対象人物の鼻(特定部位B0)および胸(特定部位B1)が床面から50cm以下の空間に5秒以上留まる、との条件が規定されている。当該条件が充足されると、事象E5(観察対象人物が床上で所定期間以上に亘って横たわっている(臥位を有している)状態)(図11参照)が検知される。 FIG. 25 is a diagram showing a setting screen of the event to be detected E5 “lying (on the floor)”. In the setting screen 200 of FIG. 25, there is a condition that the nose (specific part B0) and chest (specific part B1) of the person to be observed stay in a space 50 cm or less from the floor surface for 5 seconds or more outside the range of the bed area R1. It is stipulated. When the condition is satisfied, event E5 (a state in which the person to be observed is lying on the floor for a predetermined period or longer (having a recumbent position)) (see FIG. 11) is detected.

図25の検知対象事象E5は、観察対象人物における特定部位B0,B1の3次元位置に関する条件(「高さが床面から50cm以下」「ベッドエリアR1外」)を充足する事象として規定されている。また、検知対象事象E5は、観察対象人物における特定部位B0,B1の3次元位置の継続性(非変化)に関する条件(「5秒以上」)をも充足する事象として規定されている。 The detection target event E5 in FIG. 25 is defined as an event that satisfies the conditions regarding the three-dimensional positions of the specific parts B0 and B1 in the observation target person (“height is 50 cm or less from the floor surface” and “outside the bed area R1”). There is. Further, the detection target event E5 is defined as an event that also satisfies the condition (“5 seconds or more”) regarding the continuity (non-change) of the three-dimensional positions of the specific parts B0 and B1 in the observation target person.

図26は、検知対象事象E6「ベッドからの全身ずり落ち」の設定画面を示す図である。図26の設定画面200では、ベッドエリアR1からベッドサイドエリアR2へと観察対象人物の部位B0(鼻)および部位B8(右腰)が1m/s以上で床面上の所定高さ(50cm)以下の空間に移動する、との条件が規定されている。当該条件が充足されると、事象E6(観察対象人物の全身がベッド上からベッドサイドへとずり落ちる動作)(図12参照)が検知される。 FIG. 26 is a diagram showing a setting screen of the event to be detected E6 “whole body slipping off the bed”. In the setting screen 200 of FIG. 26, the portion B0 (nose) and the portion B8 (right waist) of the person to be observed from the bed area R1 to the bedside area R2 are 1 m / s or more and a predetermined height (50 cm) on the floor surface. The conditions for moving to the following space are stipulated. When the condition is satisfied, event E6 (movement of the whole body of the person to be observed sliding down from the bed to the bedside) (see FIG. 12) is detected.

図26の検知対象事象E6は、観察対象人物における特定部位B0,B8の3次元位置の変化に関する条件(「ベッドエリアR1からベッドサイドエリアR2への移動」および「高さの変化」)を充足する事象として規定されている。また、検知対象事象E6は、観察対象人物における特定部位B0,B8の3次元位置の変化速度(移動速度)に関する条件(「1m/s以上」)をも充足する事象として規定されている。 The detection target event E6 in FIG. 26 satisfies the conditions regarding the change in the three-dimensional positions of the specific parts B0 and B8 in the observation target person (“movement from bed area R1 to bedside area R2” and “change in height”). It is defined as an event to be done. Further, the detection target event E6 is defined as an event that also satisfies the condition (“1 m / s or more”) regarding the change speed (movement speed) of the three-dimensional positions of the specific parts B0 and B8 in the observation target person.

図27は、検知対象事象E7「ベッドからの下半身ずり落ち」の設定画面を示す図である。図27の設定画面200では、ベッドエリアR1からベッドサイドエリアR2へと観察対象人物の右腰(部位B8)および左腰(部位B11)が1m/s以上で床面上の所定高さ(50cm)以下の空間に移動する、との条件が規定されている。当該条件が充足されると、事象E7(観察対象人物の下半身がベッド上からベッドサイドへとずり落ちる動作)(図13参照)が検知される。 FIG. 27 is a diagram showing a setting screen of the event to be detected E7 “sliding the lower half of the body from the bed”. In the setting screen 200 of FIG. 27, the right hip (site B8) and the left hip (part B11) of the person to be observed from the bed area R1 to the bedside area R2 are 1 m / s or more and a predetermined height (50 cm) on the floor surface. ) The condition of moving to the following space is stipulated. When the condition is satisfied, event E7 (movement of the lower body of the person to be observed sliding down from the bed to the bedside) (see FIG. 13) is detected.

ここでは、「全身のずり落ち」が上半身の特定部位B0(鼻)および下半身の特定部位B8(右腰)の移動によって規定されているのに対して、「下半身のずり落ち」が下半身の特定部位B8およびB11(右腰および左腰)の移動によって規定されている。すなわち、「下半身のずり落ち」は、上半身の特定部位の移動が条件とされてない点で、「全身のずり落ち」と相違している。なお、この規定内容(設定内容)に依拠すると、実際には人物の「全身」がベッドからずり落ちた場合、「下半身のずり落ち」と「全身のずり落ち」との両者が検知される。ただし、これに限定されず、さらに別の条件をも規定すること等によって、当該両者が互いに区別されて検知されてもよい。たとえば、人物の顔(鼻等)が床から所定の高さ(たとえば50cm)以上の位置に存在することをも条件として、「下半身のずり落ち」が検知されてもよい。 Here, "sliding of the whole body" is defined by the movement of the specific part B0 (nose) of the upper body and the specific part B8 (right waist) of the lower body, while "sliding of the lower body" is the identification of the lower body. It is defined by the movement of sites B8 and B11 (right and left hips). That is, "sliding of the lower body" is different from "sliding of the whole body" in that the movement of a specific part of the upper body is not a condition. In addition, according to this regulation content (setting content), when the "whole body" of a person actually slips off the bed, both "sliding of the lower body" and "sliding of the whole body" are detected. However, the present invention is not limited to this, and the two may be detected separately from each other by, for example, specifying another condition. For example, "sliding of the lower body" may be detected on condition that the face (nose, etc.) of the person is present at a predetermined height (for example, 50 cm) or more from the floor.

図28および図29は、検知対象事象E8「ベッドからの片手伸ばし」の設定画面を示す図である。図28では、「観察対象人物の両手首のうちの一方(部位B4あるいは部位B7)がベッドエリアR1からベッドサイドエリアR2へと移動する」旨の条件(第1条件)が既定されている。また、図29では、「観察対象人物の腰(部位B8および部位B11)がベッドエリアR1内に留まっている」旨の条件(第2条件)が規定されている。さらに、ドロップダウンリスト244にて(前頁条件(図28の第1条件)との)「AND」が指定されている。すなわち、第1条件と第2条件との論理積(AND)の条件が充足されることも規定されている。 28 and 29 are diagrams showing a setting screen of the event to be detected E8 “one-handed extension from the bed”. In FIG. 28, a condition (first condition) is set to the effect that "one of both wrists (part B4 or part B7) of the person to be observed moves from the bed area R1 to the bedside area R2". Further, in FIG. 29, a condition (second condition) to the effect that "the waist (part B8 and part B11) of the person to be observed remains in the bed area R1" is defined. Further, "AND" (with the condition on the previous page (first condition in FIG. 28)) is specified in the drop-down list 244. That is, it is also stipulated that the condition of the logical product (AND) of the first condition and the second condition is satisfied.

このように、観察対象人物の一方の手首(部位B4あるいは部位B7)がベッドエリアR1からベッドサイドエリアR2へと移動し且つ観察対象人物の腰(部位B8および部位B11)がベッドエリアR1内に留まっている旨の条件が規定されている。当該条件が充足されると、事象E8(観察対象人物の片手がベッドサイドへと伸びている状態)(図14参照)が検知される。 In this way, one wrist (site B4 or site B7) of the observation target person moves from the bed area R1 to the bedside area R2, and the waist (site B8 and site B11) of the observation target person is in the bed area R1. The conditions for staying are stipulated. When the condition is satisfied, event E8 (a state in which one hand of the observation target person extends to the bedside) (see FIG. 14) is detected.

図28および図29の検知対象事象E8は、観察対象人物における特定部位B4あるいはB7(右手首あるいは左手首)の3次元位置の変化(エリアR1からエリアR2へと移動すること)に関する条件を充足する事象として規定されている。特に、検知対象事象E8は、観察対象人物の特定部位B4,B7とベッドとの位置関係の変化に関する条件を充足する事象として規定されている。詳細には、当該条件は、「特定部位B4あるいはB7がベッドエリアR1内からベッドエリアR1外のベッドサイドエリアR2へと移動すること」である。 The detection target event E8 in FIGS. 28 and 29 satisfies the condition regarding the change in the three-dimensional position (moving from the area R1 to the area R2) of the specific part B4 or B7 (right wrist or left wrist) in the observation target person. It is defined as an event to be done. In particular, the detection target event E8 is defined as an event that satisfies the condition regarding the change in the positional relationship between the specific parts B4 and B7 of the observation target person and the bed. Specifically, the condition is "the specific portion B4 or B7 moves from the inside of the bed area R1 to the bedside area R2 outside the bed area R1".

また、検知対象事象E8は、観察対象人物における特定部位B8,B11の3次元位置(平面エリアR1)に関する条件を充足する事象として規定されている。特に、検知対象事象E8は、観察対象人物の特定部位B8,B11と観察対象人物以外の所定の物体(ベッド)との位置関係に関する条件(「特定部位B8,B11がベッドエリアR1内に存在すること」)を充足する事象として規定されている。 Further, the detection target event E8 is defined as an event that satisfies the condition regarding the three-dimensional position (plane area R1) of the specific parts B8 and B11 in the observation target person. In particular, the detection target event E8 is a condition relating to the positional relationship between the specific parts B8 and B11 of the observation target person and a predetermined object (bed) other than the observation target person (“specific parts B8 and B11 exist in the bed area R1”. It is defined as an event that satisfies "that").

以上のように、設定画面200等を利用した設定操作によれば、各検知対象事象を柔軟に設定(規定)することが可能である。したがって、ユーザの様々な要求に柔軟に対応することが可能である。 As described above, each detection target event can be flexibly set (defined) by the setting operation using the setting screen 200 or the like. Therefore, it is possible to flexibly respond to various requests of the user.

詳細には、ユーザは、検知対象事象自体(換言すれば、検知対象事象の検知ルール(検知条件))を容易に設定することが可能である。たとえば、ユーザ(施設職員等)は、上記各事象E1~E8の設定内容(部位、動作/状態、3次元位置、速度等)を、施設ごとの事情等に応じて容易にカスタマイズ登録することが可能である。また、ユーザは、施設ごとの事情に応じて検知すべき事象を判断し、当該検知すべき事象を検知対象事象として適切に登録(設定)することが可能である。さらに、新たに検知すべき事象が増えた場合に、当該事象を検知対象事象として新たに追加登録することが容易に実現され得る。 In detail, the user can easily set the detection target event itself (in other words, the detection rule (detection condition) of the detection target event). For example, the user (facility staff, etc.) can easily customize and register the setting contents (part, operation / state, three-dimensional position, speed, etc.) of each of the above events E1 to E8 according to the circumstances of each facility. It is possible. In addition, the user can determine the event to be detected according to the circumstances of each facility and appropriately register (set) the event to be detected as the event to be detected. Further, when the number of events to be newly detected increases, it can be easily realized that the event is newly additionally registered as the event to be detected.

特に、検知対象事象を人物の特定部位の状態および/または動作で規定できるとともに、当該特定部位を任意に指定すること(ニーズ等に応じて適切に指定すること)ができる。各特定部位と動作内容等との組合せも任意に指定することもできる。端的に言えば、カスタマイズ性能が高い。 In particular, the event to be detected can be specified by the state and / or operation of a specific part of the person, and the specific part can be arbitrarily specified (appropriately specified according to needs and the like). The combination of each specific part and the operation content can be arbitrarily specified. In short, the customization performance is high.

また特に、人物の特定部位の「3次元位置」と「当該3次元位置の変化」と「当該3次元位置の変化速度」との3要素のうちいずれか1つ以上に関する条件を充足する事象として、検知対象事象が規定される。したがって、実空間(3次元空間)での事象をきめ細かく適切に指定することが可能である。さらに、これらの3要素のうち2つ以上に関する条件を充足する事象として検知対象事象が規定され得るので、実空間(3次元空間)での事象を更にきめ細かく更に適切に指定することが可能である。また、当該3次元位置の変化速度を含めて検知対象事象が設定(規定)され得るので、転倒等の検知対象事象(変化速度に特徴を有する事象)を非常に適切に設定することが可能である。 In particular, as an event that satisfies one or more of the three elements of "three-dimensional position", "change of the three-dimensional position", and "change speed of the three-dimensional position" of a specific part of a person. , The event to be detected is specified. Therefore, it is possible to specify the event in the real space (three-dimensional space) in detail and appropriately. Furthermore, since the event to be detected can be defined as an event that satisfies the conditions relating to two or more of these three elements, it is possible to specify the event in the real space (three-dimensional space) more finely and more appropriately. .. In addition, since the detection target event can be set (specified) including the change speed of the three-dimensional position, it is possible to set the detection target event (event having a characteristic change speed) such as a fall very appropriately. be.

また、観察対象人物の3次元位置のうちの「高さ」が利用されることによれば、人物の姿勢の大きな変化(転倒等における大きな変化等)が適切に検出され易い。 Further, by utilizing the "height" of the three-dimensional position of the person to be observed, it is easy to appropriately detect a large change in the posture of the person (a large change in a fall or the like).

また、観察対象人物の3次元位置のうちの「平面位置」が、ユーザによって予め設定されたエリア(R1,R2,R3等)で指定され得る。詳細には、ユーザの操作等に基づきカメラ映像(部屋の撮影画像)等に基づいて実空間上の平面エリアが複数のエリア(R1,R2,R3等)に予め区分されている。そして、当該複数のエリア(R1,R2,R3等)の中から適切な平面エリアがユーザにより指定されて検知対象事象が設定され得る。これによれば、ユーザは、各平面エリアを高い自由度で作成することが可能であるとともに、各特定部位の存在エリア、移動元エリアおよび/または移動先エリアとして、平面エリアを柔軟に指定することが可能である。 Further, the "planar position" of the three-dimensional positions of the person to be observed can be designated by the area (R1, R2, R3, etc.) preset by the user. In detail, the plane area in the real space is divided into a plurality of areas (R1, R2, R3, etc.) in advance based on the camera image (photographed image of the room) or the like based on the user's operation or the like. Then, an appropriate plane area can be designated by the user from the plurality of areas (R1, R2, R3, etc.) and the detection target event can be set. According to this, the user can create each plane area with a high degree of freedom, and can flexibly specify the plane area as the existence area, the movement source area and / or the movement destination area of each specific part. It is possible.

また、検知対象事象の名称は、施設ごとの通用名等に適宜に設定され得る。したがって、上記システムの導入に際して、利用ユーザ(介護をする側の人物(介護者)等)が検知対象事象の名称に違和感を感じることを防止することが可能である。 In addition, the name of the event to be detected can be appropriately set as a common name for each facility. Therefore, when introducing the above system, it is possible to prevent the user (the person who cares (the caregiver), etc.) from feeling uncomfortable with the name of the event to be detected.

さらに、発報レベル(警告、注意、日常動作)が検知対象事象ごとに設定され得る。換言すれば、端末装置70は、複数の発報レベルのうち検知対象事象に応じた発報レベルの設定操作を受け付ける。その結果、検知対象事象がレベル分けして報知される。また、そのレベル分けを施設ごとの事情に応じて柔軟に設定することが可能である。 Further, the alert level (warning, attention, daily operation) can be set for each event to be detected. In other words, the terminal device 70 accepts an operation of setting the alarm level according to the event to be detected among the plurality of alarm levels. As a result, the event to be detected is notified by level. In addition, it is possible to flexibly set the level classification according to the circumstances of each facility.

なお、各検知対象事象の発生は、発報レベルに応じた互いに異なる発報態様で報知される。たとえば、「注意」レベルの事象が発生した場合、端末装置70,80の観察画面310(詳細には、その文字表示領域312)(図16参照)において、検知された事象の名称(「端座位」等)が黄色且つ中サイズの文字で表示される。また、「警告」レベル(「注意」レベルよりも高いレベル)の事象が発生した場合、端末装置70,80の観察画面310(図17参照)において、検知された事象の名称(「転倒」等)が赤色且つ大サイズの文字で表示される。この場合、さらに、警告音が端末装置70,80から出力される。また、「日常動作」レベル(「注意」レベルよりも低いレベル)の事象が発生した場合、端末装置70,80の観察画面310において、検知された事象(「起き上がり」等)の名称が黒色且つ小サイズの文字で表示される。 It should be noted that the occurrence of each detection target event is notified in different notification modes according to the notification level. For example, when an event of "attention" level occurs, the name of the detected event ("end sitting position") on the observation screen 310 (specifically, the character display area 312) (see FIG. 16) of the terminal devices 70 and 80. "Etc.) is displayed in yellow and medium-sized characters. When an event of "warning" level (higher than "caution" level) occurs, the name of the detected event ("fall", etc.) on the observation screen 310 (see FIG. 17) of the terminal devices 70 and 80. ) Is displayed in red and large size characters. In this case, a warning sound is further output from the terminal devices 70 and 80. Further, when an event of the "daily operation" level (a level lower than the "attention" level) occurs, the name of the detected event (such as "getting up") is black on the observation screen 310 of the terminal devices 70 and 80. Displayed in small size letters.

また、1または複数の検知対象事象(検知条件)は、各部屋ごとに設定される。詳細には、まず、端末装置70は、複数の部屋に関する各検知対象事象を部屋ごとに設定する設定操作を受け付ける。そして、部屋ごとに設けられた各検知装置10は、当該設定操作に応じて各検知対象事象を部屋ごとに設定し、当該設定操作による設定内容(部屋ごとの設定内容)に基づき各検知対象事象を検知する。 Further, one or more detection target events (detection conditions) are set for each room. Specifically, first, the terminal device 70 accepts a setting operation for setting each detection target event related to a plurality of rooms for each room. Then, each detection device 10 provided for each room sets each detection target event for each room according to the setting operation, and each detection target event is set based on the setting content (setting content for each room) by the setting operation. Is detected.

それ故、各部屋の居住者に応じたきめ細かな設定が可能である。たとえば、部屋ごとにその居住者の介護レベルが異なる場合において、各部屋ごとに(換言すれば、各部屋の居住者ごとに)検知対象事象(検知条件)を適切にカスタマイズして設定することが可能である。 Therefore, it is possible to make detailed settings according to the occupants of each room. For example, when the care level of the resident is different for each room, it is possible to appropriately customize and set the detection target event (detection condition) for each room (in other words, for each resident of each room). It is possible.

また、上述の人物情報登録ボタン202の押下に応答して、各部屋に居住する人物の情報(部屋ごとの観察対象人物の身長等)が登録されている場合には、次のようにして検知精度を向上させることが可能である。具体的には、検知装置10は、その部屋の観察対象人物の身長情報に適合しない人物を検知対象人物から除外して、その部屋の各検知対象事象を検知してもよい。 Further, when the information of the person residing in each room (height of the person to be observed for each room, etc.) is registered in response to the pressing of the person information registration button 202 described above, it is detected as follows. It is possible to improve the accuracy. Specifically, the detection device 10 may exclude a person who does not match the height information of the observation target person in the room from the detection target person and detect each detection target event in the room.

より具体的には、検知装置10は、撮影画像内の1又は複数の被写体人物の身長を、3次元カメラによって取得される情報(撮影画像および深度情報等)に基づいて測定する。そして、検知装置10は、被写体人物の身長(測定された身長)と観察対象人物の身長(予め登録されている身長)との差異が所定値以上であるときには、当該被写体人物が観察対象人物ではないと判定し、当該被写体人物を検知対象から除外すればよい。 More specifically, the detection device 10 measures the height of one or a plurality of subject persons in the captured image based on the information (photographed image, depth information, etc.) acquired by the three-dimensional camera. When the difference between the height of the subject person (measured height) and the height of the observation target person (pre-registered height) is equal to or greater than a predetermined value, the detection device 10 determines that the subject person is the observation target person. It may be determined that there is no such subject, and the subject person may be excluded from the detection target.

これによれば、観察対象人物とは異なる人物(たとえば、観察対象人物よりもその身長が所定程度以上低い子供等)がお見舞い等で当該部屋に滞在している際に、(遊んでいる)子供が仮に転倒しても、観察対象人物の転倒と誤判定せずに済む。 According to this, when a person different from the person to be observed (for example, a child whose height is shorter than the person to be observed by a certain degree or more) is staying in the room for a sympathy, etc. (playing). Even if the child falls, it is not necessary to mistakenly determine that the person to be observed has fallen.

あるいは、或る部屋に観察対象人物の人数(所定数(たとえば、1人))よりも多数の人物が部屋に存在する場合には、検知対象事象が検知されたときでも発報しないようにしてもよい。部屋内に観察対象人物以外の人物(別人)が存在している状況では、当該人物(別人)が観察対象人物に関する検知対象事象の発生を認識すること等が可能であることが多い。当該状況においては発報の必要性が所定程度よりも低いとみなし、検知対象事象が検知されたときでも発報しないことによって、本来的には不要な発報を抑制することが可能である。また、複数の被写体人物の検知動作に伴う検知装置10の負荷上昇を抑制することも可能である。 Alternatively, if there are more people in a room than the number of people to be observed (predetermined number (for example, one person)), the detection target event should not be issued even when it is detected. May be good. In a situation where a person (another person) other than the observation target person exists in the room, it is often possible for the person (another person) to recognize the occurrence of a detection target event related to the observation target person. In such a situation, it is possible to suppress an originally unnecessary alarm by considering that the necessity of the alarm is lower than a predetermined level and not issuing the alarm even when the event to be detected is detected. It is also possible to suppress an increase in the load of the detection device 10 due to the detection operation of a plurality of subject persons.

なお、ここでは、管理装置70において設定操作が受け付けられているが、これに限定されない。たとえば、携帯端末装置80において設定操作が受け付けられてもよい。 Here, the management device 70 accepts the setting operation, but the setting operation is not limited to this. For example, the mobile terminal device 80 may accept the setting operation.

<7.骨格表示によるモニタリング表示>
つぎに、観察対象人物のモニタリング表示について説明する。
<7. Monitoring display by skeleton display>
Next, the monitoring display of the person to be observed will be described.

図15は、表示対象の部屋を選択する選択画面300を示す図である。選択画面300には、複数(ここでは6個)の部屋にそれぞれ対応する複数のボタン301~306が表示されている。そして、当該複数のボタン(301~306)の中から所望のボタンが選択されると、当該所望のボタンに対応する部屋に関する観察画面310が表示される。たとえば、ボタン301が押下されると、当該ボタン301に対応付けられている「101号室」に関する観察画面310(図16等参照)が表示される。なお、選択画面300および当該観察画面310は、たとえば管理装置70の表示部75bに表示される。ただし、これに限定されず、選択画面300および当該観察画面310は、各携帯端末装置80の表示部85b(タッチパネル87等)に表示されてもよい。 FIG. 15 is a diagram showing a selection screen 300 for selecting a room to be displayed. On the selection screen 300, a plurality of buttons 301 to 306 corresponding to each of the plurality of (here, 6) rooms are displayed. Then, when a desired button is selected from the plurality of buttons (301 to 306), the observation screen 310 relating to the room corresponding to the desired button is displayed. For example, when the button 301 is pressed, the observation screen 310 (see FIG. 16 and the like) relating to "Room 101" associated with the button 301 is displayed. The selection screen 300 and the observation screen 310 are displayed, for example, on the display unit 75b of the management device 70. However, the present invention is not limited to this, and the selection screen 300 and the observation screen 310 may be displayed on the display unit 85b (touch panel 87 or the like) of each mobile terminal device 80.

これらの画面300,310の表示処理は、各端末装置70(あるいは80)と各検知装置10との協働により制御される。より具体的には、まず、端末装置70(あるいは80)が、対象の部屋に対応する検知装置10に対してモニタリング表示要求を送出する。当該検知装置10は、当該モニタリング表示要求に応答して、表示用画像データ等(観察画面310(観察画像330を含む)の表示用データ)を生成し、当該表示用画像データ等を当該端末装置70等に対して送信する(図5のステップS12)。当該端末装置70等は、受信した表示用データに基づき、観察画面310を表示する。 The display processing of these screens 300 and 310 is controlled by the cooperation between each terminal device 70 (or 80) and each detection device 10. More specifically, first, the terminal device 70 (or 80) sends a monitoring display request to the detection device 10 corresponding to the target room. The detection device 10 generates display image data and the like (display data of the observation screen 310 (including the observation image 330)) in response to the monitoring display request, and uses the display image data and the like as the terminal device. It is transmitted to 70 and the like (step S12 in FIG. 5). The terminal device 70 or the like displays the observation screen 310 based on the received display data.

図16および図17は、或る部屋(ここでは「101号室」)の観察対象人物の観察画面310を示す図である。 16 and 17 are views showing an observation screen 310 of an observation target person in a certain room (here, “Room 101”).

図16等に示されるように、観察画面310は、観察画像330(観察映像)を表示する映像表示領域311と文字表示領域312とを備えている。 As shown in FIG. 16 and the like, the observation screen 310 includes an image display area 311 for displaying the observation image 330 (observation image) and a character display area 312.

映像表示領域311には、観察対象人物の観察画像(映像(動画像))330がリアルタイムで表示される。図16等に示されるように、観察画像330は、観察対象人物自体の撮影画像を有さず且つ当該観察対象人物の骨格画像325を有する画像である。 An observation image (video (moving image)) 330 of the person to be observed is displayed in real time in the video display area 311. As shown in FIG. 16 and the like, the observation image 330 is an image having no captured image of the observation target person itself and having a skeleton image 325 of the observation target person.

骨格画像325および観察画像330は、カメラユニット20によって撮像される撮影画像110に基づいて、処理ユニット30によって生成される。 The skeleton image 325 and the observation image 330 are generated by the processing unit 30 based on the captured image 110 captured by the camera unit 20.

図18は、観察画像330等の生成処理について説明する図である。 FIG. 18 is a diagram illustrating a process of generating the observation image 330 and the like.

具体的には、検知装置10の処理ユニット30は、まず、観察対象人物の撮影画像110(詳細には、撮影画像110に基づく骨格情報140)から観察対象人物の骨格画像325を生成する。骨格画像325は、図18(および図6)等に示されるように、たとえば、観察対象人物の各特定部位を「点」で示し、各骨格線(接続線)を「線分」で示す画像である。 Specifically, the processing unit 30 of the detection device 10 first generates a skeleton image 325 of the observation target person from the captured image 110 of the observation target person (specifically, the skeleton information 140 based on the captured image 110). As shown in FIG. 18 (and FIG. 6) and the like, the skeleton image 325 is an image in which, for example, each specific part of the person to be observed is indicated by a “point” and each skeleton line (connecting line) is indicated by a “line segment”. Is.

そして、処理ユニット30は、当該骨格画像325に基づいて観察対象人物に関する観察画像330を生成する。観察画像330は、たとえば、人物が存在しない背景画像327(327aとも称する)と骨格画像325とを合成することによって生成される。骨格画像325は、背景画像327において、撮影画像110内での存在位置と同じ位置に配置される。 Then, the processing unit 30 generates an observation image 330 regarding the observation target person based on the skeleton image 325. The observation image 330 is generated, for example, by synthesizing a background image 327 (also referred to as 327a) in which no person exists and a skeleton image 325. The skeleton image 325 is arranged at the same position as the existing position in the captured image 110 in the background image 327.

なお、人物が存在しない背景画像327aは、たとえば、事前に撮影され且つ人物が存在しない撮影画像110(326とも称する)に基づいて生成される。詳細には、検知装置10は、或る時点での撮影画像(詳細には、対象の部屋を事前に撮影している撮影画像)110中に人物が存在しないと判定すると、当該撮影画像(動画像)110から静止画像を抽出する。そして、当該静止画像が背景画像327aとして生成される。 The background image 327a in which no person exists is generated based on, for example, a photographed image 110 (also referred to as 326) which has been photographed in advance and has no person. Specifically, when the detection device 10 determines that a person does not exist in the photographed image (specifically, the photographed image in which the target room is photographed in advance) 110 at a certain point in time, the photographed image (moving image) Image) Extract a still image from 110. Then, the still image is generated as the background image 327a.

このようにして或る時点での観察画像330が生成される。 In this way, the observation image 330 at a certain point in time is generated.

その後、このような動作が繰り返されることによって、各時点での観察画像330が順次に生成される。端的に言えば、観察画像330(骨格画像325を含む)は、撮影画像110等に基づいてリアルタイムで生成される。 After that, by repeating such an operation, the observation image 330 at each time point is sequentially generated. In short, the observation image 330 (including the skeleton image 325) is generated in real time based on the captured image 110 and the like.

なお、背景画像327aは、常に同じ画像であってもよい。ただし、これに限定されず、たとえば、時間帯(昼間/夜間)等に応じて異なる背景画像327aが生成され利用されてもよい。詳細には、昼間の時間帯においては、昼間に撮影され且つ人物不在の撮影画像110が背景画像327aとして利用されてもよい。また、夜間の時間帯においては、夜間に撮影され且つ人物不在の撮影画像110が背景画像327aとして利用されてもよい。 The background image 327a may always be the same image. However, the present invention is not limited to this, and for example, different background images 327a may be generated and used depending on the time zone (daytime / nighttime) and the like. Specifically, in the daytime time zone, the captured image 110 captured in the daytime and in the absence of a person may be used as the background image 327a. Further, in the night time zone, the captured image 110 captured at night and in the absence of a person may be used as the background image 327a.

また、背景画像327は、予め準備された固定画像327b(無地画像あるいは部屋の3次元模式図等)であってもよい。 Further, the background image 327 may be a fixed image 327b (a plain image, a three-dimensional schematic diagram of a room, etc.) prepared in advance.

ところで、一般的な監視画面(比較例に係る画面とも称する)では、骨格画像325ではなく、カメラユニット20による撮影画像自体が表示される。詳細には、居室内での人物(観察対象人物とも称する)の撮影画像が管理者用画面等において常にそのまま表示される。 By the way, on a general monitoring screen (also referred to as a screen according to a comparative example), the image taken by the camera unit 20 itself is displayed instead of the skeleton image 325. In detail, the photographed image of a person (also referred to as an observation target person) in the living room is always displayed as it is on the administrator screen or the like.

しかしながら、このようなモニタリング表示は当該人物のプライバシーに対して適切な配慮がなされているものとは言えない。 However, it cannot be said that such a monitoring display gives appropriate consideration to the privacy of the person concerned.

これに対して、上記実施形態に係るモニタリング表示においては、観察対象人物自体の撮影画像ではなく当該人物の骨格画像325が観察画像330として表示される。したがって、観察対象人物のプライバシーに対して適切に配慮することが可能である。特に、骨格情報(骨格画像325(観察画像330))によれば、観察対象人物の顔に関する情報は失われているとともに、観察対象人物の体型(太っている/痩せている)および仕草等を殆ど認識できない程度にその情報量が低減されている。したがって、特に当該人物のプライバシーに対して適切に配慮することが可能である。それ故、見守られる側の人物(被介護者等)の心理的抵抗を低減することも可能である。 On the other hand, in the monitoring display according to the above embodiment, the skeleton image 325 of the person to be observed is displayed as the observation image 330 instead of the photographed image of the person to be observed. Therefore, it is possible to give appropriate consideration to the privacy of the person to be observed. In particular, according to the skeleton information (skeleton image 325 (observation image 330)), information on the face of the observation target person is lost, and the body shape (fat / thin) and gestures of the observation target person are recorded. The amount of information is reduced to the extent that it is almost unrecognizable. Therefore, it is possible to give appropriate consideration to the privacy of the person concerned. Therefore, it is also possible to reduce the psychological resistance of the person being watched over (such as a care recipient).

その一方で、介護者等は、観察対象人物の骨格画像を視認することによって、観察対象人物の姿勢等を適度に把握することが可能である。 On the other hand, the caregiver or the like can appropriately grasp the posture and the like of the observation target person by visually recognizing the skeleton image of the observation target person.

<8.表示に関する改変例>
上記のようなモニタリング表示において、所定条件が成立する場合、観察対象人物に関する撮影画像110が、観察画像330に代えて或いは観察画像330とともに表示されてもよい。端的に言えば、必要に応じて、観察画像330(骨格画像325)から撮影画像110への切替等が行われてもよい。
<8. Modification example regarding display>
In the monitoring display as described above, when a predetermined condition is satisfied, the captured image 110 relating to the observation target person may be displayed in place of the observation image 330 or together with the observation image 330. In short, switching from the observation image 330 (skeleton image 325) to the captured image 110 may be performed as needed.

<所定条件1>
このような切替等が行われるべき所定条件としては、所定の検知対象事象が検知されたこと、などが例示される。
<Predetermined condition 1>
Examples of the predetermined conditions for which such switching or the like should be performed include the detection of a predetermined detection target event.

たとえば、所定の設定画面(200等)において、「骨格画像」と「撮影画像」とのいずれを各検知対象事象の発生時(検知時)に表示させるかに関する選択肢(表示対象画像に関する選択肢)を設けておく。当該選択肢は、検知対象事象ごとに設けられることが好ましい。そして、当該選択肢によって設定された種類の画像(「骨格画像」/「撮影画像」)が、各検知対象事象の発生時に表示されるようにすればよい。たとえば、或る検知対象事象(「転倒」等)発生時の表示対象画像として「撮影画像」が設定されている場合、当該検知対象事象が検知されると、撮影画像110がモニタリング表示される。一方、当該検知対象事象が検知されていないときには、骨格画像325(観察画像330)が表示される。 For example, on a predetermined setting screen (200, etc.), an option (option regarding the display target image) regarding which of the "skeleton image" and the "captured image" should be displayed when each detection target event occurs (at the time of detection) is selected. I will set it up. It is preferable that the option is provided for each event to be detected. Then, the type of image (“skeleton image” / “photographed image”) set by the option may be displayed when each detection target event occurs. For example, when a "captured image" is set as a display target image when a certain detection target event ("fall" or the like) occurs, the captured image 110 is monitored and displayed when the detection target event is detected. On the other hand, when the detection target event is not detected, the skeleton image 325 (observation image 330) is displayed.

これによれば、たとえば「転倒」などの高い危険性を有する事象が発生したときには、ユーザは、実際の撮影画像110を視認し、さらに詳細な状況を確認することができる。ひいては、より適切に状況を把握し、適切な処置を施すことが可能である。 According to this, when an event having a high risk such as "falling over" occurs, the user can visually recognize the actual captured image 110 and confirm a more detailed situation. As a result, it is possible to grasp the situation more appropriately and take appropriate measures.

このように、通常時には骨格画像325(観察画像330)が表示され、所定の検知対象事象の発生時には撮影画像110が表示される。これによれば、プライバシーに配慮しつつ、所定の状況では実際の撮影画像をユーザ(介護者等)が確認することも可能である。換言すれば、観察者(介護者等)は、必要に応じて、観察対象人物に関する撮影画像を確認することが可能である。ひいては、観察者(介護者等)が適切な処理を施すことが可能である。 In this way, the skeleton image 325 (observation image 330) is normally displayed, and the captured image 110 is displayed when a predetermined detection target event occurs. According to this, it is possible for the user (caregiver or the like) to confirm the actual photographed image in a predetermined situation while considering privacy. In other words, the observer (caregiver, etc.) can confirm the photographed image of the person to be observed, if necessary. As a result, the observer (caregiver, etc.) can perform appropriate treatment.

また、検知対象事象ごとに撮影画像の表示の是非を設定することによれば、きめ細やかな対応を実現することが可能である。 Further, by setting the pros and cons of displaying the captured image for each event to be detected, it is possible to realize a fine-tuned response.

<所定条件2>
また、上述のような切替等が行われるべき所定条件としては、複数の発報レベルのうち検知対象事象に対して設定された発報レベルが所定レベル以上の重要度を有すること、なども例示される。
<Predetermined condition 2>
Further, as a predetermined condition for which switching or the like should be performed as described above, it is also exemplified that the alarm level set for the event to be detected has a higher importance than the predetermined level among a plurality of alarm levels. Will be done.

たとえば、発報に関する設定画面(図20等参照)において、表示対象画像(観察画像330)と複数の発報レベルとの関係が設定されればよい。複数の発報レベルとしては、「警告」、「注意」、「日常動作」が例示される。「警告」は「注意」よりも高い重要度を有する発報レベルであり、「注意」は「日常動作」よりも高い重要度を有する発報レベルである。なお、各検知対象事象に対して、複数の発報レベルのいずれかが割り当てられているものとする。 For example, the relationship between the display target image (observation image 330) and the plurality of alarm levels may be set on the setting screen for alerting (see FIG. 20 and the like). Examples of the plurality of alarm levels are "warning", "caution", and "daily operation". "Warning" is a notification level with a higher importance than "Caution", and "Caution" is a notification level with a higher importance than "Daily movement". It is assumed that one of a plurality of alarm levels is assigned to each detected event.

たとえば、発報に関する当該設定画面において、複数の発報レベルのうち、骨格画像325(観察画像330)から撮影画像110への切替等が行われるべき所定レベル(たとえば、「警告」以上)が設定される。 For example, on the setting screen for alerting, a predetermined level (for example, "warning" or higher) at which switching from the skeleton image 325 (observation image 330) to the captured image 110 should be performed is set among a plurality of alerting levels. Will be done.

このような設定に基づき、検知対象事象が検知されていないときには、骨格画像325(観察画像330)が表示される一方で、或る検知対象事象が検知されると、当該或る検知対象事象に割り当てられた発報レベルに応じた画像が表示される。 Based on such settings, when the detection target event is not detected, the skeleton image 325 (observation image 330) is displayed, while when a certain detection target event is detected, the detection target event is displayed. Images are displayed according to the assigned alarm level.

具体的には、検知対象事象が発生すると、当該検知対象事象の発報レベルが所定レベル(「警告」)以上の重要性を有するか否かが判定される。当該検知対象事象の発報レベルが所定レベル(「警告」)以上の重要度を有しない場合、骨格画像325(観察画像330)が引き続き表示される。一方、当該検知対象事象の発報レベルが所定レベル(「警告」)以上の重要度を有する場合、骨格画像325(観察画像330)から撮影画像110へと表示対象画像が変更される。 Specifically, when a detection target event occurs, it is determined whether or not the alarm level of the detection target event has a predetermined level (“warning”) or higher. If the alert level of the event to be detected does not have a predetermined level (“warning”) or higher, the skeleton image 325 (observation image 330) is continuously displayed. On the other hand, when the alarm level of the detection target event has a predetermined level (“warning”) or higher, the display target image is changed from the skeleton image 325 (observation image 330) to the captured image 110.

このように、通常時には骨格画像325(観察画像330)が表示され、所定レベル以上の重要度を有する検知対象事象の発生時には撮影画像110が表示される。これによれば、プライバシーに配慮しつつ、必要に応じて実際の撮影画像を確認して適切な処理を施すことが可能である。また、検知対象事象ごとに撮影画像の表示の是非を設定することができるので、きめ細やかな対応を実現することが可能である。 As described above, the skeleton image 325 (observation image 330) is normally displayed, and the captured image 110 is displayed when a detection target event having a predetermined level of importance or higher occurs. According to this, it is possible to confirm the actual captured image and perform appropriate processing as necessary while considering privacy. In addition, since it is possible to set whether or not to display the captured image for each event to be detected, it is possible to realize a detailed response.

特に、発生した検知対象事象の重要度に応じて、骨格画像325(観察画像330)と撮影画像110とのいずれを表示するかを変更することができる。特に、「転倒」などの高い危険性を有する事象(所定レベル以上の重要度を有する事象)が発生したときには、ユーザは、実際の撮影画像110を視認し、さらに詳細な状況を確認することができる。ひいては、より適切に状況を把握し、適切な処置を施すことが可能である。 In particular, it is possible to change whether to display the skeleton image 325 (observation image 330) or the captured image 110 according to the importance of the event to be detected that has occurred. In particular, when an event with a high risk (event having a predetermined level of importance or higher) such as "falling over" occurs, the user may visually check the actual captured image 110 and confirm a more detailed situation. can. As a result, it is possible to grasp the situation more appropriately and take appropriate measures.

また、このような態様によれば、ユーザは検知対象事象ごとに表示対象画像を設定しなくても済む。したがって、ユーザが検知対象事象ごとに発報レベルと表示対象画像との双方を設定する場合に比べて、設定の手間を低減することが可能である。 Further, according to such an aspect, the user does not have to set the display target image for each detection target event. Therefore, it is possible to reduce the time and effort for setting as compared with the case where the user sets both the alert level and the display target image for each detection target event.

<他の改変例>
また、上記の各改変例では、所定条件が成立する場合、観察画像330(骨格画像325)に代えて、観察対象人物に関する撮影画像が表示されているが、これに限定されない。所定条件が成立する場合、観察画像330(骨格画像325)とともに、観察対象人物に関する撮影画像110が表示されてもよい。
<Other modifications>
Further, in each of the above modified examples, when a predetermined condition is satisfied, a photographed image relating to the person to be observed is displayed instead of the observation image 330 (skeleton image 325), but the present invention is not limited to this. When the predetermined condition is satisfied, the photographed image 110 relating to the person to be observed may be displayed together with the observation image 330 (skeleton image 325).

また、上記実施形態等では、端末装置70,80において観察画像330および骨格画像325として、動画像が表示されているが、これに限定されず、端末装置70,80において静止画像が観察画像330および骨格画像325として表示されてもよい。 Further, in the above-described embodiment and the like, the moving image is displayed as the observation image 330 and the skeleton image 325 in the terminal devices 70 and 80, but the present invention is not limited to this, and the still image is the observation image 330 in the terminal devices 70 and 80. And may be displayed as a skeleton image 325.

また、上記実施形態等では、端末装置70(あるいは80)から検知装置10に対して送出されたモニタリング表示要求に応じて、端末装置70等に画像データの転送が開始され画像(骨格画像等)の表示が開始されているが、これに限定されない。たとえば、検知装置10にて各検知対象事象が検知されたことに応じて、各端末装置70,80に検知対象事象の検知が報知されるとともに自動的に管理装置70等にて画像(骨格画像等)の表示が開始されるようにしてもよい。この際の表示画像(骨格画像325および観察画像330等)も、動画像でもよく、あるいは静止画像でもよい。 Further, in the above embodiment, the transfer of image data is started to the terminal device 70 or the like in response to the monitoring display request sent from the terminal device 70 (or 80) to the detection device 10, and the image (skeleton image or the like) is started. Has started to be displayed, but is not limited to this. For example, in response to the detection of each detection target event by the detection device 10, the terminal devices 70 and 80 are notified of the detection of the detection target event, and the management device 70 or the like automatically notifies the image (skeleton image). Etc.) may be started to be displayed. The displayed image (skeleton image 325, observation image 330, etc.) at this time may also be a moving image or a still image.

また、上記実施形態等では、モニタリング表示時に骨格画像325(観察画像330)が表示される態様を例示したが、これに限定されない。たとえば、記憶部32内に記憶された観察画像330(ログ画像)がその後に再生される際に、骨格画像325が表示されてもよい。あるいは、録画された撮影画像110(録画画像)がその後に再生される際に、当該撮影画像110に基づく骨格画像325が生成され表示されてもよい。 Further, in the above-described embodiment and the like, an embodiment in which the skeleton image 325 (observation image 330) is displayed at the time of monitoring display is exemplified, but the present invention is not limited to this. For example, the skeleton image 325 may be displayed when the observation image 330 (log image) stored in the storage unit 32 is subsequently reproduced. Alternatively, when the recorded photographed image 110 (recorded image) is subsequently reproduced, the skeleton image 325 based on the photographed image 110 may be generated and displayed.

また、ここでは検知装置10が骨格画像325および観察画像330の生成処理(換言すれば、表示制御処理)等を実行しているが、これに限定されない。たとえば、端末装置70(,80)が骨格画像325および/または観察画像330等の生成処理等を実行してもよい。詳細には、検知装置10から端末装置70等へと撮影画像110および深度情報120等が送信され、送信先の端末装置70等にて骨格画像325等が生成されてもよい。ただし、セキュリティ向上の観点あるいはデータ送信量削減の観点からは、(受信側の管理装置70ではなく)送信側の検知装置10が当該生成処理等を実行することが好ましい。 Further, here, the detection device 10 executes a generation process (in other words, a display control process) of the skeleton image 325 and the observation image 330, but the present invention is not limited to this. For example, the terminal device 70 (, 80) may execute a process of generating a skeleton image 325 and / or an observation image 330 and the like. Specifically, the captured image 110, the depth information 120, and the like may be transmitted from the detection device 10 to the terminal device 70 and the like, and the skeleton image 325 and the like may be generated by the transmission destination terminal device 70 and the like. However, from the viewpoint of improving security or reducing the amount of data transmitted, it is preferable that the detecting device 10 on the transmitting side (rather than the management device 70 on the receiving side) executes the generation process or the like.

このように、検知装置10が表示制御処理を行ってもよく、あるいは端末装置70,80が表示制御処理を行ってもよい。すなわち、検知装置10が表示制御装置として動作してもよく、あるいは、端末装置70,80が表示制御装置として動作してもよい。換言すれば、表示制御装置は、表示装置(70,80)とは別の装置として設けられてもよく、表示装置(70,80)と一体的に設けられてもよい。 In this way, the detection device 10 may perform the display control process, or the terminal devices 70 and 80 may perform the display control process. That is, the detection device 10 may operate as a display control device, or the terminal devices 70 and 80 may operate as a display control device. In other words, the display control device may be provided as a device separate from the display device (70, 80), or may be provided integrally with the display device (70, 80).

<9.エリアごとの基準高さ等>
上記においては、検知対象事象の1つとして、事象E4「床での転倒」(図10参照)を例示した。検知対象事象E4では、観察対象人物の「胸」(部位B1)の「高さ」に関する条件として、床面からの高さが50cm以上の値から50cm以下の値へと変化することが採用されている。
<9. Standard height for each area>
In the above, event E4 “falling on the floor” (see FIG. 10) was exemplified as one of the events to be detected. In the event to be detected E4, as a condition regarding the "height" of the "chest" (site B1) of the person to be observed, it is adopted that the height from the floor surface changes from a value of 50 cm or more to a value of 50 cm or less. ing.

しかしながら、「転倒」は、床上でのみならずベッド上等でも発生し得る。ベッド上での転倒を判定する際に床上での転倒に関する基準と同じ基準を用いると、適切な判定ができない。具体的には、「胸の高さが床面から50cm以上であること」は常に正常であるとは限らず、ベッド上での転倒時には別の基準を用いることが求められる。 However, "falling" can occur not only on the floor but also on the bed and the like. If the same criteria as the criteria for falls on the floor are used when determining a fall on the bed, an appropriate determination cannot be made. Specifically, "the height of the chest is 50 cm or more from the floor" is not always normal, and it is required to use another standard when falling on the bed.

そこで、事象E4に類似する他の検知対象事象として、事象E12「ベッド上での転倒(観察対象人物がベッド上で転倒すること)」(図31参照)が規定するとともに、次のような条件の成立に応じて検知対象事象E12が検知されてもよい。当該条件は、たとえば、「ベッドエリアR1内」において観察対象人物の「胸」(部位B1)の「ベッド上面」からの高さが50cm以上の値から50cm以下の値へと変化し且つその際の特定部位B1の移動速度が「1m/s以上」であることである。 Therefore, as another event to be detected similar to the event E4, the event E12 "falling on the bed (the person to be observed falls on the bed)" (see FIG. 31) is defined, and the following conditions are specified. The detection target event E12 may be detected according to the establishment of. The condition is, for example, that the height of the "chest" (site B1) of the person to be observed from the "top surface of the bed" in the "bed area R1" changes from a value of 50 cm or more to a value of 50 cm or less, and at that time. The moving speed of the specific part B1 is "1 m / s or more".

ただし、これに限定されず、床上での転倒とベッド上での転倒とを区別せずに、事象E13「転倒」(2つの事象E4,E12を統合した事象)が検知されてもよい。 However, the present invention is not limited to this, and event E13 "fall" (an event in which two events E4 and E12 are integrated) may be detected without distinguishing between a fall on the floor and a fall on the bed.

検知対象事象E13は、次のような条件の成立に応じて検知される。当該条件は、たとえば、観察対象人物の「胸」(部位B1)の「基準面からの高さ」が50cm以上の値から50cm以下の値へと変化し且つその際の特定部位B1の移動速度が「1m/s以上」であることである。換言すれば、2つの事象E4,E12における条件が、いずれも「基準面」に対する高さで規定されてもよい。 The event to be detected E13 is detected when the following conditions are satisfied. The condition is that, for example, the "height from the reference plane" of the "chest" (part B1) of the person to be observed changes from a value of 50 cm or more to a value of 50 cm or less, and the moving speed of the specific part B1 at that time. Is "1 m / s or more". In other words, the conditions in the two events E4 and E12 may both be defined by the height with respect to the "reference plane".

具体的には、まず、検知装置10は、エリア(平面エリア)ごとの「基準面」の高さを(図5の処理よりも前に)予め規定しておく。 Specifically, first, the detection device 10 predetermines the height of the "reference plane" for each area (planar area) (prior to the processing of FIG. 5).

詳細には、検知装置10は、部屋内(詳細には、その検知可能空間内)の平面位置(その一部または全部)をユーザによる設定操作等に応じて複数のエリアR1,R2,...に区分する。換言すれば、部屋内に複数の平面エリアR1,R2,...が設けられる。そして、検知装置10は、複数のエリアR1,R2,...のそれぞれについて「基準面の高さ」を設定する。たとえば、ベッドエリアR1には「45cm」、ベッドサイドエリアR2には「0cm」、他のエリアR3にも「0cm」が、それぞれ基準面の高さとして設定される。詳細には、検知装置10は、ユーザの操作入力等に応じて、エリアごとの基準面の高さを設定すればよい。 Specifically, the detection device 10 has a plurality of areas R1, R2, .. Divide into. In other words, a plurality of flat areas R1, R2, ... Are provided in the room. Then, the detection device 10 sets the "height of the reference plane" for each of the plurality of areas R1, R2, .... For example, "45 cm" is set for the bed area R1, "0 cm" is set for the bedside area R2, and "0 cm" is set for the other areas R3 as the heights of the reference planes. Specifically, the detection device 10 may set the height of the reference plane for each area according to the user's operation input or the like.

なお、各平面エリア(R1,R2,R3等)の基準面の高さは、自動的に設定されてもよい。具体的には、当該基準面の高さは、カメラユニット20(3次元カメラ)からの情報に基づいて、各平面エリアの代表位置に対応する物体(床、ベッド等)の3次元空間における高さに、自動的に設定されてもよい。たとえば、ベッドが載置された平面エリアR1の基準面の高さは、ベッド上面の高さ(3次元カメラ等による計測値)(床面から45cm等)に自動的に設定される。また、床上にベッドが載置されていない平面エリアR2の基準面の高さは、床面の高さ(床面から0cm等)に自動的に設定される。 The height of the reference plane of each plane area (R1, R2, R3, etc.) may be automatically set. Specifically, the height of the reference plane is the height in the three-dimensional space of the object (floor, bed, etc.) corresponding to the representative position of each plane area based on the information from the camera unit 20 (three-dimensional camera). In addition, it may be set automatically. For example, the height of the reference surface of the flat area R1 on which the bed is placed is automatically set to the height of the upper surface of the bed (value measured by a three-dimensional camera or the like) (45 cm from the floor surface or the like). Further, the height of the reference surface of the flat area R2 on which the bed is not placed on the floor is automatically set to the height of the floor surface (0 cm from the floor surface, etc.).

そして、エリアごとの「基準面」の高さに基づいて、エリアごとの「基準高さ」が決定される。たとえば、平面エリア(ベッドエリア)R1の基準高さは、平面エリアR1に対して設定された基準面(ベッド上面)の高さ「45cm」に、「50cm」(基準面からの高さ)が加算された値「95cm」である。一方、平面エリアR2,R3等(非ベッドエリア(床面エリア))の基準高さは、平面エリアR2に対して設定された基準面(床面)の高さ「0cm」に、「50cm」(基準面からの高さ)が加算された値「50cm」である。 Then, the "reference height" for each area is determined based on the height of the "reference plane" for each area. For example, the reference height of the flat area (bed area) R1 is set to the height "45 cm" of the reference plane (upper surface of the bed) set for the flat area R1 and "50 cm" (height from the reference plane). The added value is "95 cm". On the other hand, the reference height of the flat area R2, R3, etc. (non-bed area (floor surface area)) is "50 cm" at the height "0 cm" of the reference plane (floor surface) set for the flat area R2. It is a value "50 cm" to which (height from the reference plane) is added.

次述するように観察対象人物の存在エリアが判定されると、エリアごとの「基準高さ」に基づき当該存在エリアの基準高さが求められる。換言すれば、存在エリアごとに「基準高さ」が設定される。たとえば、ベッドエリア(ベッド上のエリア)R1が観察対象人物の存在エリアである場合、当該存在エリアの基準高さは「95cm」である。一方、床上のエリア(ベッドエリアR1以外のエリアR2,R3等)が観察対象人物の存在エリアである場合、当該存在エリアの基準高さは「50cm」である。存在エリアごとの基準高さは、当該存在エリアがベッド上であるか床上であるか等に応じて異なっている。 When the area where the person to be observed exists is determined as described below, the reference height of the area is obtained based on the "reference height" for each area. In other words, a "reference height" is set for each existing area. For example, when the bed area (area on the bed) R1 is the area where the person to be observed exists, the reference height of the area is "95 cm". On the other hand, when the area on the floor (areas R2, R3, etc. other than the bed area R1) is the area where the person to be observed exists, the reference height of the area is "50 cm". The reference height for each existing area differs depending on whether the existing area is on the bed or on the floor.

なお、検知対象事象E13は、たとえば、図32の設定画面200を用いた設定操作に応じて設定されればよい。図32は、検知対象事象E13「転倒」の設定画面200を示す図である。図32の設定画面200(特に詳細条件指定欄250)では、観察対象人物の胸(特定部位B1)が1m/s以上で「基準面」から所定高さ(50cm)以下の空間に入る、との条件が規定されている。検知対象事象E4に関する設定画面200(図24)と比較すると、特に、検知対象の平面エリアが規定されていない点と「基準面」からの高さが規定されている点とで相違する。 The detection target event E13 may be set according to the setting operation using the setting screen 200 of FIG. 32, for example. FIG. 32 is a diagram showing a setting screen 200 for the event to be detected E13 “fall”. In the setting screen 200 (particularly the detailed condition designation field 250) of FIG. 32, it is stated that the chest (specific portion B1) of the person to be observed enters a space of 1 m / s or more and a predetermined height (50 cm) or less from the "reference plane". Conditions are stipulated. Compared with the setting screen 200 (FIG. 24) relating to the event to be detected E4, there is a particular difference between the point where the plane area of the detection target is not defined and the point where the height from the "reference plane" is defined.

その後、図5の処理が開始されると、ステップS11~S15(特にS11,S13)において、検知装置10は、観察対象人物の存在エリアを判定するとともに、観察対象人物の存在エリアに応じて当該存在エリアの基準高さを求める(設定する)。そして、検知装置10は、当該存在エリアごとの基準高さに基づいて各特定部位の高さに関する条件を判定する。また、検知装置10は、これらの判定結果に基づき検知対象事象を検知する。なお、観察対象人物の存在エリアは、観察対象人物の所定の部位(胸あるいは腰等)の存在位置(平面位置)に基づいて判定されればよい。 After that, when the process of FIG. 5 is started, in steps S11 to S15 (particularly S11 and S13), the detection device 10 determines the area where the person to be observed exists, and the area of the person to be observed is determined according to the area where the person to be observed exists. Find (set) the reference height of the existing area. Then, the detection device 10 determines the condition regarding the height of each specific portion based on the reference height for each existing area. Further, the detection device 10 detects the event to be detected based on these determination results. The area where the observation target person exists may be determined based on the existence position (planar position) of a predetermined portion (chest, waist, etc.) of the observation target person.

詳細には、検知装置10は、存在エリアごとの基準高さと特定部位の高さとの比較結果に基づき、検知対象事象を検知する。 Specifically, the detection device 10 detects the event to be detected based on the comparison result between the reference height for each existing area and the height of the specific portion.

たとえば、観察対象人物がベッド上(ベッドエリアR1内)に存在する場合には、ベッドエリアR1の基準高さ(「95cm」)と観察対象人物の特定部位B1(「胸」)の高さとの比較の結果に基づき、検知対象事象E13が検知される。詳細には、観察対象人物の「胸」(部位B1)の床面からの高さが95cm(基準面の高さ「45cm」+「50cm」)以上の値から当該95cm以下の値へと変化することを条件に、検知対象事象E13が検知される。 For example, when the person to be observed is on the bed (inside the bed area R1), the reference height of the bed area R1 (“95 cm”) and the height of the specific part B1 (“chest”) of the person to be observed are set. Based on the result of the comparison, the detection target event E13 is detected. Specifically, the height of the "chest" (part B1) of the person to be observed from the floor changes from a value of 95 cm (height of the reference surface "45 cm" + "50 cm") or more to a value of 95 cm or less. The detection target event E13 is detected on condition that the detection target event E13 is performed.

一方、観察対象人物が床上(たとえば、エリアR3)に存在する場合には、当該エリアR3の基準高さ(「50cm」)と観察対象人物の特定部位B1(「胸」)の高さとの比較の結果に基づき、検知対象事象E13が検知される。詳細には、観察対象人物の「胸」(部位B1)の床面からの高さが50cm(基準面の高さ「0cm」+「50cm」)以上の値から当該50cm以下の値へと変化することを条件に、検知対象事象E13が検知される。 On the other hand, when the person to be observed is on the floor (for example, area R3), the reference height (“50 cm”) of the area R3 is compared with the height of the specific part B1 (“chest”) of the person to be observed. Based on the result of, the detection target event E13 is detected. Specifically, the height of the "chest" (site B1) of the person to be observed from the floor changes from a value of 50 cm (height of the reference surface "0 cm" + "50 cm") or more to a value of 50 cm or less. The detection target event E13 is detected on condition that the detection target event E13 is performed.

このように、存在エリアごとの基準高さ(換言すれば、存在エリアごとに設定された基準高さ)に基づいて検知対象事象E13が検知される。なお、このような「高さ」に関する条件に加えて上述の移動速度に関する条件(移動速度が「1m/s以上」等)をも加えて、検知対象事象E13が検知されることが好ましい。 In this way, the detection target event E13 is detected based on the reference height for each existing area (in other words, the reference height set for each existing area). It is preferable that the event E13 to be detected is detected by adding the above-mentioned conditions related to the moving speed (moving speed is “1 m / s or more”, etc.) in addition to the conditions related to the “height”.

以上のように、検知装置10(コントローラ31)は、観察対象人物の存在エリアを判定し、当該存在エリアごとの基準高さに基づいて特定部位の高さに関する条件を判定してもよい。詳細には、観察対象人物の存在エリアごとに異なる基準高さが設定され、当該基準高さと特定部位の高さとの比較結果に基づいて検知対象事象が検知されてもよい。これによれば、特定部位の高さの正常範囲が存在エリアごとに異なる場合であっても、観察対象人物の存在エリアごとの適切な基準高さに基づいて適切な検知処理が実行され得る。それ故、単一の基準高さ(存在エリアに依拠しない基準高さ)に基づいて検知処理が実行される場合に比べて、検知対象事象を適切に検知することが可能である。また、「転倒」という事象をエリア別の複数の検知対象事象(E4,E12等)として別々に分離して規定せずに済み、当該複数の検知対象事象(E4,E12等)を1つの検知対象事象E13(「転倒」)として統一的に取り扱うことが可能である。 As described above, the detection device 10 (controller 31) may determine the existing area of the person to be observed and determine the condition regarding the height of the specific portion based on the reference height for each existing area. In detail, a different reference height may be set for each area where the observation target person exists, and the detection target event may be detected based on the comparison result between the reference height and the height of the specific portion. According to this, even if the normal range of the height of the specific portion differs for each existing area, an appropriate detection process can be executed based on an appropriate reference height for each existing area of the person to be observed. Therefore, it is possible to appropriately detect the event to be detected as compared with the case where the detection process is executed based on a single reference height (reference height that does not depend on the existing area). In addition, it is not necessary to separately specify the event of "falling" as a plurality of detection target events (E4, E12, etc.) for each area, and the plurality of detection target events (E4, E12, etc.) are detected as one. It can be treated as a target event E13 (“fall”) in a unified manner.

<10.その他>
以上、この発明の実施の形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
<10. Others>
Although the embodiments of the present invention have been described above, the present invention is not limited to the contents described above.

たとえば、観察対象人物の特定部位は、上述の各特定部位に限定されず、人物の頭、首、鎖骨等であってもよい。 For example, the specific part of the person to be observed is not limited to each of the above-mentioned specific parts, and may be the head, neck, clavicle, or the like of the person.

また、上記実施形態等においては、検知装置10(特に処理ユニット30)が各検知対象事象の検知処理等を実行しているが、これに限定されない。たとえば、管理装置70が各検知対象事象の検知処理等を実行してもよい。 Further, in the above-described embodiment and the like, the detection device 10 (particularly, the processing unit 30) executes the detection processing of each detection target event, but the present invention is not limited to this. For example, the management device 70 may execute the detection process of each detection target event.

また、上記実施形態等においては、処理ユニット30(コントローラ31)が骨格情報140および各特定部位の3次元位置情報150等を生成しているが、これに限定されない。たとえば、管理装置70(コントローラ71)が各特定部位の3次元位置情報150を生成してもよい。さらに、管理装置70(コントローラ71)が骨格情報140をも生成してもよい。 Further, in the above embodiment and the like, the processing unit 30 (controller 31) generates the skeleton information 140 and the three-dimensional position information 150 of each specific part, but the present invention is not limited to this. For example, the management device 70 (controller 71) may generate the three-dimensional position information 150 of each specific part. Further, the management device 70 (controller 71) may also generate the skeleton information 140.

また、上記各実施形態等においては、検知装置10と管理装置70とが別々の装置として構成されているが、これに限定されない。たとえば、検知装置10は、管理装置70の処理(設定操作の受付処理等)をも実行する装置として構築されてもよい。 Further, in each of the above embodiments, the detection device 10 and the management device 70 are configured as separate devices, but the present invention is not limited to this. For example, the detection device 10 may be constructed as a device that also executes a process of the management device 70 (such as a process of accepting a setting operation).

また、観察画像330を表示する表示部は、上記各実施形態等のように端末装置70(,80)に設けられてもよいが、これに限定されず、たとえば検知装置10に設けられてもよい。 Further, the display unit for displaying the observation image 330 may be provided in the terminal device 70 (, 80) as in each of the above embodiments, but is not limited to this, and may be provided in, for example, the detection device 10. good.

1 検知システム
10 検知装置
20 カメラユニット
30 処理ユニット
70 管理装置
80 携帯端末装置
110 撮影画像
120 深度情報
140 骨格情報
150 3次元位置情報
200 設定画面
202 人物情報登録ボタン
210 エリア設定領域
220 骨格情報表示領域
230 ルール指定領域
240 ルール編集領域
250 詳細条件指定欄
280 発報レベル指定領域
300 選択画面
310 観察画面
325 骨格画像
327 背景画像
330 観察画像
1 Detection system 10 Detection device 20 Camera unit 30 Processing unit 70 Management device 80 Mobile terminal device 110 Photographed image 120 Depth information 140 Skeletal information 150 3D position information 200 Setting screen 202 Person information registration button 210 Area setting area 220 Skeletal information display area 230 Rule specification area 240 Rule edit area 250 Detailed condition specification field 280 Notification level specification area 300 Selection screen 310 Observation screen 325 Skeletal image 327 Background image 330 Observation image

Claims (25)

観察対象人物に関する検知対象事象の設定操作を受け付ける端末装置と、
前記設定操作による設定内容に基づき前記検知対象事象を検知する検知装置と、
を備えることを特徴とする検知システム。
A terminal device that accepts setting operations for detection target events related to the observation target person,
A detection device that detects the event to be detected based on the setting contents of the setting operation, and
A detection system characterized by being equipped with.
前記検知対象事象は、前記観察対象人物における特定部位の3次元位置に関する条件を充足する事象として設定されることを特徴とする、請求項1に記載の検知システム。 The detection system according to claim 1, wherein the detection target event is set as an event that satisfies the condition regarding the three-dimensional position of the specific portion in the observation target person. 前記検知対象事象は、前記観察対象人物における特定部位の3次元位置の変化に関する条件を充足する事象として設定されることを特徴とする、請求項1または請求項2に記載の検知システム。 The detection system according to claim 1 or 2, wherein the detection target event is set as an event that satisfies a condition relating to a change in a three-dimensional position of a specific portion in the observation target person. 前記検知対象事象は、前記観察対象人物における特定部位の3次元位置の変化速度に関する条件を充足する事象として設定されることを特徴とする、請求項1から請求項3のいずれかに記載の検知システム。 The detection according to any one of claims 1 to 3, wherein the detection target event is set as an event that satisfies the condition regarding the change speed of the three-dimensional position of the specific portion in the observation target person. system. 前記検知対象事象は、前記観察対象人物における特定部位の3次元位置と前記特定部位の3次元位置の変化速度とに関する条件を充足する事象として設定されることを特徴とする、請求項1に記載の検知システム。 The first aspect of claim 1, wherein the detection target event is set as an event that satisfies the conditions relating to the three-dimensional position of the specific portion and the change rate of the three-dimensional position of the specific portion in the observation target person. Detection system. 前記検知対象事象は、前記観察対象人物における特定部位の3次元位置の変化と前記特定部位の3次元位置の変化速度とに関する条件を充足する事象として設定されることを特徴とする、請求項1に記載の検知システム。 The detection target event is set as an event that satisfies the conditions relating to the change in the three-dimensional position of the specific portion and the change rate of the three-dimensional position of the specific portion in the observation target person. The detection system described in. 前記検知対象事象は、前記特定部位の3次元位置のうち少なくとも高さに関する条件を充足する事象として設定されることを特徴とする、請求項2から請求項6のいずれかに記載の検知システム。 The detection system according to any one of claims 2 to 6, wherein the detection target event is set as an event that satisfies at least a height condition among the three-dimensional positions of the specific portion. 前記検知対象事象は、前記特定部位の3次元位置のうち少なくとも平面位置に関する条件を充足する事象として設定され、
検知可能空間内の平面位置は、複数のエリアに区分されており、
前記平面位置に関する条件は、前記複数のエリアの中から指定されたエリアに関する条件を含むことを特徴とする、請求項2から請求項7のいずれかに記載の検知システム。
The detection target event is set as an event that satisfies at least a plane position among the three-dimensional positions of the specific part.
The plane position in the detectable space is divided into multiple areas.
The detection system according to any one of claims 2 to 7, wherein the condition relating to the plane position includes a condition relating to an area designated from the plurality of areas.
前記検知対象事象は、前記観察対象人物の前記特定部位と前記観察対象人物以外の所定の物体との位置関係に関する条件を充足する事象として設定されることを特徴とする、請求項2から請求項8のいずれかに記載の検知システム。 Claim 2 to claim 2, wherein the detection target event is set as an event that satisfies the condition regarding the positional relationship between the specific portion of the observation target person and a predetermined object other than the observation target person. The detection system according to any one of 8. 前記端末装置は、人物に関する複数の特定部位を示す画像を表示するとともに、当該複数の特定部位のうちの所望の特定部位を前記特定部位として指定する入力を受け付けることを特徴とする、請求項2から請求項9のいずれかに記載の検知システム。 2. The terminal device is characterized in that it displays an image showing a plurality of specific parts relating to a person and accepts an input for designating a desired specific part among the plurality of specific parts as the specific part. The detection system according to any one of claims 9. 前記端末装置は、複数の部屋に関する各検知対象事象を部屋ごとに設定する設定操作を受け付けることを特徴とする、請求項1から請求項10のいずれかに記載の検知システム。 The detection system according to any one of claims 1 to 10, wherein the terminal device accepts a setting operation for setting each detection target event related to a plurality of rooms for each room. 前記端末装置は、部屋ごとの観察対象人物の身長情報を設定する設定操作を受け付け、
前記検知装置は、前記身長情報に適合しない人物を検知対象人物から除外して、前記検知対象事象を検知することを特徴とする、請求項11に記載の検知システム。
The terminal device accepts a setting operation for setting the height information of the person to be observed for each room.
The detection system according to claim 11, wherein the detection device excludes a person who does not conform to the height information from the person to be detected and detects the event to be detected.
前記端末装置は、複数の発報レベルのうち前記検知対象事象に応じた発報レベルの設定操作を受け付けることを特徴とする、請求項1から請求項12のいずれかに記載の検知システム。 The detection system according to any one of claims 1 to 12, wherein the terminal device accepts an operation for setting an alarm level according to the event to be detected among a plurality of alarm levels. 前記検知装置は、前記観察対象人物の撮影画像から前記観察対象人物の骨格画像を生成するとともに、前記骨格画像に基づいて前記観察対象人物に関する観察画像を生成し、
前記端末装置は、前記観察対象人物に関する前記観察画像を表示し、
前記観察画像は、前記観察対象人物自体の撮影画像を有さず且つ前記観察対象人物の前記骨格画像を有する画像であることを特徴とする、請求項1から請求項13のいずれかに記載の検知システム。
The detection device generates a skeleton image of the observation target person from the captured image of the observation target person, and also generates an observation image of the observation target person based on the skeleton image.
The terminal device displays the observation image of the observation target person, and displays the observation image.
The aspect according to any one of claims 1 to 13, wherein the observation image is an image that does not have a photographed image of the observation target person itself and has the skeleton image of the observation target person. Detection system.
前記観察画像は、人物が存在しない背景画像に前記骨格画像を合成することによって生成された画像であることを特徴とする、請求項14に記載の検知システム。 The detection system according to claim 14, wherein the observation image is an image generated by synthesizing the skeleton image with a background image in which a person does not exist. 前記背景画像は、人物が存在しない撮影画像に基づいて生成されることを特徴とする、請求項15に記載の検知システム。 The detection system according to claim 15, wherein the background image is generated based on a captured image in which a person does not exist. 前記端末装置は、所定条件が成立する場合、前記観察対象人物に関する撮影画像を、前記観察画像に代えて或いは前記観察画像とともに表示することを特徴とする、請求項14から請求項16のいずれかに記載の検知システム。 One of claims 14 to 16, wherein the terminal device displays a photographed image of the person to be observed in place of the observation image or together with the observation image when a predetermined condition is satisfied. The detection system described in. 前記所定条件は、前記検知対象事象が検知されたこと、を含むことを特徴とする、請求項17に記載の検知システム。 The detection system according to claim 17, wherein the predetermined condition includes the detection of the event to be detected. 前記所定条件は、複数の発報レベルのうち前記検知対象事象に対して設定された発報レベルが所定レベル以上の重要度を有すること、を含むことを特徴とする、請求項18に記載の検知システム。 The predetermined condition according to claim 18, wherein the notification level set for the detection target event has a importance of a predetermined level or higher among a plurality of notification levels. Detection system. 観察対象人物に関する検知対象事象の設定操作を受け付ける受付部と、
前記検知対象事象を検知する検知装置に対して前記設定操作に基づく設定情報を送信する制御部と、
を備えることを特徴とする端末装置。
The reception unit that accepts the setting operation of the detection target event related to the observation target person,
A control unit that transmits setting information based on the setting operation to a detection device that detects the event to be detected, and a control unit.
A terminal device characterized by being provided with.
a)観察対象人物に関する検知対象事象の設定操作を受け付けるステップと、
b)前記検知対象事象を検知する検知装置に対して前記設定操作に基づく設定情報を送信するステップと、
をコンピュータに実行させるためのプログラム。
a) The step of accepting the setting operation of the detection target event related to the observation target person,
b) A step of transmitting setting information based on the setting operation to the detection device that detects the detection target event, and
A program that lets your computer run.
観察対象人物に関する検知対象事象を検知する検知方法であって、
a)観察対象人物に関する検知対象事象の設定操作を受け付けるステップと、
b)前記設定操作による設定内容に基づき前記検知対象事象を検知するステップと、
を備えることを特徴とする、検知方法。
It is a detection method that detects the detection target event related to the observation target person.
a) The step of accepting the setting operation of the detection target event related to the observation target person,
b) A step of detecting the event to be detected based on the setting contents of the setting operation, and
A detection method characterized by being provided with.
観察対象人物に関する検知対象事象の設定操作を受け付ける受付部と、
前記設定操作による設定内容に基づき前記検知対象事象を検知する制御部と、
を備えることを特徴とする検知装置。
The reception unit that accepts the setting operation of the detection target event related to the observation target person,
A control unit that detects the event to be detected based on the setting contents of the setting operation, and
A detection device characterized by being equipped with.
観察対象人物に関する検知対象事象を検知する検知装置と、
前記観察対象人物に関する観察画像を表示する表示装置と、
を備え、
前記検知装置は、前記観察対象人物の撮影画像から前記観察対象人物の骨格画像を生成するとともに、前記骨格画像に基づいて前記観察対象人物に関する前記観察画像を生成し、
前記観察画像は、前記観察対象人物自体の撮影画像を有さず且つ前記観察対象人物の前記骨格画像を有する画像であることを特徴とする、検知システム。
A detection device that detects the detection target event related to the observation target person,
A display device that displays an observation image of the person to be observed, and
Equipped with
The detection device generates a skeleton image of the observation target person from the captured image of the observation target person, and also generates the observation image of the observation target person based on the skeleton image.
The detection system, characterized in that the observation image is an image having no captured image of the observation target person itself and having the skeleton image of the observation target person.
観察対象人物に関する検知対象事象を検知する検知システムにおける表示部での表示を制御する表示制御装置であって、
前記観察対象人物の撮影画像から前記観察対象人物の骨格画像を生成するとともに、前記骨格画像に基づいて前記観察対象人物に関する観察画像を生成し、前記観察対象人物に関する前記観察画像を前記表示部に表示させる制御部、
を備え、
前記観察画像は、前記観察対象人物自体の撮影画像を有さず且つ前記観察対象人物の前記骨格画像を有する画像であることを特徴とする、表示制御装置。
It is a display control device that controls the display on the display unit in the detection system that detects the detection target event related to the observation target person.
A skeletal image of the observation target person is generated from the captured image of the observation target person, an observation image of the observation target person is generated based on the skeleton image, and the observation image of the observation target person is displayed on the display unit. Control unit to display,
Equipped with
The display control device, characterized in that the observation image is an image having no captured image of the observation target person itself and having the skeleton image of the observation target person.
JP2020154870A 2020-09-15 2020-09-15 Detection system, detection device, terminal device, display control device, detection method, and program Pending JP2022048830A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020154870A JP2022048830A (en) 2020-09-15 2020-09-15 Detection system, detection device, terminal device, display control device, detection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020154870A JP2022048830A (en) 2020-09-15 2020-09-15 Detection system, detection device, terminal device, display control device, detection method, and program

Publications (1)

Publication Number Publication Date
JP2022048830A true JP2022048830A (en) 2022-03-28

Family

ID=80844280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020154870A Pending JP2022048830A (en) 2020-09-15 2020-09-15 Detection system, detection device, terminal device, display control device, detection method, and program

Country Status (1)

Country Link
JP (1) JP2022048830A (en)

Similar Documents

Publication Publication Date Title
US11544953B2 (en) Methods and systems for identifying the crossing of a virtual barrier
JP7138931B2 (en) Posture analysis device, posture analysis method, and program
JP2019192273A (en) Notification system
JP2019046481A (en) Operation information processing device
US10446003B2 (en) System and methods for monitoring and entrapment prevention for a person disposed in a bed
EP3570771B1 (en) Augmented reality for radiation dose monitoring
JP2021506052A (en) Communication methods and systems
KR20180127255A (en) Prediction system using a thermal imagery camera and fall prediction method using a thermal imagery camera
WO2020145380A1 (en) Care recording device, care recording system, care recording program, and care recording method
JP6579411B1 (en) Monitoring system and monitoring method for care facility or hospital
KR102258832B1 (en) Silver care system
US11513007B2 (en) Notification control device, notification control system, and notification control method
JP2022010581A (en) Detection device, detection method, image processing method and program
JP7243725B2 (en) Target object detection program and target object detection device
JP2022048830A (en) Detection system, detection device, terminal device, display control device, detection method, and program
JP2021194468A (en) Information processing device, watching system and control program
US20160188188A1 (en) Patient user interface for controlling a patient display
JPWO2020003616A1 (en) Report output program, report output method and report output device
JP2021509298A (en) Systems and methods for retrieving data associated with damage
JP7251546B2 (en) Report output program, report output method, and report output device
JP7314939B2 (en) Image recognition program, image recognition device, learning program, and learning device
JP2023000589A (en) Information processing system, information processor, control method, and control program
WO2020241021A1 (en) Care management method, program, care management device, and care management system
Gowramma et al. Eye Blink to Voice Communication Aid for Paralyzed Patients
JP2023108852A (en) Display device, display system, display method, and display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240423