WO2021192398A1 - Behavior recognition server and behavior recognition method - Google Patents

Behavior recognition server and behavior recognition method Download PDF

Info

Publication number
WO2021192398A1
WO2021192398A1 PCT/JP2020/042056 JP2020042056W WO2021192398A1 WO 2021192398 A1 WO2021192398 A1 WO 2021192398A1 JP 2020042056 W JP2020042056 W JP 2020042056W WO 2021192398 A1 WO2021192398 A1 WO 2021192398A1
Authority
WO
WIPO (PCT)
Prior art keywords
behavior
sensor information
observed person
sensor
unit
Prior art date
Application number
PCT/JP2020/042056
Other languages
French (fr)
Japanese (ja)
Inventor
佐知 田中
健太郎 佐野
大平 昭義
卓男 姚
浩平 京谷
優佑 円谷
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to CN202080066478.8A priority Critical patent/CN114424263B/en
Publication of WO2021192398A1 publication Critical patent/WO2021192398A1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/08Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using communication transmission lines

Definitions

  • the change detection unit 18 compares the current behavior pattern of FIG. 9 with the normal behavior pattern of FIG. 10 for each behavior (S111), and finds the following abnormalities in the current behavior pattern of the observed person 2u. Extract actions. ⁇ I didn't get up until 9 o'clock and there was no movement indoors. ⁇ Meal time is different from usual and meal time is long. ⁇ I am temporarily returning home at an unexpected time (15:00) while I am out. ⁇ Bathing time is different and bathing time is long.
  • the change detection unit 18 detects the abnormality of the observed person 2u as illustrated below.
  • the normal behavior defined in the normal behavior pattern is not currently performed in the behavior pattern.
  • Unnatural behaviors that are not in the normal behavior pattern have been performed in the current behavior pattern.
  • the normal behavior defined in the normal behavior pattern was also performed in the current behavior pattern, but it was different from the time defined in the normal behavior pattern.
  • the normal behavior defined in the normal behavior pattern was also performed in the current behavior pattern, but the length was different from the length defined in the normal behavior pattern.
  • the behavioral speed of the observed person 2u in the current behavioral pattern deviated from (greatly lower than) the behavioral speed defined as the normal behavioral pattern.
  • the process of acquiring the behavioral speed of the observed person 2u from the current behavioral pattern in (5) includes a method exemplified below. -Measure the moving speed between the washroom and the kitchen from the operation interval between the washing machine and the refrigerator 2a (range, IH). -Measure the reaction speed from changes in the behavior (opening / closing speed, opening / closing interval, opening / closing time, etc.) related to the door of the refrigerator 2a. ⁇ Measure the action speed from the interval between the opening and closing of the entrance door and the ON / OFF of the lighting. -Measure the walking speed during cleaning from the acceleration of the vacuum cleaner 2b.
  • FIG. 11 is a screen view showing a display screen of the observer terminal 3 when the current behavior pattern is normal (S111, No).
  • the change detection unit 18 informs the observer 3u of the healthy state of the observer 2u by displaying a display screen including the following display contents on the observer terminal 3.
  • -Message column 221 showing the outline of the current behavior pattern ⁇
  • Time chart column 222 of current behavior pattern
  • Statistical data column 224 of the difference between this week and last week -Statistical data column 225 of the difference from the history so far
  • FIG. 12 is a screen view showing a display screen (S112) of the observer terminal 3 when the current behavior pattern is abnormal (S111, Yes).
  • the room names such as the bedroom and the living room and the sensor information (temperature, humidity, illuminance) measured by the environmental sensor for each room are displayed for each room of the home 2h.
  • the estimated position 212 of the observed person 2u and the warning message 213 (emergency signal) indicating the abnormal behavior of the observed person 2u are also displayed in the floor plan column 211.
  • the observer 3u can easily grasp the details of the abnormality of the observed person 2u such as a person falling down.
  • the present embodiment is compared with the method of constructing a living behavior database as in Patent Document 1.
  • Patent Document 1 it takes time and effort to manually input the rule of which sensor information affects the behavior and how much.
  • the rule of which sensor information affects the behavior to what extent is automatically discovered by machine learning, so that a human can handle the rule. You can save the trouble of inputting in the work. Furthermore, even rules that humans did not know are automatically discovered by machine learning, improving the accuracy of behavior recognition.
  • control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.
  • the communication means for connecting each device is not limited to the wireless LAN, and may be changed to a wired LAN or other communication means.

Abstract

A behavior recognition server (1) comprises: a sensor information acquisition unit (11) that acquires, from a group of sensors (2) for detecting a person being observed, sensor information which indicates detection results from each of the sensors (2); an image conversion unit (13) that creates images of the sensor information of each sensor by writing values, which are in an arbitrary range based on the values of sensor information of each sensor, to regions for sensor information of each sensor within images specified by layout data (13L); and a behavior inference unit (14) that, by inputting the images of the sensor information which have been generated by the image conversion unit (13) into an inference model (14m) in which correspondence data associating images of sensor information with behaviors of the person being observed has been prepared in advance, determines the behavior of the person being observed output from the inference model (14m).

Description

行動認識サーバ、および、行動認識方法Behavior recognition server and behavior recognition method
 本発明は、行動認識サーバ、および、行動認識方法に関する。 The present invention relates to a behavior recognition server and a behavior recognition method.
 近年、インターネットに接続された高性能なセンサが、IоT(Internet of Things)機器として普及している。そして、家庭内などの環境に設置した多数のセンサから大量のセンサ情報を分析することで、被観察者の見守りサービスを提供する試みが行われている。 In recent years, high-performance sensors connected to the Internet have become widespread as IоT (Internet of Things) devices. Then, an attempt is made to provide a monitoring service for the observed person by analyzing a large amount of sensor information from a large number of sensors installed in an environment such as a home.
 例えば、特許文献1には、家庭内に設置された存在検知センサと、動作検知センサとを組み合わせて、生活行動を推定するシステムが記載されている。推定された現在の生活行動は、事前に用意された生活行動パターンデータベースと比較することで、異常度が判定される。 For example, Patent Document 1 describes a system that estimates living behavior by combining an existence detection sensor installed in a home and a motion detection sensor. The degree of abnormality is determined by comparing the estimated current living behavior with the living behavior pattern database prepared in advance.
特開2002-352352号公報Japanese Unexamined Patent Publication No. 2002-352352
 被観察者の見守りサービスを提供するときには、現在の被観察者の行動が正常か異常かを高精度に認識する必要がある。正常な行動なのに警告を発したり、異常な行動を見逃したりしては、見守りサービスの質が落ちてしまうためである。よって、認識精度を向上させるためには、同時刻に計測された複数種類のセンサ情報から、被観察者の行動を一意に特定するフェーズが重要となる。 When providing the observer watching service, it is necessary to recognize with high accuracy whether the current behavior of the observer is normal or abnormal. This is because the quality of the watching service deteriorates if a warning is issued or an abnormal behavior is overlooked even though the behavior is normal. Therefore, in order to improve the recognition accuracy, it is important to have a phase of uniquely identifying the behavior of the observed person from a plurality of types of sensor information measured at the same time.
 なお、個々のセンサ情報は、単体で用いるだけでは「被観察者がリビングにいる」、「被観察者が座っている」などの基本的な情報しか得られない。よって、複数のセンサ情報を組み合わせることで、「リビングで食事をしている」、「リビングでテレビを見ている」などの被観察者の詳細な行動を特定する必要がある。 Note that individual sensor information can only obtain basic information such as "the observer is in the living room" and "the observer is sitting" when used alone. Therefore, it is necessary to identify the detailed behavior of the observed person such as "eating in the living room" and "watching TV in the living room" by combining a plurality of sensor information.
 特許文献1では、センサ情報から生活行動を特定する処理として、生活行動データベースをあらかじめ用意しておく必要があり、その用意の手間が管理者の負担になっていた。例えば、生活行動データベースを構築するために、統計パラメータや、被観察者からの質問回答データを事前に用意しなくてはいけないため、そのコストが負担となっていた。 In Patent Document 1, it is necessary to prepare a living behavior database in advance as a process for identifying living behavior from sensor information, and the trouble of preparing the database is a burden on the administrator. For example, in order to construct a living behavior database, statistical parameters and question-and-answer data from the observer must be prepared in advance, which is a burden.
 そこで、本発明は、被観察者の行動を高精度かつ低コストで認識することを、主な課題とする。 Therefore, the main subject of the present invention is to recognize the behavior of the observed person with high accuracy and low cost.
 前記課題を解決するために、本発明の行動認識サーバは、以下の特徴を有する。
 本発明は、被観察者を検知するセンサの集合から、前記センサごとの検知結果を示すセンサ情報を取得するセンサ情報取得部と、
 前記各センサ情報の値に基づいた任意の範囲の値を、レイアウトデータで規定された画像内の前記各センサ情報の領域に書き込むことで前記各センサ情報を画像化する画像変換部と、
 前記センサ情報の画像と前記被観察者の行動との対応データが事前に準備された推論モデルに対して、前記画像変換部が作成した前記センサ情報の画像を入力することにより、前記推論モデルから出力される前記被観察者の行動を求める行動推論部と、を有することを特徴とする。
 その他の手段は、後記する。
In order to solve the above problems, the behavior recognition server of the present invention has the following features.
The present invention includes a sensor information acquisition unit that acquires sensor information indicating a detection result for each sensor from a set of sensors that detect an observed person.
An image conversion unit that images each sensor information by writing a value in an arbitrary range based on the value of each sensor information in the area of each sensor information in the image defined by the layout data.
By inputting the image of the sensor information created by the image conversion unit into the inference model in which the correspondence data between the image of the sensor information and the behavior of the observed person is prepared in advance, the inference model can be used. It is characterized by having a behavior inference unit that obtains the output behavior of the observed person.
Other means will be described later.
 本発明によれば、被観察者の行動を高精度かつ低コストで認識することができる。 According to the present invention, the behavior of the observed person can be recognized with high accuracy and at low cost.
本発明の一実施形態に関する行動認識システムの構成図である。It is a block diagram of the behavior recognition system which concerns on one Embodiment of this invention. 本発明の一実施形態に関する行動認識システムのハードウェア構成図である。It is a hardware block diagram of the action recognition system which concerns on one Embodiment of this invention. 本発明の一実施形態に関する行動認識サーバの詳細を示す構成図である。It is a block diagram which shows the detail of the behavior recognition server which concerns on one Embodiment of this invention. 本発明の一実施形態に関する行動認識サーバの処理を示すフローチャートである。It is a flowchart which shows the process of the action recognition server which concerns on one Embodiment of this invention. 本発明の一実施形態に関する画像化処理に使用するレイアウトデータの一例を示す説明図である。It is explanatory drawing which shows an example of the layout data used for the imaging process which concerns on one Embodiment of this invention. 本発明の一実施形態に関する図5のレイアウトデータの説明用テーブルである。It is a table for explaining the layout data of FIG. 5 concerning one Embodiment of this invention. 本発明の一実施形態に関する図5のレイアウトデータに対して、図6の「値」を書き込んだ結果の画像データの説明図である。It is explanatory drawing of the image data of the result of writing the "value" of FIG. 6 with respect to the layout data of FIG. 5 concerning one Embodiment of this invention. 本発明の一実施形態に関する図5のレイアウトデータに対して、図7とは別の行動を書き込んだ結果の画像データの説明図である。It is explanatory drawing of the image data as a result of writing the action different from FIG. 7 with respect to the layout data of FIG. 5 concerning one Embodiment of this invention. 本発明の一実施形態に関するデータベースに格納される通常行動パターンの一例を示す説明図である。It is explanatory drawing which shows an example of the normal behavior pattern stored in the database which concerns on one Embodiment of this invention. 本発明の一実施形態に関する現在行動蓄積部に格納される現在行動パターンの一例を示す説明図である。It is explanatory drawing which shows an example of the present action pattern stored in the present action accumulation part with respect to one Embodiment of this invention. 本発明の一実施形態に関する現在行動パターンが正常なときの表示画面を示す画面図である。It is a screen view which shows the display screen when the present behavior pattern about one Embodiment of this invention is normal. 本発明の一実施形態に関する現在行動パターンが異常なときの表示画面を示す画面図である。It is a screen view which shows the display screen when the present behavior pattern which concerns on one Embodiment of this invention is abnormal.
 以下、本発明の一実施形態について、図面を参照しながら説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
 図1は、行動認識システムの構成図である。
 行動認識システムは、自宅2hで生活する被観察者2uの行動パターンを、観察者3uが観察者端末3を用いて遠隔から見守るように構成される。「行動パターン」とは、各時刻での被観察者2uの「行動」を時系列につなげた一連のパターンである。
 行動認識サーバ1は、各種センサ2から取得したセンサ情報をもとに被観察者2uの行動パターンを認識し、その認識結果を観察者端末3に通知する。これにより、観察者端末3の表示画面を見た観察者3uが、被観察者2uの行動パターンを把握できる。
 被観察者2uは例えば要介護者であり、観察者3uは例えば要介護者の家族である。または、自宅2hの代わりに病院や介護施設に行動認識システムを導入してもよく、その場合、観察者3uは医師やケアマネージャとなる。
FIG. 1 is a configuration diagram of an action recognition system.
The behavior recognition system is configured so that the observer 3u remotely watches the behavior pattern of the observer 2u living at home 2h using the observer terminal 3. The "behavior pattern" is a series of patterns in which the "behavior" of the observed person 2u at each time is connected in chronological order.
The behavior recognition server 1 recognizes the behavior pattern of the observed person 2u based on the sensor information acquired from various sensors 2, and notifies the observer terminal 3 of the recognition result. As a result, the observer 3u who sees the display screen of the observer terminal 3 can grasp the behavior pattern of the observer 2u.
The observer 2u is, for example, a care recipient, and the observer 3u is, for example, the family of the care recipient. Alternatively, a behavior recognition system may be introduced in a hospital or a long-term care facility instead of the home 2h, in which case the observer 3u becomes a doctor or a care manager.
 自宅2hには、被観察者2uの行動を監視するためのさまざまなセンサ2がネットワークに接続されている。センサ2は、例えば、冷蔵庫2aや自律移動型の掃除機2bなどの家電機器に組み込まれたセンサでもよいし、人感センサ2cなどの単体のセンサでもよい。
 なお、人感センサ2cなどのセンサ2は、その測定領域が部屋の入口に対向しない方向に設置されていることが望ましい。この設置により、人感センサ2cが部屋外の廊下をすれ違う被観察者2uとは別人を誤検出してしまうことを抑制できる。
At home 2h, various sensors 2 for monitoring the behavior of the observed person 2u are connected to the network. The sensor 2 may be, for example, a sensor incorporated in a home electric appliance such as a refrigerator 2a or an autonomous mobile vacuum cleaner 2b, or a single sensor such as a motion sensor 2c.
It is desirable that the sensor 2 such as the motion sensor 2c is installed in a direction in which the measurement area does not face the entrance of the room. By this installation, it is possible to prevent the motion sensor 2c from erroneously detecting a person different from the observed person 2u passing through the corridor outside the room.
 図2は、行動認識システムのハードウェア構成図である。
 センサ2は、検知部122が検知したセンサ情報などを他装置に通知する通信部121と、被観察者2uを検知する検知部122と、観察者3uからのメッセージなどを被観察者2uに報知する報知部123とを有する。なお、報知部123はセンサ2の中に組み込んでもよいし、センサ2とは別の機器(ディスプレイ、スピーカなど)として構成してもよい。
 行動認識サーバ1は、センサ2からセンサ情報を受け、そのセンサ情報からの認識結果を観察者端末3に通知する通信部111と、被観察者2uの行動パターンを認識する制御部112と、制御部112の処理に用いられるデータを格納する記憶部113とを有する。
 観察者端末3は、被観察者2uの認識結果を受信する通信部131と、被観察者2uの認識結果を観察者3uに報知する報知部132と、被観察者2uからのメッセージなどを入力させる入力部133とを有する。
FIG. 2 is a hardware configuration diagram of the behavior recognition system.
The sensor 2 notifies the observer 2u of a communication unit 121 that notifies other devices of sensor information detected by the detection unit 122, a detection unit 122 that detects the observer 2u, and a message from the observer 3u. It has a notification unit 123 and the like. The notification unit 123 may be incorporated in the sensor 2 or may be configured as a device (display, speaker, etc.) different from the sensor 2.
The action recognition server 1 controls the communication unit 111 that receives the sensor information from the sensor 2 and notifies the observer terminal 3 of the recognition result from the sensor information, the control unit 112 that recognizes the behavior pattern of the observer 2u, and the control unit 112. It has a storage unit 113 for storing data used for processing of the unit 112.
The observer terminal 3 inputs a communication unit 131 that receives the recognition result of the observer 2u, a notification unit 132 that notifies the observer 3u of the recognition result of the observer 2u, a message from the observer 2u, and the like. It has an input unit 133 to be operated.
 行動認識サーバ1は演算装置(制御部112)としてのCPU(Central Processing Unit)、主記憶装置としてのメモリ、および、外部記憶装置(記憶部113)としてのハードディスクを有する計算機として構成される。
 この計算機は、CPUが、メモリ上に読み込んだプログラム(アプリケーションや、その略のアプリとも呼ばれる)を実行することにより、各処理部により構成される制御部(制御手段)を動作させる。
The action recognition server 1 is configured as a computer having a CPU (Central Processing Unit) as an arithmetic unit (control unit 112), a memory as a main storage device, and a hard disk as an external storage device (storage unit 113).
In this computer, the CPU operates a control unit (control means) composed of each processing unit by executing a program (also called an application or an abbreviation for application) read in the memory.
 図3は、行動認識サーバ1の詳細を示す構成図である。
 行動認識サーバ1の制御部112(図2)は、センサ情報取得部11と、時刻情報取得部12と、画像変換部13と、行動推論部14と、現在行動特定部15と、現在行動蓄積部16と、変化検知部18とを有する。
 行動認識サーバ1の記憶部113(図2)は、レイアウトデータ13Lと、推論モデル14mと、データベース17とを格納する。
 以下、図3の構成要素の詳細について、図4のフローチャートに沿って説明する。
FIG. 3 is a configuration diagram showing details of the action recognition server 1.
The control unit 112 (FIG. 2) of the action recognition server 1 includes a sensor information acquisition unit 11, a time information acquisition unit 12, an image conversion unit 13, an action inference unit 14, a current action identification unit 15, and a current action accumulation. It has a unit 16 and a change detection unit 18.
The storage unit 113 (FIG. 2) of the action recognition server 1 stores the layout data 13L, the inference model 14m, and the database 17.
Hereinafter, the details of the components of FIG. 3 will be described with reference to the flowchart of FIG.
 図4は、行動認識サーバ1の処理を示すフローチャートである。
 センサ情報取得部11は、自宅2hに設置されたセンサ2(冷蔵庫2a、掃除機2b、人感センサ2c)からのセンサ情報を取得する(S101)。センサ情報は、センサ2の種類ごとにデータ形式が異なることもある。
 時刻情報取得部12は、S101で取得したセンサ情報の計測時刻を示す時刻情報を取得する(S102)。時刻情報取得部12は、センサ2がセンサ情報にタイムスタンプを含めている場合はその時刻を取得し、タイムスタンプがない場合はセンサ情報の受信時刻を取得する。
FIG. 4 is a flowchart showing the processing of the action recognition server 1.
The sensor information acquisition unit 11 acquires sensor information from the sensors 2 (refrigerator 2a, vacuum cleaner 2b, motion sensor 2c) installed in the home 2h (S101). The data format of the sensor information may differ depending on the type of the sensor 2.
The time information acquisition unit 12 acquires time information indicating the measurement time of the sensor information acquired in S101 (S102). The time information acquisition unit 12 acquires the time when the sensor 2 includes the time stamp in the sensor information, and acquires the reception time of the sensor information when there is no time stamp.
 画像変換部13は、S101で取得したセンサ情報と、S102で取得した時刻情報とを1枚の画像として画像化する(S103)。
 なお、画像変換部13が画像化するときに参照するレイアウトデータ13Lには、あらかじめどのセンサ2のセンサ情報を画像内のどの部分に配置するかという画像内のレイアウトに関する情報が定義されている(図5,図6)。
The image conversion unit 13 images the sensor information acquired in S101 and the time information acquired in S102 as one image (S103).
In the layout data 13L that the image conversion unit 13 refers to when imaging, information regarding the layout in the image, such as which part of the image the sensor information of which sensor 2 is to be arranged, is defined in advance ( 5 and 6).
 行動推論部14は、センサ情報を示す画像データを推論モデル14mに入力することで、センサ情報の時刻情報における被観察者2uの行動を推論する(S104)。この推論処理のために、あらかじめ画像データを入力すると、対応する行動を出力する推論モデル14mが事前に準備されている。推論モデル14mは、例えば、深層学習などの機械学習アルゴリズムによって訓練されていてもよいし、下記に例示する推定内容から推論モデル14mの方程式を立ててもよい。
 ・家の中の人感センサが全て反応しなければ外出中であると推定される。
 ・夜間に寝室で人感センサが反応、かつ照度が低ければ睡眠中であると推定される。
 現在行動特定部15は、行動推論部14が推論した各時刻での被観察者2uの「行動」を時系列につなげた「現在行動パターン」を現在行動蓄積部16に格納する(S105)。
The behavior inference unit 14 infers the behavior of the observed person 2u in the time information of the sensor information by inputting the image data indicating the sensor information into the inference model 14m (S104). For this inference process, an inference model 14m that outputs the corresponding behavior when image data is input in advance is prepared in advance. The inference model 14m may be trained by a machine learning algorithm such as deep learning, or the equation of the inference model 14m may be established from the estimation contents illustrated below.
・ If all the motion sensors in the house do not respond, it is estimated that you are out.
・ If the motion sensor responds in the bedroom at night and the illuminance is low, it is estimated that you are sleeping.
The current behavior identification unit 15 stores the “current behavior pattern” in which the “behavior” of the observed person 2u at each time inferred by the behavior inference unit 14 is connected in chronological order in the current behavior storage unit 16 (S105).
 変化検知部18は、現在行動パターンが事前にデータベース17に登録された通常行動パターンからの変化(逸脱)を検知したときには(S111,Yes)、被観察者2uの行動パターンに異常が発生してしまったので、その変化(異常)を観察者端末3を介して観察者3uに報知する(S112)。また、S112の出力先は、顧客環境(観察者端末3)に限らず、データベースシステムやクラウドシステムなどの他システムに出力してもよい。
 一方、通常行動パターンからの変化(逸脱)を検知しないときには、(S111,No)、変化検知部18は、現在行動パターンをそのまま通常行動パターンとしてデータベース17に登録し(S113)、処理をS101に戻す。
When the change detection unit 18 detects a change (deviation) from the normal behavior pattern registered in the database 17 in advance (S111, Yes), an abnormality occurs in the behavior pattern of the observed person 2u. Since it has been done, the change (abnormality) is notified to the observer 3u via the observer terminal 3 (S112). Further, the output destination of S112 is not limited to the customer environment (observer terminal 3), and may be output to another system such as a database system or a cloud system.
On the other hand, when the change (deviation) from the normal behavior pattern is not detected (S111, No), the change detection unit 18 registers the current behavior pattern as it is in the database 17 as the normal behavior pattern (S113), and processes the process in S101. return.
 以下、図5~図8を参照して、画像変換部13の処理(S103)の具体例を説明する。
 図5は、画像変換部13が画像化処理に使用するレイアウトデータ13Lの一例を示す説明図である。レイアウトデータ13Lは、縦方向に12マス、横方向に12マスの正方形の画像データ内の各位置に書き込むデータ内容が、「T」や「ACC1」などの図中記号として配置されている。なお、「マス」とは、データ内容の書き込み先となる画像内の領域を細分化した最小単位であり、センサ情報や時刻情報には、最低1マスの領域が割り当てられる。また、画像データ内の12×12のマスは例示であり、それよりもマス数は少なくても多くてもよい。
Hereinafter, a specific example of the process (S103) of the image conversion unit 13 will be described with reference to FIGS. 5 to 8.
FIG. 5 is an explanatory diagram showing an example of layout data 13L used by the image conversion unit 13 for the imaging process. In the layout data 13L, the data contents to be written at each position in the square image data of 12 squares in the vertical direction and 12 squares in the horizontal direction are arranged as symbols in the figure such as "T" and "ACC1". The "mass" is the smallest unit in which the area in the image to which the data content is written is subdivided, and at least one area is assigned to the sensor information and the time information. Further, the 12 × 12 squares in the image data are examples, and the number of squares may be smaller or larger than that.
 図6は、図5のレイアウトデータ13Lの説明用テーブルである。例えば、図5の最上部「T」は、図6の第1行「時刻」の図中記号「T」に対応する。なお、図5の最上部「T」の場所に配置される画像データは、時刻情報取得部12が取得した時刻データである。つまり、図6に示す1枚の画像は、各場所に配置されたセンサ2から同じ計測時刻(「T」の時刻データ)において計測されたセンサ情報の集合を、1つに集約して可視化した結果である。 FIG. 6 is an explanatory table of the layout data 13L of FIG. For example, the top "T" in FIG. 5 corresponds to the symbol "T" in the figure of the first line "time" in FIG. The image data arranged at the position of the uppermost portion "T" in FIG. 5 is the time data acquired by the time information acquisition unit 12. That is, one image shown in FIG. 6 is visualized by aggregating a set of sensor information measured at the same measurement time (time data of "T") from the sensors 2 arranged at each location. The result.
 図6のレイアウトデータ13Lは、同じ種類のセンサ情報を画像内の近接にまとめて配置する一例である。一方、センサの設置場所(部屋)が同じセンサ情報ごとに、画像内の近接にまとめて配置してもよい。
 なお、センサ2の種類は、例えば、加速度センサ、(ドア)開閉センサなどの被観察者2uの動作を検出するものや、人感センサなどの被観察者2uの存在を検出するものや、湿度センサなどの自宅2hの環境を測定するものが挙げられる。
The layout data 13L of FIG. 6 is an example of arranging the same type of sensor information in close proximity in an image. On the other hand, sensor information having the same sensor installation location (room) may be arranged close to each other in the image.
The types of sensors 2 include, for example, an acceleration sensor, a (door) open / close sensor, and the like that detect the operation of the observed person 2u, a motion sensor, and the like that detect the presence of the observed person 2u, and humidity. Examples include sensors and the like that measure the environment of the home 2 hours.
 説明用テーブルの第3列「マス数」とは、領域の大きさを示す。なお、領域が表現可能なデータ量よりも書き込むデータ量が少ないときには、領域が余ってしまう。そのときには、画像変換部13は、同じデータ内容を複数の場所にコピーして書き込むことで、画像内のマス数を埋める。 The third column "number of squares" in the explanation table indicates the size of the area. When the amount of data to be written is smaller than the amount of data that can be expressed in the area, the area is left over. At that time, the image conversion unit 13 fills the number of cells in the image by copying and writing the same data content to a plurality of locations.
 なお、レイアウトデータ13Lのマス数は書き込む情報間の重みを示し、多くのマス数が割り当てられるほど行動への影響が大きい。このマス数の配分は、例えば、以下のポリシP1により決定される。
 ・昼間は外出し夜は寝るなど、人間の生活は時刻によって取る行動が習慣化されているので、時刻情報「T」は、他のセンサ情報よりも多くのマス数(24マス)を配分する。
 ・人間は居る場所によって取り得る行動がある程度絞り込まれるので、人感センサ「HM1~HM5」のセンサ情報(居場所情報)は他のセンサ情報よりも多くのマス数(12マス)を配分する。
 ・平日は出勤し休日は家で休むなど、人間の生活は曜日によっても同じ行動を取る習慣があるので、曜日情報「DoW」は、自宅2hの環境を測定するセンサ情報よりも多くのマス数(12マス)を配分する。
 ・人間の動作を検知するセンサ情報として、加速度センサ「ACC1~ACC4」および開閉センサ「OC1~OC3」は、自宅2hの環境を測定するセンサ情報よりも多くのマス数(4マス)を配分する。
 以上の例示したポリシP1では、各部屋に人感センサを取り付けて複数の部屋がある間取りで「人がどこにいるか=何をしているか」を主に読み取る一例である。
The number of cells in the layout data 13L indicates the weight between the information to be written, and the larger the number of cells is assigned, the greater the influence on the behavior. The distribution of the number of squares is determined by, for example, the following policy P1.
・ Since it is customary for humans to take actions depending on the time of day, such as going out during the day and sleeping at night, the time information "T" allocates a larger number of cells (24 cells) than other sensor information. ..
-Since the actions that humans can take are narrowed down to some extent depending on where they are, the sensor information (location information) of the motion sensors "HM1 to HM5" allocates a larger number of cells (12 cells) than other sensor information.
・ Since human life has a habit of taking the same actions depending on the day of the week, such as going to work on weekdays and resting at home on holidays, the day of the week information "DoW" has more cells than the sensor information that measures the environment of home 2h. Allocate (12 squares).
-As sensor information for detecting human movements, the acceleration sensors "ACC1 to ACC4" and the open / close sensors "OC1 to OC3" allocate a larger number of cells (4 cells) than the sensor information for measuring the environment of the home 2h. ..
The above-exemplified policy P1 is an example in which a motion sensor is attached to each room and "where a person is = what is being done" is mainly read in a floor plan having a plurality of rooms.
 一方、検知したい行動や、間取りの種類によって、ポリシ(必要なセンサやその重要度)を適宜変更してもよい。
 例えば、ポリシP1では環境センサの重要度は低かったが、以下のように、環境センサの重要度を高くするポリシP2を用いてもよい。
 ・温度センサの感度を上げると、エアコンのON/OFFを温度センサから読み取ることができる。
 ・浴室付近の湿度センサの感度を上げると、湿度の変化により浴室ドアの開閉を検知できる。
 ・行動と照度が結びついている場合(夜寝るときに電気を消す、朝カーテンを開ける等)は照度から行動を得られる。
On the other hand, the policy (necessary sensor and its importance) may be appropriately changed depending on the action to be detected and the type of floor plan.
For example, although the importance of the environmental sensor was low in the policy P1, the policy P2 in which the importance of the environmental sensor is increased may be used as described below.
・ By increasing the sensitivity of the temperature sensor, the ON / OFF of the air conditioner can be read from the temperature sensor.
・ By increasing the sensitivity of the humidity sensor near the bathroom, it is possible to detect the opening and closing of the bathroom door by changing the humidity.
・ If the action and the illuminance are linked (turning off the lights when sleeping at night, opening the curtain in the morning, etc.), the action can be obtained from the illuminance.
 別の例として、ポリシP1では人感センサの重要度が高かったが、以下のように、人感センサ以外のセンサから人の位置を求めるポリシP3を用いてもよい。
 ・ワンルームの間取りなどで人感センサの数が多く設置できない場合、家電の操作情報の方が人感センサよりも人の位置を詳細に読み取れることがある。
 ・冷蔵庫のドアが操作されている間は冷蔵庫の前に人がいる、という情報を得られる。
As another example, the motion sensor was of high importance in the policy P1, but the policy P3 that obtains the position of a person from a sensor other than the motion sensor may be used as described below.
-If the number of motion sensors is too large to install due to the floor plan of a studio, the operation information of home appliances may be able to read the position of a person in more detail than the motion sensors.
・ You can get information that there is a person in front of the refrigerator while the refrigerator door is being operated.
 このように、レイアウトデータ13Lは、ポリシP1~P3などに従って規定される。例えばポリシP1では、画像内の領域の大きい順に、センサ情報の時刻情報「T」、被観察者の居場所を示すセンサ情報「HM1~HM5」、被観察者の動作を示すセンサ情報「ACC1~ACC4」、被観察者の生活環境を測定するセンサ情報「TMP」とした領域の大きさが規定される。
 これにより、各センサ情報の行動への影響度合いの経験則を領域の大きさとして推論モデル14mの入力データに反映させることで、行動認識精度を向上できる。今回は、時刻情報と居場所情報が他の情報よりも行動認識に与える影響が大きい経験則を用いた。
In this way, the layout data 13L is defined according to policies P1 to P3 and the like. For example, in policy P1, the time information "T" of the sensor information, the sensor information "HM1 to HM5" indicating the whereabouts of the observer, and the sensor information "ACC1 to ACC4" indicating the operation of the observer are displayed in descending order of the area in the image. , The size of the area defined as the sensor information "TMP" that measures the living environment of the observed person is specified.
As a result, the behavior recognition accuracy can be improved by reflecting the empirical rule of the degree of influence of each sensor information on the behavior as the size of the region in the input data of the inference model 14m. This time, we used an empirical rule in which time information and whereabouts information have a greater influence on behavior recognition than other information.
 説明用テーブルの第4列「値」とは、領域に書き込むデータ内容を示す。例えば、画像データの色深度がグレースケールの8bitであるときには、領域が表現可能なデータ量は、2の8乗=256通りの数値となる。
 もちろん、画像データの色深度はグレースケールに限定されず、それよりも詳細な段階の値を表現できるカラーを用いてもよい。画像データの色深度は任意に設定可能であるため、表現可能なデータ量は256通りに限定されることは無い。従って、例えば8bitのグレースケールと16bitのカラーでは、同じセンサの反応値でも異なる値、精度に変換されることがある。
The fourth column "value" of the explanatory table indicates the data content to be written in the area. For example, when the color depth of the image data is 8 bits of gray scale, the amount of data that can be expressed by the area is 2 to the 8th power = 256 numerical values.
Of course, the color depth of the image data is not limited to the gray scale, and a color capable of expressing a value at a more detailed stage may be used. Since the color depth of the image data can be set arbitrarily, the amount of data that can be expressed is not limited to 256. Therefore, for example, 8-bit grayscale and 16-bit color may be converted to different values and accuracy even if the reaction values of the same sensor are used.
 本実施形態では、0.00~1.00の範囲を0.01の精度で記載することとした。
 例えば、時刻「T」の値「0.31」とは、0時0分を値「0.00」とし、23時59分を値「1.00」としたときには、午前7時40分を示す。一方、曜日は、月曜日を値「0.00」とし、日曜日を値「1.00」としたときの7通りの中から選択される。
 なお、上記「値」とは、各センサ情報の値に基づいた任意の範囲の値のことである。上述したように各センサ情報の値に応じた色をいう場合の他、各センサ情報の値そのままをいう場合も含む。このように、センサの種別ごとに取り得る値の幅がばらつく場合でも、任意の範囲の値として正規化される。
In this embodiment, the range of 0.00 to 1.00 is described with an accuracy of 0.01.
For example, the value "0.31" of the time "T" indicates 7:40 am when 0:00 is the value "0.00" and 23:59 is the value "1.00". On the other hand, the day of the week is selected from seven ways when Monday is set to the value "0.00" and Sunday is set to the value "1.00".
The above-mentioned "value" is a value in an arbitrary range based on the value of each sensor information. In addition to the case of referring to the color corresponding to the value of each sensor information as described above, the case of referring to the value of each sensor information as it is is also included. In this way, even if the range of possible values varies depending on the type of sensor, it is normalized as a value in an arbitrary range.
 なお、図6の「湿度」の行「HUM」では、マス数「5(=1x5)」とは、湿度センサの領域の大きさが、1センサで1マス分ありセンサ数が5個なので、合計5マス分という意味である。また「湿度」の値「0.66,0.57,0.64,0.58,0.7」は、左から順に第1湿度センサの値「0.66」、第2湿度センサの値「0.57」、…、第5湿度センサの値「0.7」を示す。
 さらに、人感センサ「HM1~HM5」の数は5個を例示したが、センサの種類や数は部屋のレイアウトや認識したい行動によって変化、増減する。
In the row "HUM" of "humidity" in FIG. 6, the number of cells "5 (= 1x5)" means that the size of the area of the humidity sensor is one cell for one sensor and the number of sensors is five. It means a total of 5 squares. The "humidity" value "0.66,0.57,0.64,0.58,0.7" is the value of the first humidity sensor "0.66", the value of the second humidity sensor "0.57", ..., The value of the fifth humidity sensor in order from the left. Indicates "0.7".
Furthermore, although the number of motion sensors "HM1 to HM5" is shown as an example, the type and number of sensors change and increase or decrease depending on the layout of the room and the behavior to be recognized.
 図7は、図5のレイアウトデータ13Lに対して、図6の「値」を書き込んだ結果の画像データの説明図である。図7では説明をわかりやすくするために「T」や「ACC1」などの図中記号も併記したが、実際は図中記号は画像からは省略される。
 例えば、画像変換部13は、「ACC1」の領域には、センサ情報の値に応じた色として、値「0」を示す黒色を書き込む。一方、画像変換部13は、「HM4」の領域には、センサ情報の値に応じた色として、値「1」を示す白色を書き込む。つまり、書き込む値が大きいほど白色に近づく。
 さらに、画像変換部13が作成した画像データに対して、その画像データが示すシチュエーションを示す被観察者2uの行動「帰宅」を対応づけることにより、推論モデル14mが定義される。
FIG. 7 is an explanatory diagram of image data as a result of writing the “value” of FIG. 6 with respect to the layout data 13L of FIG. In FIG. 7, symbols in the figure such as “T” and “ACC1” are also shown for the sake of clarity, but the symbols in the figure are actually omitted from the image.
For example, the image conversion unit 13 writes black indicating the value “0” as a color corresponding to the value of the sensor information in the area of “ACC1”. On the other hand, the image conversion unit 13 writes white indicating the value "1" as a color corresponding to the value of the sensor information in the area of "HM4". That is, the larger the value to be written, the closer to white.
Further, the inference model 14m is defined by associating the image data created by the image conversion unit 13 with the behavior "returning home" of the observer 2u indicating the situation indicated by the image data.
 行動推論部14は、過去に登録された推論モデル14mを参照することで、推論モデル14mの画像データと一致または類似する画像データが現在の被観察者2uから検知された場合には、推論モデル14mで対応する行動「帰宅」を推論結果として出力する(S104)。
 なお、観察者3uなどの人間が教師として、「帰宅」、「休憩」などの行動ラベルを推論モデル14mの画像データに対応づけておくとよい。
The behavior inference unit 14 refers to the inference model 14m registered in the past, and when image data matching or similar to the image data of the inference model 14m is detected from the current observer 2u, the inference model The corresponding action "returning home" at 14 m is output as an inference result (S104).
In addition, it is preferable that a human such as the observer 3u acts as a teacher and associates action labels such as "go home" and "break" with the image data of the inference model 14 m.
 図8は、図5のレイアウトデータ13Lに対して、図7とは別の行動を書き込んだ結果の画像データの説明図である。図8の推論モデル14mは、人感センサ「HM1~HM5」が全て白色(被観察者2uが各部屋に不在)なので、被観察者2uの行動「外出」が対応づけられている。
 以下、図9~図12を参照して、現在行動パターンと通常行動パターンとの比較処理(S111)と、その比較処理により抽出した現在行動パターンの異常の報知処理(S112)の具体的な事例を説明する。
FIG. 8 is an explanatory diagram of image data as a result of writing an action different from that of FIG. 7 with respect to the layout data 13L of FIG. In the inference model 14m of FIG. 8, since the motion sensors "HM1 to HM5" are all white (the observer 2u is absent in each room), the behavior "going out" of the observer 2u is associated with it.
Hereinafter, with reference to FIGS. 9 to 12, a specific example of a comparison process (S111) between the current behavior pattern and the normal behavior pattern and an abnormality notification process (S112) of the current behavior pattern extracted by the comparison processing. Will be explained.
 図9は、データベース17に格納される通常行動パターンの一例を示す説明図である。通常行動パターンは、午前5時の「就寝」から始まり、午前6時の「洗面」、…、23時の「就寝」までの被観察者2uの正常な行動をつなげた行動パターンである。
 図10は、現在行動蓄積部16に格納される現在行動パターンの一例を示す説明図である。現在行動パターンは、午前5時の「就寝」から始まり、午前9時の「食事」、…、23時の「就寝」までの被観察者2uの現在の(見守り当日の)行動をつなげた行動パターンである。
FIG. 9 is an explanatory diagram showing an example of a normal behavior pattern stored in the database 17. The normal behavior pattern is a behavior pattern that connects the normal behaviors of the observed person 2u from "sleeping" at 5 am to "washing" at 6 am, ..., and "sleeping" at 23:00.
FIG. 10 is an explanatory diagram showing an example of the current behavior pattern stored in the current behavior storage unit 16. The current behavior pattern starts from "sleeping" at 5 am, "meal" at 9 am, ..., and behavior that connects the current behavior of the observer 2u until "sleeping" at 23:00. It is a pattern.
 ここで、変化検知部18は、図9の現在行動パターンと図10の通常行動パターンとの行動ごとの比較処理(S111)により、以下のような被観察者2uの現在行動パターン内の異常な行動を抽出する。
 ・9時まで起床せず、室内で動きがない。
 ・食事時間が通常と異なり、かつ、食事の時間が長い。
 ・外出途中の予期せぬ時刻(15時)に、一時帰宅している。
 ・入浴時間が異なり、かつ、入浴の時間が長い。
Here, the change detection unit 18 compares the current behavior pattern of FIG. 9 with the normal behavior pattern of FIG. 10 for each behavior (S111), and finds the following abnormalities in the current behavior pattern of the observed person 2u. Extract actions.
・ I didn't get up until 9 o'clock and there was no movement indoors.
・ Meal time is different from usual and meal time is long.
・ I am temporarily returning home at an unexpected time (15:00) while I am out.
・ Bathing time is different and bathing time is long.
 このように、変化検知部18は、以下に例示するような被観察者2uの異常を検知する。
 (1)通常行動パターンで定義した通常の行動が、現在行動パターンでは行われていなかった。
 (2)通常行動パターンにない不自然な行動が、現在行動パターンでは行われた。
 (3)通常行動パターンで定義した通常の行動が現在行動パターンでも行われたが、通常行動パターンで定義した時刻とは異なっていた。
 (4)通常行動パターンで定義した通常の行動が現在行動パターンでも行われたが、通常行動パターンで定義した長さとは異なっていた。
 (5)現在行動パターンでの被観察者2uの行動速度が、通常行動パターンとして定義した行動の速度を逸脱した(大きく下回った)。
In this way, the change detection unit 18 detects the abnormality of the observed person 2u as illustrated below.
(1) The normal behavior defined in the normal behavior pattern is not currently performed in the behavior pattern.
(2) Unnatural behaviors that are not in the normal behavior pattern have been performed in the current behavior pattern.
(3) The normal behavior defined in the normal behavior pattern was also performed in the current behavior pattern, but it was different from the time defined in the normal behavior pattern.
(4) The normal behavior defined in the normal behavior pattern was also performed in the current behavior pattern, but the length was different from the length defined in the normal behavior pattern.
(5) The behavioral speed of the observed person 2u in the current behavioral pattern deviated from (greatly lower than) the behavioral speed defined as the normal behavioral pattern.
 そして、S112として、変化検知部18は、(1)または(2)の重度な異常に対しては観察者端末3を介して観察者3uに緊急信号を報知することで、救急車の手配などの観察者3uに緊急の対応を促す。
 一方、変化検知部18は、(3)~(5)の軽度な異常に対しては観察者端末3を介して観察者3uに要観察信号を送信することで、被観察者2uの病気の予兆を観察者3uに通知する。病気の予兆は、例えば、要介護状態の手前の状態(フレイル)や、軽度認知障害(MCI:Mild Cognitive Impairment)である。
Then, as S112, the change detection unit 18 notifies the observer 3u of an emergency signal via the observer terminal 3 in response to the serious abnormality of (1) or (2), thereby arranging an ambulance or the like. Encourage the observer 3u to take an urgent response.
On the other hand, the change detection unit 18 transmits a signal requiring observation to the observer 3u via the observer terminal 3 for the minor abnormalities (3) to (5), so that the observer 2u is sick. Notify the observer 3u of the sign. Signs of illness are, for example, a state before the need for long-term care (frail) and mild cognitive impairment (MCI).
 とくに(3)~(5)の軽度な異常については、単体のセンサ情報からは検出が困難である。一方、画像変換部13が複数のセンサ情報を一括して画像化したことにより行動の間隔を抽出できるので、本実施形態では、検出が容易になる。
 なお、(5)で現在行動パターンから被観察者2uの行動速度を取得する処理は、以下に例示する方法が挙げられる。
 ・洗濯機と冷蔵庫2a(レンジ、IH)の操作間隔から、洗面所とキッチンの間の移動速度を計測する。
 ・冷蔵庫2aのドアに関する行動(開閉速度、開閉間隔、開閉時間等)の変化から、反応速度を計測する。
 ・玄関ドア開閉と照明のON/OFFの間の間隔から、行動速度を計測する。
 ・掃除機2bの加速度から、掃除時の歩行速度を計測する。
In particular, it is difficult to detect the minor abnormalities (3) to (5) from the sensor information of a single unit. On the other hand, since the image conversion unit 13 can extract the action interval by collectively imaging a plurality of sensor information, the detection becomes easy in the present embodiment.
The process of acquiring the behavioral speed of the observed person 2u from the current behavioral pattern in (5) includes a method exemplified below.
-Measure the moving speed between the washroom and the kitchen from the operation interval between the washing machine and the refrigerator 2a (range, IH).
-Measure the reaction speed from changes in the behavior (opening / closing speed, opening / closing interval, opening / closing time, etc.) related to the door of the refrigerator 2a.
・ Measure the action speed from the interval between the opening and closing of the entrance door and the ON / OFF of the lighting.
-Measure the walking speed during cleaning from the acceleration of the vacuum cleaner 2b.
 図11は、現在行動パターンが正常なとき(S111,No)の観察者端末3の表示画面を示す画面図である。
 変化検知部18は、以下の表示内容を含む表示画面を観察者端末3に表示させることにより、被観察者2uの健康な状態を観察者3uに知らせる。
 ・現在行動パターンの概要を示すメッセージ欄221
 ・現在行動パターンのタイムチャート欄222
 ・今週の生活パターンの統計データ欄223
 ・今週と先週との差分の統計データ欄224
 ・これまでの履歴との差分の統計データ欄225
FIG. 11 is a screen view showing a display screen of the observer terminal 3 when the current behavior pattern is normal (S111, No).
The change detection unit 18 informs the observer 3u of the healthy state of the observer 2u by displaying a display screen including the following display contents on the observer terminal 3.
-Message column 221 showing the outline of the current behavior pattern
Time chart column 222 of current behavior pattern
Statistical data column 223 of this week's life pattern
Statistical data column 224 of the difference between this week and last week
-Statistical data column 225 of the difference from the history so far
 図12は、現在行動パターンが異常なとき(S111,Yes)の観察者端末3の表示画面(S112)を示す画面図である。
 画面中央の間取り図欄211には、自宅2hの部屋ごとに、寝室、居室などの部屋名と、部屋ごとの環境センサが計測したセンサ情報(温度、湿度、照度)とが表示される。
 ここで、被観察者2uの推定位置212と、被観察者2uの異常な行動を示す警告メッセージ213(緊急信号)も、間取り図欄211に表示させる。これにより、人が倒れているなどの被観察者2uの異常の詳細を、観察者3uは容易に把握することができる。
FIG. 12 is a screen view showing a display screen (S112) of the observer terminal 3 when the current behavior pattern is abnormal (S111, Yes).
In the floor plan column 211 in the center of the screen, the room names such as the bedroom and the living room and the sensor information (temperature, humidity, illuminance) measured by the environmental sensor for each room are displayed for each room of the home 2h.
Here, the estimated position 212 of the observed person 2u and the warning message 213 (emergency signal) indicating the abnormal behavior of the observed person 2u are also displayed in the floor plan column 211. As a result, the observer 3u can easily grasp the details of the abnormality of the observed person 2u such as a person falling down.
 以上説明した本実施形態では、画像変換部13は、冷蔵庫2aや掃除機2bなどのコネクテッド家電のセンサ情報、および、人感センサ2cのセンサ情報などの多くの種類のセンサ情報を1枚の画像に統合する(図7,図8)。
 これにより、単体のセンサ情報だけでは把握できなかった、転倒のような被観察者2uの大きな行動の変化でも検知できる。
In the present embodiment described above, the image conversion unit 13 displays many types of sensor information such as sensor information of connected home appliances such as a refrigerator 2a and a vacuum cleaner 2b, and sensor information of a motion sensor 2c as one image. (Figs. 7 and 8).
As a result, it is possible to detect a large change in the behavior of the observed person 2u such as a fall, which could not be grasped only by the sensor information of a single unit.
 ここで、本実施形態と特許文献1のような生活行動データベースを構築する方式とを比較する。特許文献1のような従来の技術では、どのセンサ情報がどの程度行動に影響するかというルールを手作業で入力するため、手間がかかっていた。
 一方、本実施形態の画像化したセンサ情報を機械学習する方式は、どのセンサ情報がどの程度行動に影響するかというルールは、機械学習で自動的に発見してくれるので、人間がルールを手作業で入力する手間が省ける。さらに、人間が知らなかったルールでも機械学習で自動的に発見してくれるので、行動の認識精度が向上する。
Here, the present embodiment is compared with the method of constructing a living behavior database as in Patent Document 1. In the conventional technique such as Patent Document 1, it takes time and effort to manually input the rule of which sensor information affects the behavior and how much.
On the other hand, in the method of machine learning the imaged sensor information of the present embodiment, the rule of which sensor information affects the behavior to what extent is automatically discovered by machine learning, so that a human can handle the rule. You can save the trouble of inputting in the work. Furthermore, even rules that humans did not know are automatically discovered by machine learning, improving the accuracy of behavior recognition.
 なお、本発明は前記した実施例に限定されるものではなく、さまざまな変形例が含まれる。例えば、前記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
 また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
 また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。
 また、前記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the described configurations.
Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment.
Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration. Further, each of the above configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit.
Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function.
 各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリや、ハードディスク、SSD(Solid State Drive)などの記録装置、または、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)などの記録媒体におくことができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
 さらに、各装置を繋ぐ通信手段は、無線LANに限定せず、有線LANやその他の通信手段に変更してもよい。
Information such as programs, tables, and files that realize each function can be stored in memory, hard disks, recording devices such as SSDs (Solid State Drives), IC (Integrated Circuit) cards, SD cards, DVDs (Digital Versatile Discs), etc. Can be placed on the recording medium of.
In addition, the control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.
Further, the communication means for connecting each device is not limited to the wireless LAN, and may be changed to a wired LAN or other communication means.
 2   センサ
 2u  被観察者
 3   観察者端末
 3u  観察者
 1   行動認識サーバ
 11  センサ情報取得部
 12  時刻情報取得部
 13  画像変換部
 13L レイアウトデータ
 14  行動推論部
 14m 推論モデル
 15  現在行動特定部
 16  現在行動蓄積部
 17  データベース
 18  変化検知部
2 Sensor 2u Observer 3 Observer terminal 3u Observer 1 Behavior recognition server 11 Sensor information acquisition unit 12 Time information acquisition unit 13 Image conversion unit 13L Layout data 14 Behavior inference unit 14m Inference model 15 Current behavior identification unit 16 Current behavior accumulation Department 17 Database 18 Change detection unit

Claims (8)

  1.  被観察者を検知するセンサの集合から、前記センサごとの検知結果を示すセンサ情報を取得するセンサ情報取得部と、
     前記各センサ情報の値に基づいた任意の範囲の値を、レイアウトデータで規定された画像内の前記各センサ情報の領域に書き込むことで前記各センサ情報を画像化する画像変換部と、
     前記センサ情報の画像と前記被観察者の行動との対応データが事前に準備された推論モデルに対して、前記画像変換部が作成した前記センサ情報の画像を入力することにより、前記推論モデルから出力される前記被観察者の行動を求める行動推論部と、を有することを特徴とする
     行動認識サーバ。
    A sensor information acquisition unit that acquires sensor information indicating the detection result for each sensor from a set of sensors that detect the observed person, and a sensor information acquisition unit.
    An image conversion unit that images each sensor information by writing a value in an arbitrary range based on the value of each sensor information in the area of each sensor information in the image defined by the layout data.
    By inputting the image of the sensor information created by the image conversion unit into the inference model in which the correspondence data between the image of the sensor information and the behavior of the observed person is prepared in advance, the inference model can be used. An action recognition server having an action inference unit that obtains an output action of the observed person.
  2.  前記画像変換部は、前記各センサ情報の値に基づいた任意の範囲の値に加えて、前記センサ情報の時刻情報に基づいた任意の範囲の値も前記領域に書き込むことを特徴とする
     請求項1に記載の行動認識サーバ。
    The claim is characterized in that the image conversion unit writes in the area a value in an arbitrary range based on the time information of the sensor information in addition to a value in an arbitrary range based on the value of each sensor information. The action recognition server according to 1.
  3.  前記レイアウトデータには、前記各センサ情報の種類に従って、画像内の前記領域の大きさが規定されており、
     前記画像変換部は、前記レイアウトデータに規定された前記領域の大きさに従って、前記各センサ情報の値に基づいた任意の範囲の値を書き込むことを特徴とする
     請求項2に記載の行動認識サーバ。
    In the layout data, the size of the region in the image is defined according to the type of each sensor information.
    The behavior recognition server according to claim 2, wherein the image conversion unit writes a value in an arbitrary range based on the value of each sensor information according to the size of the area defined in the layout data. ..
  4.  前記レイアウトデータには、画像内の前記領域の大きい順に、前記センサ情報の時刻情報、前記被観察者の居場所を示す前記センサ情報、前記被観察者の動作を示す前記センサ情報、前記被観察者の生活環境を測定する前記センサ情報とした前記領域の大きさが規定されることを特徴とする
     請求項3に記載の行動認識サーバ。
    In the layout data, the time information of the sensor information, the sensor information indicating the whereabouts of the observed person, the sensor information indicating the operation of the observed person, and the observed person are described in descending order of the area in the image. The action recognition server according to claim 3, wherein the size of the region as the sensor information for measuring the living environment of the user is defined.
  5.  前記行動認識サーバは、さらに、現在行動特定部と、データベースと、変化検知部とを備えており、
     前記現在行動特定部は、前記行動推論部が求めた前記被観察者の行動を時系列につなげた現在行動パターンを特定し、
     前記データベースには、正常な行動を時系列につなげた通常行動パターンが格納されており、
     前記変化検知部は、前記現在行動パターンと前記通常行動パターンとを比較することで、前記通常行動パターンから逸脱した前記現在行動パターンを前記被観察者の異常な行動として検知することを特徴とする
     請求項1に記載の行動認識サーバ。
    The action recognition server further includes a current action identification unit, a database, and a change detection unit.
    The current behavior specifying unit identifies a current behavior pattern that connects the behaviors of the observed person obtained by the behavior inference unit in chronological order.
    The database stores normal behavior patterns that connect normal behaviors in chronological order.
    The change detection unit is characterized in that by comparing the current behavior pattern with the normal behavior pattern, the change detection unit detects the current behavior pattern deviating from the normal behavior pattern as an abnormal behavior of the observed person. The behavior recognition server according to claim 1.
  6.  前記変化検知部は、
     前記通常行動パターンで定義した通常の行動が前記現在行動パターンでは行われていなかった場合、または、前記通常行動パターンにない行動が前記現在行動パターンで行われた場合には、前記被観察者の重度な異常を示す緊急信号を報知し、
     前記通常行動パターンで定義した通常の行動が前記現在行動パターンでも行われたが前記通常行動パターンで定義した時刻とは異なっていた場合、または、前記通常行動パターンで定義した通常の行動が前記現在行動パターンでも行われたが前記通常行動パターンで定義した長さとは異なっていた場合には、前記被観察者の軽度な異常を示す要観察信号を報知することを特徴とする
     請求項5に記載の行動認識サーバ。
    The change detection unit
    When the normal behavior defined in the normal behavior pattern is not performed in the current behavior pattern, or when an action not in the normal behavior pattern is performed in the current behavior pattern, the observed person Notifies an emergency signal indicating a serious abnormality and
    When the normal behavior defined in the normal behavior pattern is also performed in the current behavior pattern but different from the time defined in the normal behavior pattern, or when the normal behavior defined in the normal behavior pattern is the present. The fifth aspect of claim 5, wherein the behavior pattern is also performed, but when the length is different from the length defined in the normal behavior pattern, an observation-required signal indicating a slight abnormality of the observed person is notified. Behavior recognition server.
  7.  前記変化検知部は、前記現在行動パターンに含まれる行動の間隔から前記被観察者の行動速度を取得し、取得した前記被観察者の行動速度が前記通常行動パターンとして定義した行動の速度を逸脱したときに、前記被観察者の軽度な異常を示す要観察信号を報知することを特徴とする
     請求項5に記載の行動認識サーバ。
    The change detection unit acquires the behavior speed of the observed person from the interval of the behavior included in the current behavior pattern, and the acquired behavior speed of the observed person deviates from the behavior speed defined as the normal behavior pattern. The behavior recognition server according to claim 5, wherein when the behavior is performed, an observation signal indicating a slight abnormality of the observed person is notified.
  8.  行動認識サーバは、センサ情報取得部と、画像変換部と、行動推論部と、を有しており、
     前記センサ情報取得部は、被観察者を検知するセンサの集合から、前記センサごとの検知結果を示すセンサ情報を取得し、
     前記画像変換部は、前記各センサ情報の値に基づいた任意の範囲の値を、レイアウトデータで規定された画像内の前記各センサ情報の領域に書き込むことで前記各センサ情報を画像化し、
     前記行動推論部は、前記センサ情報の画像と前記被観察者の行動との対応データが事前に準備された推論モデルに対して、前記画像変換部が作成した前記センサ情報の画像を入力することにより、前記推論モデルから出力される前記被観察者の行動を求めることを特徴とする
     行動認識方法。
    The action recognition server has a sensor information acquisition unit, an image conversion unit, and an action inference unit.
    The sensor information acquisition unit acquires sensor information indicating a detection result for each sensor from a set of sensors that detect an observed person.
    The image conversion unit images each sensor information by writing a value in an arbitrary range based on the value of each sensor information in the area of each sensor information in the image defined by the layout data.
    The behavior inference unit inputs an image of the sensor information created by the image conversion unit into an inference model in which correspondence data between the image of the sensor information and the behavior of the observed person is prepared in advance. A behavior recognition method characterized by obtaining the behavior of the observed person output from the inference model.
PCT/JP2020/042056 2020-03-25 2020-11-11 Behavior recognition server and behavior recognition method WO2021192398A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202080066478.8A CN114424263B (en) 2020-03-25 2020-11-11 Behavior recognition server and behavior recognition method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020054434A JP7366820B2 (en) 2020-03-25 2020-03-25 Behavior recognition server and behavior recognition method
JP2020-054434 2020-03-25

Publications (1)

Publication Number Publication Date
WO2021192398A1 true WO2021192398A1 (en) 2021-09-30

Family

ID=77891149

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/042056 WO2021192398A1 (en) 2020-03-25 2020-11-11 Behavior recognition server and behavior recognition method

Country Status (3)

Country Link
JP (1) JP7366820B2 (en)
CN (1) CN114424263B (en)
WO (1) WO2021192398A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023090273A (en) * 2021-12-17 2023-06-29 株式会社日立製作所 Sensing system, sensing device, and sensing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352352A (en) * 2001-05-29 2002-12-06 Mitsubishi Electric Corp System and method for determining degree of abnormality of life behavior pattern
JP2017117492A (en) * 2017-03-13 2017-06-29 株式会社日立製作所 Watching system
JP2017216006A (en) * 2017-08-10 2017-12-07 パラマウントベッド株式会社 Watching support device
JP2018124639A (en) * 2017-01-30 2018-08-09 日本電気株式会社 Data analysis system, data analysis method and program

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5143780B2 (en) * 2009-03-31 2013-02-13 綜合警備保障株式会社 Monitoring device and monitoring method
JP5726792B2 (en) * 2012-03-12 2015-06-03 株式会社東芝 Information processing apparatus, image sensor apparatus, and program
JP5877135B2 (en) * 2012-07-20 2016-03-02 株式会社日立製作所 Image recognition apparatus and elevator apparatus
WO2016175109A1 (en) * 2015-04-27 2016-11-03 コニカミノルタ株式会社 Monitoring device, monitoring method, monitoring program, and monitoring system
JP2017023055A (en) * 2015-07-22 2017-02-02 大日本印刷株式会社 Cell management system, program, and cell management method
WO2017038035A1 (en) * 2015-08-31 2017-03-09 富士フイルム株式会社 Device, system, and method for generating behavior history information
JP6713837B2 (en) * 2016-05-31 2020-06-24 株式会社日立製作所 Transport equipment control system and transport equipment control method
KR101810853B1 (en) * 2016-10-27 2017-12-20 숭실대학교산학협력단 Method for preventing corporate data leakage using neural network algorithm, recording medium and device for performing the method
JP7370857B2 (en) * 2017-04-06 2023-10-30 コニカミノルタ株式会社 Behavior detection device, behavior detection method, and monitored person monitoring support system
WO2019028016A1 (en) * 2017-07-31 2019-02-07 Cubic Corporation Automated scenario recognition and reporting using neural networks
JP6999399B2 (en) * 2017-12-19 2022-01-18 日本信号株式会社 Abnormality judgment device
JP2019149039A (en) * 2018-02-27 2019-09-05 パナソニックIpマネジメント株式会社 Monitoring system and monitoring method
KR102152717B1 (en) * 2018-08-28 2020-09-07 한국전자통신연구원 Apparatus and method for recognizing behavior of human
KR101999213B1 (en) * 2019-03-28 2019-07-11 한국건설기술연구원 Behavior recognition system based on cctv using signal strengh pattern, method thereof and a recording medium having computer readable program for executing the method
CN110058699B (en) * 2019-04-28 2021-04-27 电子科技大学 User behavior identification method based on intelligent mobile device sensor
CN110533889B (en) * 2019-08-30 2021-08-13 中国电子科技网络信息安全有限公司 Sensitive area electronic equipment monitoring and positioning device and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352352A (en) * 2001-05-29 2002-12-06 Mitsubishi Electric Corp System and method for determining degree of abnormality of life behavior pattern
JP2018124639A (en) * 2017-01-30 2018-08-09 日本電気株式会社 Data analysis system, data analysis method and program
JP2017117492A (en) * 2017-03-13 2017-06-29 株式会社日立製作所 Watching system
JP2017216006A (en) * 2017-08-10 2017-12-07 パラマウントベッド株式会社 Watching support device

Also Published As

Publication number Publication date
JP2021157274A (en) 2021-10-07
CN114424263A (en) 2022-04-29
CN114424263B (en) 2023-06-27
JP7366820B2 (en) 2023-10-23

Similar Documents

Publication Publication Date Title
Aran et al. Anomaly detection in elderly daily behavior in ambient sensing environments
CN107205698B (en) System and method for monitoring activities of daily living of a person
JP6483928B2 (en) Monitoring human daily activities
US20140129160A1 (en) Systems and methods for reducing energy usage
US20120101653A1 (en) Systems and methods for reducing energy usage,
CN110136832B (en) Cognitive ability assessment system and method based on daily behaviors of old people
US20230335240A1 (en) Presymptomatic disease diagnosis device, presymptomatic disease diagnosis method, and trained model generation device
WO2021192398A1 (en) Behavior recognition server and behavior recognition method
CN108472022B (en) Dementia information output system and recording medium
JP3622783B2 (en) Activity information supply system and server system
JP6830298B1 (en) Information processing systems, information processing devices, information processing methods, and programs
US20220230746A1 (en) Sensor-based monitoring of at-risk person at a dwelling
JP2004046560A (en) Solitary resident lifeline data processing system
CN114402575B (en) Action recognition server, action recognition system, and action recognition method
JP2021174189A (en) Method of assisting in creating menu of service, method of assisting in evaluating user of service, program causing computer to execute the method, and information providing device
JP7251546B2 (en) Report output program, report output method, and report output device
JP2019175386A (en) Sense-of-value evaluation system and property search system
CN116976834B (en) Intelligent endowment service platform based on SaaS cloud service
JP7477855B2 (en) Information provision device, information provision system, information provision method, and information provision program
JP7268679B2 (en) Control program, report output method, and report output device
WO2023017619A1 (en) Information processing system, information processing method, computer program, and information processing device
Ngankam et al. Experimentation of a Nighttime Wandering Assistance System Based on AAL Solutions to Foster Aging at Home
Sedghi BehViz: a smart house monitoring system
WO2020003714A1 (en) Report output program, report output method, and report output device
Chen et al. AQUEDUC: Improving Quality and Efficiency of Care for Elders in Real Homes

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20926842

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20926842

Country of ref document: EP

Kind code of ref document: A1