JP7366820B2 - Behavior recognition server and behavior recognition method - Google Patents

Behavior recognition server and behavior recognition method Download PDF

Info

Publication number
JP7366820B2
JP7366820B2 JP2020054434A JP2020054434A JP7366820B2 JP 7366820 B2 JP7366820 B2 JP 7366820B2 JP 2020054434 A JP2020054434 A JP 2020054434A JP 2020054434 A JP2020054434 A JP 2020054434A JP 7366820 B2 JP7366820 B2 JP 7366820B2
Authority
JP
Japan
Prior art keywords
behavior
sensor information
observed person
image
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020054434A
Other languages
Japanese (ja)
Other versions
JP2021157274A (en
Inventor
佐知 田中
健太郎 佐野
昭義 大平
卓男 姚
浩平 京谷
優佑 円谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020054434A priority Critical patent/JP7366820B2/en
Priority to PCT/JP2020/042056 priority patent/WO2021192398A1/en
Priority to CN202080066478.8A priority patent/CN114424263B/en
Publication of JP2021157274A publication Critical patent/JP2021157274A/en
Application granted granted Critical
Publication of JP7366820B2 publication Critical patent/JP7366820B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/08Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using communication transmission lines

Landscapes

  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)

Description

本発明は、行動認識サーバ、および、行動認識方法に関する。 The present invention relates to a behavior recognition server and a behavior recognition method.

近年、インターネットに接続された高性能なセンサが、IоT(Internet of Things)機器として普及している。そして、家庭内などの環境に設置した多数のセンサから大量のセンサ情報を分析することで、被観察者の見守りサービスを提供する試みが行われている。 In recent years, high-performance sensors connected to the Internet have become popular as IoT (Internet of Things) devices. Attempts are being made to provide monitoring services for people being observed by analyzing a large amount of sensor information from a large number of sensors installed in environments such as homes.

例えば、特許文献1には、家庭内に設置された存在検知センサと、動作検知センサとを組み合わせて、生活行動を推定するシステムが記載されている。推定された現在の生活行動は、事前に用意された生活行動パターンデータベースと比較することで、異常度が判定される。 For example, Patent Document 1 describes a system that estimates daily activities by combining a presence detection sensor installed in a home and a motion detection sensor. The degree of abnormality of the estimated current lifestyle behavior is determined by comparing it with a lifestyle behavior pattern database prepared in advance.

特開2002-352352号公報Japanese Patent Application Publication No. 2002-352352

被観察者の見守りサービスを提供するときには、現在の被観察者の行動が正常か異常かを高精度に認識する必要がある。正常な行動なのに警告を発したり、異常な行動を見逃したりしては、見守りサービスの質が落ちてしまうためである。よって、認識精度を向上させるためには、同時刻に計測された複数種類のセンサ情報から、被観察者の行動を一意に特定するフェーズが重要となる。 When providing a monitoring service for an observed person, it is necessary to recognize with high precision whether the observed person's current behavior is normal or abnormal. This is because the quality of the monitoring service will deteriorate if a warning is issued when the behavior is normal or if abnormal behavior is overlooked. Therefore, in order to improve recognition accuracy, it is important to have a phase in which the behavior of the observed person is uniquely identified from multiple types of sensor information measured at the same time.

なお、個々のセンサ情報は、単体で用いるだけでは「被観察者がリビングにいる」、「被観察者が座っている」などの基本的な情報しか得られない。よって、複数のセンサ情報を組み合わせることで、「リビングで食事をしている」、「リビングでテレビを見ている」などの被観察者の詳細な行動を特定する必要がある。 Note that when individual sensor information is used alone, only basic information such as "the person to be observed is in the living room" or "the person to be observed is sitting" can be obtained. Therefore, it is necessary to combine multiple pieces of sensor information to identify the detailed behavior of the observed person, such as "eating in the living room" or "watching TV in the living room."

特許文献1では、センサ情報から生活行動を特定する処理として、生活行動データベースをあらかじめ用意しておく必要があり、その用意の手間が管理者の負担になっていた。例えば、生活行動データベースを構築するために、統計パラメータや、被観察者からの質問回答データを事前に用意しなくてはいけないため、そのコストが負担となっていた。 In Patent Document 1, it is necessary to prepare a daily activity database in advance as a process for identifying daily activities from sensor information, and the effort of preparing it becomes a burden on the administrator. For example, in order to construct a lifestyle behavior database, it is necessary to prepare statistical parameters and question answer data from the observed person in advance, which is a burden.

そこで、本発明は、被観察者の行動を高精度かつ低コストで認識することを、主な課題とする。 Therefore, the main objective of the present invention is to recognize the behavior of an observed person with high precision and at low cost.

前記課題を解決するために、本発明の行動認識サーバは、以下の特徴を有する。
本発明は、被観察者を検知するセンサの集合から、前記センサごとの検知結果を示すセンサ情報を取得するセンサ情報取得部と、
前記各センサ情報の値に基づいた任意の範囲の値に加えて、前記センサ情報の時刻情報に基づいた任意の範囲の値も、レイアウトデータで規定された画像内の前記各センサ情報の領域に書き込むことで前記各センサ情報を画像化する画像変換部と、
前記センサ情報の画像と前記被観察者の行動との対応データが事前に準備された推論モデルに対して、前記画像変換部が作成した前記センサ情報の画像を入力することにより、前記推論モデルから出力される前記被観察者の行動を求める行動推論部と、を有することを特徴とする。
その他の手段は、後記する。
In order to solve the above problems, the behavior recognition server of the present invention has the following features.
The present invention includes a sensor information acquisition unit that acquires sensor information indicating a detection result for each sensor from a set of sensors that detect an observed person;
In addition to the arbitrary range of values based on the values of each sensor information, the arbitrary range of values based on the time information of the sensor information can also be applied to the area of each sensor information in the image defined by the layout data. an image conversion unit that converts each sensor information into an image by writing;
By inputting the image of the sensor information created by the image conversion unit into an inference model in which correspondence data between the image of the sensor information and the behavior of the observed person is prepared in advance, A behavior inference unit that determines the behavior of the observed person to be output.
Other means will be described later.

本発明によれば、被観察者の行動を高精度かつ低コストで認識することができる。 According to the present invention, the behavior of an observed person can be recognized with high precision and at low cost.

本発明の一実施形態に関する行動認識システムの構成図である。1 is a configuration diagram of an action recognition system according to an embodiment of the present invention. 本発明の一実施形態に関する行動認識システムのハードウェア構成図である。1 is a hardware configuration diagram of an action recognition system according to an embodiment of the present invention. 本発明の一実施形態に関する行動認識サーバの詳細を示す構成図である。FIG. 2 is a configuration diagram showing details of a behavior recognition server according to an embodiment of the present invention. 本発明の一実施形態に関する行動認識サーバの処理を示すフローチャートである。It is a flowchart which shows the processing of the behavior recognition server regarding one embodiment of the present invention. 本発明の一実施形態に関する画像化処理に使用するレイアウトデータの一例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of layout data used for imaging processing according to an embodiment of the present invention. 本発明の一実施形態に関する図5のレイアウトデータの説明用テーブルである。6 is an explanatory table of the layout data of FIG. 5 related to one embodiment of the present invention. 本発明の一実施形態に関する図5のレイアウトデータに対して、図6の「値」を書き込んだ結果の画像データの説明図である。FIG. 7 is an explanatory diagram of image data resulting from writing the "value" of FIG. 6 into the layout data of FIG. 5 according to an embodiment of the present invention. 本発明の一実施形態に関する図5のレイアウトデータに対して、図7とは別の行動を書き込んだ結果の画像データの説明図である。FIG. 7 is an explanatory diagram of image data resulting from writing actions different from those in FIG. 7 on the layout data of FIG. 5 according to an embodiment of the present invention. 本発明の一実施形態に関するデータベースに格納される通常行動パターンの一例を示す説明図である。FIG. 2 is an explanatory diagram showing an example of a normal behavior pattern stored in a database according to an embodiment of the present invention. 本発明の一実施形態に関する現在行動蓄積部に格納される現在行動パターンの一例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of a current behavior pattern stored in a current behavior storage unit according to an embodiment of the present invention. 本発明の一実施形態に関する現在行動パターンが正常なときの表示画面を示す画面図である。FIG. 3 is a screen diagram showing a display screen when the current behavior pattern is normal according to an embodiment of the present invention. 本発明の一実施形態に関する現在行動パターンが異常なときの表示画面を示す画面図である。FIG. 3 is a screen diagram showing a display screen when the current behavior pattern is abnormal according to an embodiment of the present invention.

以下、本発明の一実施形態について、図面を参照しながら説明する。 Hereinafter, one embodiment of the present invention will be described with reference to the drawings.

図1は、行動認識システムの構成図である。
行動認識システムは、自宅2hで生活する被観察者2uの行動パターンを、観察者3uが観察者端末3を用いて遠隔から見守るように構成される。「行動パターン」とは、各時刻での被観察者2uの「行動」を時系列につなげた一連のパターンである。
行動認識サーバ1は、各種センサ2から取得したセンサ情報をもとに被観察者2uの行動パターンを認識し、その認識結果を観察者端末3に通知する。これにより、観察者端末3の表示画面を見た観察者3uが、被観察者2uの行動パターンを把握できる。
被観察者2uは例えば要介護者であり、観察者3uは例えば要介護者の家族である。または、自宅2hの代わりに病院や介護施設に行動認識システムを導入してもよく、その場合、観察者3uは医師やケアマネージャとなる。
FIG. 1 is a configuration diagram of an action recognition system.
The behavior recognition system is configured such that an observer 3u remotely monitors the behavior pattern of an observed person 2u living at home 2h using an observer terminal 3. The "behavior pattern" is a series of patterns in which the "behavior" of the observed person 2u at each time is connected in chronological order.
The behavior recognition server 1 recognizes the behavior pattern of the observed person 2u based on the sensor information acquired from the various sensors 2, and notifies the observer terminal 3 of the recognition result. Thereby, the observer 3u who looks at the display screen of the observer terminal 3 can grasp the behavioral pattern of the observed person 2u.
The observed person 2u is, for example, a care recipient, and the observer 3u is, for example, a family member of the care recipient. Alternatively, the behavior recognition system may be introduced at a hospital or nursing care facility instead of at home 2h, in which case the observer 3u becomes a doctor or care manager.

自宅2hには、被観察者2uの行動を監視するためのさまざまなセンサ2がネットワークに接続されている。センサ2は、例えば、冷蔵庫2aや自律移動型の掃除機2bなどの家電機器に組み込まれたセンサでもよいし、人感センサ2cなどの単体のセンサでもよい。
なお、人感センサ2cなどのセンサ2は、その測定領域が部屋の入口に対向しない方向に設置されていることが望ましい。この設置により、人感センサ2cが部屋外の廊下をすれ違う被観察者2uとは別人を誤検出してしまうことを抑制できる。
In the home 2h, various sensors 2 for monitoring the behavior of the person to be observed 2u are connected to a network. The sensor 2 may be, for example, a sensor built into a home appliance such as a refrigerator 2a or an autonomously moving vacuum cleaner 2b, or may be a single sensor such as a human sensor 2c.
Note that it is desirable that the sensor 2 such as the human sensor 2c is installed in a direction where its measurement area does not face the entrance of the room. With this installation, it is possible to prevent the human sensor 2c from erroneously detecting a person different from the observed person 2u passing by in the hallway outside the room.

図2は、行動認識システムのハードウェア構成図である。
センサ2は、検知部122が検知したセンサ情報などを他装置に通知する通信部121と、被観察者2uを検知する検知部122と、観察者3uからのメッセージなどを被観察者2uに報知する報知部123とを有する。なお、報知部123はセンサ2の中に組み込んでもよいし、センサ2とは別の機器(ディスプレイ、スピーカなど)として構成してもよい。
行動認識サーバ1は、センサ2からセンサ情報を受け、そのセンサ情報からの認識結果を観察者端末3に通知する通信部111と、被観察者2uの行動パターンを認識する制御部112と、制御部112の処理に用いられるデータを格納する記憶部113とを有する。
観察者端末3は、被観察者2uの認識結果を受信する通信部131と、被観察者2uの認識結果を観察者3uに報知する報知部132と、被観察者2uからのメッセージなどを入力させる入力部133とを有する。
FIG. 2 is a hardware configuration diagram of the behavior recognition system.
The sensor 2 includes a communication unit 121 that notifies other devices of sensor information detected by the detection unit 122, a detection unit 122 that detects the observed person 2u, and a communication unit 122 that notifies the observed person 2u of messages etc. from the observer 3u. It has a notification section 123 that provides notification. Note that the notification unit 123 may be incorporated into the sensor 2, or may be configured as a separate device from the sensor 2 (a display, a speaker, etc.).
The behavior recognition server 1 includes a communication unit 111 that receives sensor information from the sensor 2 and notifies the observer terminal 3 of the recognition result from the sensor information, a control unit 112 that recognizes the behavior pattern of the observed person 2u, and a control unit 111 that receives sensor information from the sensor 2 and notifies the observer terminal 3 of the recognition result from the sensor information. The storage unit 113 stores data used in the processing of the unit 112.
The observer terminal 3 has a communication unit 131 that receives the recognition result of the observed person 2u, a notification unit 132 that notifies the observer 3u of the recognition result of the observed person 2u, and inputs messages etc. from the observed person 2u. It has an input section 133 that allows

行動認識サーバ1は演算装置(制御部112)としてのCPU(Central Processing Unit)、主記憶装置としてのメモリ、および、外部記憶装置(記憶部113)としてのハードディスクを有する計算機として構成される。
この計算機は、CPUが、メモリ上に読み込んだプログラム(アプリケーションや、その略のアプリとも呼ばれる)を実行することにより、各処理部により構成される制御部(制御手段)を動作させる。
The behavior recognition server 1 is configured as a computer having a CPU (Central Processing Unit) as an arithmetic unit (control unit 112), a memory as a main storage device, and a hard disk as an external storage device (storage unit 113).
In this computer, the CPU operates a control section (control means) constituted by each processing section by executing a program (also called an application or an abbreviated application) read into the memory.

図3は、行動認識サーバ1の詳細を示す構成図である。
行動認識サーバ1の制御部112(図2)は、センサ情報取得部11と、時刻情報取得部12と、画像変換部13と、行動推論部14と、現在行動特定部15と、現在行動蓄積部16と、変化検知部18とを有する。
行動認識サーバ1の記憶部113(図2)は、レイアウトデータ13Lと、推論モデル14mと、データベース17とを格納する。
以下、図3の構成要素の詳細について、図4のフローチャートに沿って説明する。
FIG. 3 is a configuration diagram showing details of the behavior recognition server 1.
The control unit 112 (FIG. 2) of the behavior recognition server 1 includes a sensor information acquisition unit 11, a time information acquisition unit 12, an image conversion unit 13, a behavior inference unit 14, a current behavior identification unit 15, and a current behavior accumulation unit. 16 and a change detection section 18.
The storage unit 113 (FIG. 2) of the behavior recognition server 1 stores layout data 13L, an inference model 14m, and a database 17.
The details of the components shown in FIG. 3 will be explained below along with the flowchart shown in FIG. 4.

図4は、行動認識サーバ1の処理を示すフローチャートである。
センサ情報取得部11は、自宅2hに設置されたセンサ2(冷蔵庫2a、掃除機2b、人感センサ2c)からのセンサ情報を取得する(S101)。センサ情報は、センサ2の種類ごとにデータ形式が異なることもある。
時刻情報取得部12は、S101で取得したセンサ情報の計測時刻を示す時刻情報を取得する(S102)。時刻情報取得部12は、センサ2がセンサ情報にタイムスタンプを含めている場合はその時刻を取得し、タイムスタンプがない場合はセンサ情報の受信時刻を取得する。
FIG. 4 is a flowchart showing the processing of the behavior recognition server 1.
The sensor information acquisition unit 11 acquires sensor information from the sensors 2 (refrigerator 2a, vacuum cleaner 2b, human sensor 2c) installed in the home 2h (S101). The sensor information may have a different data format depending on the type of sensor 2.
The time information acquisition unit 12 acquires time information indicating the measurement time of the sensor information acquired in S101 (S102). The time information acquisition unit 12 acquires the time when the sensor 2 includes a time stamp in the sensor information, and acquires the reception time of the sensor information when there is no time stamp.

画像変換部13は、S101で取得したセンサ情報と、S102で取得した時刻情報とを1枚の画像として画像化する(S103)。
なお、画像変換部13が画像化するときに参照するレイアウトデータ13Lには、あらかじめどのセンサ2のセンサ情報を画像内のどの部分に配置するかという画像内のレイアウトに関する情報が定義されている(図5,図6)。
The image conversion unit 13 converts the sensor information acquired in S101 and the time information acquired in S102 into one image (S103).
Note that the layout data 13L that the image conversion unit 13 refers to when converting into an image defines in advance information regarding the layout within the image, such as where the sensor information of which sensor 2 is to be placed in which part of the image ( Figure 5, Figure 6).

行動推論部14は、センサ情報を示す画像データを推論モデル14mに入力することで、センサ情報の時刻情報における被観察者2uの行動を推論する(S104)。この推論処理のために、あらかじめ画像データを入力すると、対応する行動を出力する推論モデル14mが事前に準備されている。推論モデル14mは、例えば、深層学習などの機械学習アルゴリズムによって訓練されていてもよいし、下記に例示する推定内容から推論モデル14mの方程式を立ててもよい。
・家の中の人感センサが全て反応しなければ外出中であると推定される。
・夜間に寝室で人感センサが反応、かつ照度が低ければ睡眠中であると推定される。
現在行動特定部15は、行動推論部14が推論した各時刻での被観察者2uの「行動」を時系列につなげた「現在行動パターン」を現在行動蓄積部16に格納する(S105)。
The behavior inference unit 14 infers the behavior of the observed person 2u based on the time information of the sensor information by inputting image data indicating the sensor information into the inference model 14m (S104). For this inference process, an inference model 14m that outputs a corresponding action when image data is input in advance is prepared in advance. The inference model 14m may be trained by, for example, a machine learning algorithm such as deep learning, or the equation of the inference model 14m may be established from the estimation contents illustrated below.
・If all the motion sensors in the house do not respond, it is assumed that the person is out.
・If the motion sensor responds in the bedroom at night and the illuminance is low, it is assumed that the person is sleeping.
The current behavior identification unit 15 stores in the current behavior storage unit 16 a “current behavior pattern” in which the “behaviors” of the observed person 2u at each time inferred by the behavior inference unit 14 are connected in chronological order (S105).

変化検知部18は、現在行動パターンが事前にデータベース17に登録された通常行動パターンからの変化(逸脱)を検知したときには(S111,Yes)、被観察者2uの行動パターンに異常が発生してしまったので、その変化(異常)を観察者端末3を介して観察者3uに報知する(S112)。また、S112の出力先は、顧客環境(観察者端末3)に限らず、データベースシステムやクラウドシステムなどの他システムに出力してもよい。
一方、通常行動パターンからの変化(逸脱)を検知しないときには、(S111,No)、変化検知部18は、現在行動パターンをそのまま通常行動パターンとしてデータベース17に登録し(S113)、処理をS101に戻す。
When the change detection unit 18 detects a change (deviation) in the current behavior pattern from the normal behavior pattern registered in advance in the database 17 (S111, Yes), it determines that an abnormality has occurred in the behavior pattern of the observed person 2u. Therefore, the change (abnormality) is notified to the observer 3u via the observer terminal 3 (S112). Further, the output destination of S112 is not limited to the customer environment (observer terminal 3), but may be output to other systems such as a database system or a cloud system.
On the other hand, when a change (deviation) from the normal behavior pattern is not detected (S111, No), the change detection unit 18 registers the current behavior pattern as it is in the database 17 as a normal behavior pattern (S113), and returns the process to S101. return.

以下、図5~図8を参照して、画像変換部13の処理(S103)の具体例を説明する。
図5は、画像変換部13が画像化処理に使用するレイアウトデータ13Lの一例を示す説明図である。レイアウトデータ13Lは、縦方向に12マス、横方向に12マスの正方形の画像データ内の各位置に書き込むデータ内容が、「T」や「ACC1」などの図中記号として配置されている。なお、「マス」とは、データ内容の書き込み先となる画像内の領域を細分化した最小単位であり、センサ情報や時刻情報には、最低1マスの領域が割り当てられる。また、画像データ内の12×12のマスは例示であり、それよりもマス数は少なくても多くてもよい。
A specific example of the process (S103) of the image conversion unit 13 will be described below with reference to FIGS. 5 to 8.
FIG. 5 is an explanatory diagram showing an example of layout data 13L used by the image conversion unit 13 for imaging processing. In the layout data 13L, the data content to be written at each position in the square image data of 12 squares in the vertical direction and 12 squares in the horizontal direction is arranged as symbols in the figure such as "T" and "ACC1". Note that a "cell" is the smallest unit that subdivides an area within an image into which data content is written, and at least one area is allocated to sensor information and time information. Further, the 12×12 squares in the image data are just an example, and the number of squares may be smaller or larger than that.

図6は、図5のレイアウトデータ13Lの説明用テーブルである。例えば、図5の最上部「T」は、図6の第1行「時刻」の図中記号「T」に対応する。なお、図5の最上部「T」の場所に配置される画像データは、時刻情報取得部12が取得した時刻データである。つまり、図6に示す1枚の画像は、各場所に配置されたセンサ2から同じ計測時刻(「T」の時刻データ)において計測されたセンサ情報の集合を、1つに集約して可視化した結果である。 FIG. 6 is an explanatory table of the layout data 13L in FIG. For example, the top "T" in FIG. 5 corresponds to the symbol "T" in the first line "Time" in FIG. Note that the image data placed at the top “T” in FIG. 5 is time data acquired by the time information acquisition unit 12. In other words, one image shown in Figure 6 is a visualization of a collection of sensor information measured at the same measurement time (time data of "T") from sensors 2 placed at each location. This is the result.

図6のレイアウトデータ13Lは、同じ種類のセンサ情報を画像内の近接にまとめて配置する一例である。一方、センサの設置場所(部屋)が同じセンサ情報ごとに、画像内の近接にまとめて配置してもよい。
なお、センサ2の種類は、例えば、加速度センサ、(ドア)開閉センサなどの被観察者2uの動作を検出するものや、人感センサなどの被観察者2uの存在を検出するものや、湿度センサなどの自宅2hの環境を測定するものが挙げられる。
Layout data 13L in FIG. 6 is an example of arranging the same type of sensor information close to each other in an image. On the other hand, pieces of sensor information having the same sensor installation location (room) may be placed together in close proximity within the image.
The types of sensors 2 include, for example, those that detect the movement of the observed person 2u such as an acceleration sensor and a (door) opening/closing sensor, those that detect the presence of the observed person 2u such as a human sensor, and those that detect the presence of the observed person 2u such as a human sensor, and humidity sensors. Examples include sensors that measure the environment at home 2 hours.

説明用テーブルの第3列「マス数」とは、領域の大きさを示す。なお、領域が表現可能なデータ量よりも書き込むデータ量が少ないときには、領域が余ってしまう。そのときには、画像変換部13は、同じデータ内容を複数の場所にコピーして書き込むことで、画像内のマス数を埋める。 The third column "number of squares" in the explanation table indicates the size of the area. Note that if the amount of data to be written is smaller than the amount of data that can be expressed by the area, the area will be left over. At that time, the image conversion unit 13 fills up the number of squares in the image by copying and writing the same data content in multiple locations.

なお、レイアウトデータ13Lのマス数は書き込む情報間の重みを示し、多くのマス数が割り当てられるほど行動への影響が大きい。このマス数の配分は、例えば、以下のポリシP1により決定される。
・昼間は外出し夜は寝るなど、人間の生活は時刻によって取る行動が習慣化されているので、時刻情報「T」は、他のセンサ情報よりも多くのマス数(24マス)を配分する。
・人間は居る場所によって取り得る行動がある程度絞り込まれるので、人感センサ「HM1~HM5」のセンサ情報(居場所情報)は他のセンサ情報よりも多くのマス数(12マス)を配分する。
・平日は出勤し休日は家で休むなど、人間の生活は曜日によっても同じ行動を取る習慣があるので、曜日情報「DoW」は、自宅2hの環境を測定するセンサ情報よりも多くのマス数(12マス)を配分する。
・人間の動作を検知するセンサ情報として、加速度センサ「ACC1~ACC4」および開閉センサ「OC1~OC3」は、自宅2hの環境を測定するセンサ情報よりも多くのマス数(4マス)を配分する。
以上の例示したポリシP1では、各部屋に人感センサを取り付けて複数の部屋がある間取りで「人がどこにいるか=何をしているか」を主に読み取る一例である。
Note that the number of cells in the layout data 13L indicates the weight between pieces of information to be written, and the larger the number of cells allocated, the greater the influence on behavior. This distribution of the number of squares is determined, for example, by the following policy P1.
・Humans are accustomed to taking actions based on the time of day, such as going out during the day and sleeping at night, so time information "T" is allocated a larger number of squares (24 squares) than other sensor information. .
- Since the actions that humans can take are limited to a certain extent depending on where they are, the sensor information (location information) of human sensors "HM1 to HM5" is allocated a larger number of squares (12 squares) than other sensor information.
・Humans have the habit of taking the same actions depending on the day of the week, such as going to work on weekdays and resting at home on holidays, so day of the week information "DoW" has a larger number of squares than sensor information that measures the environment 2 hours at home. Allocate (12 squares).
・As sensor information for detecting human movements, acceleration sensors "ACC1 to ACC4" and opening/closing sensors "OC1 to OC3" are allocated a larger number of squares (4 squares) than sensor information for measuring the environment of the home 2 hours. .
The above-exemplified policy P1 is an example in which a motion sensor is attached to each room to mainly read "where people are = what they are doing" in a floor plan with a plurality of rooms.

一方、検知したい行動や、間取りの種類によって、ポリシ(必要なセンサやその重要度)を適宜変更してもよい。
例えば、ポリシP1では環境センサの重要度は低かったが、以下のように、環境センサの重要度を高くするポリシP2を用いてもよい。
・温度センサの感度を上げると、エアコンのON/OFFを温度センサから読み取ることができる。
・浴室付近の湿度センサの感度を上げると、湿度の変化により浴室ドアの開閉を検知できる。
・行動と照度が結びついている場合(夜寝るときに電気を消す、朝カーテンを開ける等)は照度から行動を得られる。
On the other hand, the policy (required sensors and their importance) may be changed as appropriate depending on the behavior to be detected and the type of floor plan.
For example, although the importance of environmental sensors was low in policy P1, a policy P2 may be used in which the importance of environmental sensors is increased, as described below.
・If you increase the sensitivity of the temperature sensor, you can read the ON/OFF status of the air conditioner from the temperature sensor.
- If you increase the sensitivity of the humidity sensor near the bathroom, you can detect the opening and closing of the bathroom door based on changes in humidity.
・If behavior and illuminance are linked (such as turning off the light when going to bed at night or opening the curtains in the morning), you can derive behavior from illuminance.

別の例として、ポリシP1では人感センサの重要度が高かったが、以下のように、人感センサ以外のセンサから人の位置を求めるポリシP3を用いてもよい。
・ワンルームの間取りなどで人感センサの数が多く設置できない場合、家電の操作情報の方が人感センサよりも人の位置を詳細に読み取れることがある。
・冷蔵庫のドアが操作されている間は冷蔵庫の前に人がいる、という情報を得られる。
As another example, although the importance of the human sensor is high in the policy P1, a policy P3 may be used in which the position of the person is determined from a sensor other than the human sensor, as described below.
- If a large number of motion sensors cannot be installed due to the floor plan of a studio, etc., the operation information of home appliances may be able to read the location of the person in more detail than the motion sensors.
・While the refrigerator door is being operated, information can be obtained that there is a person in front of the refrigerator.

このように、レイアウトデータ13Lは、ポリシP1~P3などに従って規定される。例えばポリシP1では、画像内の領域の大きい順に、センサ情報の時刻情報「T」、被観察者の居場所を示すセンサ情報「HM1~HM5」、被観察者の動作を示すセンサ情報「ACC1~ACC4」、被観察者の生活環境を測定するセンサ情報「TMP」とした領域の大きさが規定される。
これにより、各センサ情報の行動への影響度合いの経験則を領域の大きさとして推論モデル14mの入力データに反映させることで、行動認識精度を向上できる。今回は、時刻情報と居場所情報が他の情報よりも行動認識に与える影響が大きい経験則を用いた。
In this way, the layout data 13L is defined according to the policies P1 to P3, etc. For example, in policy P1, in descending order of the area within the image, sensor information time information "T", sensor information "HM1 to HM5" indicating the location of the observed person, and sensor information indicating the observed person's movement "ACC1 to ACC4". ”, the size of the area defined as sensor information “TMP” that measures the living environment of the person being observed is defined.
Thereby, by reflecting the empirical rule of the degree of influence of each sensor information on behavior as the size of the area in the input data of the inference model 14m, the accuracy of behavior recognition can be improved. This time, we used an empirical rule that time information and location information have a greater influence on behavior recognition than other information.

説明用テーブルの第4列「値」とは、領域に書き込むデータ内容を示す。例えば、画像データの色深度がグレースケールの8bitであるときには、領域が表現可能なデータ量は、2の8乗=256通りの数値となる。
もちろん、画像データの色深度はグレースケールに限定されず、それよりも詳細な段階の値を表現できるカラーを用いてもよい。画像データの色深度は任意に設定可能であるため、表現可能なデータ量は256通りに限定されることは無い。従って、例えば8bitのグレースケールと16bitのカラーでは、同じセンサの反応値でも異なる値、精度に変換されることがある。
The fourth column "value" of the explanation table indicates the data content to be written into the area. For example, when the color depth of image data is 8 bits of gray scale, the amount of data that can represent an area is 2 to the 8th power = 256 different numerical values.
Of course, the color depth of the image data is not limited to grayscale, and colors that can express values in more detailed stages may be used. Since the color depth of image data can be set arbitrarily, the amount of data that can be expressed is not limited to 256 ways. Therefore, for example, in 8-bit gray scale and 16-bit color, the same sensor response value may be converted to different values and precision.

本実施形態では、0.00~1.00の範囲を0.01の精度で記載することとした。
例えば、時刻「T」の値「0.31」とは、0時0分を値「0.00」とし、23時59分を値「1.00」としたときには、午前7時40分を示す。一方、曜日は、月曜日を値「0.00」とし、日曜日を値「1.00」としたときの7通りの中から選択される。
なお、上記「値」とは、各センサ情報の値に基づいた任意の範囲の値のことである。上述したように各センサ情報の値に応じた色をいう場合の他、各センサ情報の値そのままをいう場合も含む。このように、センサの種別ごとに取り得る値の幅がばらつく場合でも、任意の範囲の値として正規化される。
In this embodiment, the range from 0.00 to 1.00 is described with an accuracy of 0.01.
For example, the value "0.31" of time "T" indicates 7:40 a.m. when 0:00 is the value "0.00" and 23:59 is the value "1.00". On the other hand, the day of the week is selected from seven types, where Monday is the value "0.00" and Sunday is the value "1.00".
Note that the above-mentioned "value" refers to a value in an arbitrary range based on the value of each sensor information. As mentioned above, in addition to the case where the color corresponds to the value of each sensor information, it also includes the case where the value of each sensor information is referred to as it is. In this way, even if the range of possible values varies depending on the type of sensor, it is normalized as a value within an arbitrary range.

なお、図6の「湿度」の行「HUM」では、マス数「5(=1x5)」とは、湿度センサの領域の大きさが、1センサで1マス分ありセンサ数が5個なので、合計5マス分という意味である。また「湿度」の値「0.66,0.57,0.64,0.58,0.7」は、左から順に第1湿度センサの値「0.66」、第2湿度センサの値「0.57」、…、第5湿度センサの値「0.7」を示す。
さらに、人感センサ「HM1~HM5」の数は5個を例示したが、センサの種類や数は部屋のレイアウトや認識したい行動によって変化、増減する。
In addition, in the "Humidity" row "HUM" in Figure 6, the number of squares "5 (=1x5)" means that the area size of the humidity sensor is one square for one sensor, and the number of sensors is 5. This means a total of 5 squares. Also, the "humidity" values "0.66, 0.57, 0.64, 0.58, 0.7" are, in order from the left, the value of the first humidity sensor "0.66", the value of the second humidity sensor "0.57", ..., the value of the fifth humidity sensor Indicates "0.7".
Furthermore, although the number of human sensors "HM1 to HM5" is five in the example, the type and number of sensors may change, increase or decrease depending on the layout of the room and the behavior that is desired to be recognized.

図7は、図5のレイアウトデータ13Lに対して、図6の「値」を書き込んだ結果の画像データの説明図である。図7では説明をわかりやすくするために「T」や「ACC1」などの図中記号も併記したが、実際は図中記号は画像からは省略される。
例えば、画像変換部13は、「ACC1」の領域には、センサ情報の値に応じた色として、値「0」を示す黒色を書き込む。一方、画像変換部13は、「HM4」の領域には、センサ情報の値に応じた色として、値「1」を示す白色を書き込む。つまり、書き込む値が大きいほど白色に近づく。
さらに、画像変換部13が作成した画像データに対して、その画像データが示すシチュエーションを示す被観察者2uの行動「帰宅」を対応づけることにより、推論モデル14mが定義される。
FIG. 7 is an explanatory diagram of image data resulting from writing the "value" of FIG. 6 into the layout data 13L of FIG. 5. In FIG. 7, symbols in the diagram such as "T" and "ACC1" are also shown to make the explanation easier to understand, but in reality, the symbols in the diagram are omitted from the image.
For example, the image conversion unit 13 writes black, which indicates the value "0", in the "ACC1" area as a color corresponding to the value of the sensor information. On the other hand, the image conversion unit 13 writes white, which indicates the value "1", in the "HM4" area as a color corresponding to the value of the sensor information. In other words, the larger the written value, the closer the color becomes to white.
Furthermore, the inference model 14m is defined by associating the image data created by the image conversion unit 13 with the behavior "going home" of the observed person 2u, which indicates the situation represented by the image data.

行動推論部14は、過去に登録された推論モデル14mを参照することで、推論モデル14mの画像データと一致または類似する画像データが現在の被観察者2uから検知された場合には、推論モデル14mで対応する行動「帰宅」を推論結果として出力する(S104)。
なお、観察者3uなどの人間が教師として、「帰宅」、「休憩」などの行動ラベルを推論モデル14mの画像データに対応づけておくとよい。
By referring to the inference models 14m registered in the past, the behavior inference unit 14 uses the inference model when image data that matches or is similar to the image data of the inference model 14m is detected from the current observed person 2u. At 14 m, the corresponding action "go home" is output as the inference result (S104).
Note that it is preferable that a human such as the observer 3u act as a teacher and associate behavior labels such as "going home" and "rest" with the image data of the inference model 14m.

図8は、図5のレイアウトデータ13Lに対して、図7とは別の行動を書き込んだ結果の画像データの説明図である。図8の推論モデル14mは、人感センサ「HM1~HM5」が全て白色(被観察者2uが各部屋に不在)なので、被観察者2uの行動「外出」が対応づけられている。
以下、図9~図12を参照して、現在行動パターンと通常行動パターンとの比較処理(S111)と、その比較処理により抽出した現在行動パターンの異常の報知処理(S112)の具体的な事例を説明する。
FIG. 8 is an explanatory diagram of image data as a result of writing actions different from those in FIG. 7 into the layout data 13L of FIG. 5. In the inference model 14m of FIG. 8, since the human sensors "HM1 to HM5" are all white (the observed person 2u is absent from each room), the behavior "going out" of the observed person 2u is associated with them.
Hereinafter, with reference to FIGS. 9 to 12, specific examples of the process of comparing the current behavior pattern and the normal behavior pattern (S111) and the process of notifying abnormalities in the current behavior pattern extracted through the comparison process (S112) Explain.

図9は、データベース17に格納される通常行動パターンの一例を示す説明図である。通常行動パターンは、午前5時の「就寝」から始まり、午前6時の「洗面」、…、23時の「就寝」までの被観察者2uの正常な行動をつなげた行動パターンである。
図10は、現在行動蓄積部16に格納される現在行動パターンの一例を示す説明図である。現在行動パターンは、午前5時の「就寝」から始まり、午前9時の「食事」、…、23時の「就寝」までの被観察者2uの現在の(見守り当日の)行動をつなげた行動パターンである。
FIG. 9 is an explanatory diagram showing an example of normal behavior patterns stored in the database 17. The normal behavior pattern is a behavior pattern that connects the normal behavior of the observed person 2u, starting from "going to bed" at 5 a.m., "washing the bathroom" at 6 a.m., and ending at "going to bed" at 11 p.m.
FIG. 10 is an explanatory diagram showing an example of the current behavior pattern stored in the current behavior storage unit 16. The current behavior pattern is the behavior that connects the observed person 2u's current behavior (on the day of monitoring), starting from "going to bed" at 5:00 a.m., "meal" at 9:00 a.m., and ending with "going to bed" at 11:00 p.m. It's a pattern.

ここで、変化検知部18は、図9の現在行動パターンと図10の通常行動パターンとの行動ごとの比較処理(S111)により、以下のような被観察者2uの現在行動パターン内の異常な行動を抽出する。
・9時まで起床せず、室内で動きがない。
・食事時間が通常と異なり、かつ、食事の時間が長い。
・外出途中の予期せぬ時刻(15時)に、一時帰宅している。
・入浴時間が異なり、かつ、入浴の時間が長い。
Here, the change detection unit 18 detects abnormalities in the current behavior pattern of the observed person 2u by the process of comparing the current behavior pattern in FIG. 9 and the normal behavior pattern in FIG. 10 for each behavior (S111). Extract behavior.
・I don't wake up until 9 o'clock and don't move around indoors.
・Meal times are different from usual and the meal times are long.
・I came home at an unexpected time (3:00 p.m.) while on my way out.
・The bathing times are different and the bathing time is long.

このように、変化検知部18は、以下に例示するような被観察者2uの異常を検知する。
(1)通常行動パターンで定義した通常の行動が、現在行動パターンでは行われていなかった。
(2)通常行動パターンにない不自然な行動が、現在行動パターンでは行われた。
(3)通常行動パターンで定義した通常の行動が現在行動パターンでも行われたが、通常行動パターンで定義した時刻とは異なっていた。
(4)通常行動パターンで定義した通常の行動が現在行動パターンでも行われたが、通常行動パターンで定義した長さとは異なっていた。
(5)現在行動パターンでの被観察者2uの行動速度が、通常行動パターンとして定義した行動の速度を逸脱した(大きく下回った)。
In this way, the change detection unit 18 detects abnormalities of the observed person 2u as exemplified below.
(1) The normal behavior defined in the normal behavior pattern was not currently being performed in the behavior pattern.
(2) An unnatural behavior that is not in the normal behavior pattern was performed in the current behavior pattern.
(3) The normal action defined in the normal action pattern was performed in the current action pattern, but the time was different from the time defined in the normal action pattern.
(4) The normal behavior defined in the normal behavior pattern was performed in the current behavior pattern, but the length was different from the length defined in the normal behavior pattern.
(5) The behavioral speed of the observed person 2u in the current behavioral pattern deviated from (was significantly lower than) the behavioral speed defined as the normal behavioral pattern.

そして、S112として、変化検知部18は、(1)または(2)の重度な異常に対しては観察者端末3を介して観察者3uに緊急信号を報知することで、救急車の手配などの観察者3uに緊急の対応を促す。
一方、変化検知部18は、(3)~(5)の軽度な異常に対しては観察者端末3を介して観察者3uに要観察信号を送信することで、被観察者2uの病気の予兆を観察者3uに通知する。病気の予兆は、例えば、要介護状態の手前の状態(フレイル)や、軽度認知障害(MCI:Mild Cognitive Impairment)である。
Then, in S112, the change detection unit 18 notifies the observer 3u of an emergency signal via the observer terminal 3 in the event of a serious abnormality (1) or (2), thereby making arrangements for an ambulance, etc. Urge observer 3u to take urgent action.
On the other hand, the change detection unit 18 transmits an observation required signal to the observer 3u via the observer terminal 3 for the mild abnormalities (3) to (5), thereby detecting the illness of the observed person 2u. Notify the observer 3u of the sign. Signs of illness include, for example, a state on the verge of requiring nursing care (frailty) and mild cognitive impairment (MCI).

とくに(3)~(5)の軽度な異常については、単体のセンサ情報からは検出が困難である。一方、画像変換部13が複数のセンサ情報を一括して画像化したことにより行動の間隔を抽出できるので、本実施形態では、検出が容易になる。
なお、(5)で現在行動パターンから被観察者2uの行動速度を取得する処理は、以下に例示する方法が挙げられる。
・洗濯機と冷蔵庫2a(レンジ、IH)の操作間隔から、洗面所とキッチンの間の移動速度を計測する。
・冷蔵庫2aのドアに関する行動(開閉速度、開閉間隔、開閉時間等)の変化から、反応速度を計測する。
・玄関ドア開閉と照明のON/OFFの間の間隔から、行動速度を計測する。
・掃除機2bの加速度から、掃除時の歩行速度を計測する。
In particular, the mild abnormalities (3) to (5) are difficult to detect from single sensor information. On the other hand, since the image conversion unit 13 collectively converts a plurality of pieces of sensor information into an image, it is possible to extract the interval between actions, so detection becomes easy in this embodiment.
Note that the process of acquiring the behavior speed of the observed person 2u from the current behavior pattern in (5) may be performed using the following methods.
・Measure the speed of movement between the washroom and kitchen based on the operation interval of the washing machine and refrigerator 2a (range, IH).
- Measure reaction speed from changes in behavior regarding the door of the refrigerator 2a (opening/closing speed, opening/closing interval, opening/closing time, etc.).
・Measure the speed of movement from the interval between opening/closing the front door and turning on/off the lights.
-Measure the walking speed during cleaning from the acceleration of the vacuum cleaner 2b.

図11は、現在行動パターンが正常なとき(S111,No)の観察者端末3の表示画面を示す画面図である。
変化検知部18は、以下の表示内容を含む表示画面を観察者端末3に表示させることにより、被観察者2uの健康な状態を観察者3uに知らせる。
・現在行動パターンの概要を示すメッセージ欄221
・現在行動パターンのタイムチャート欄222
・今週の生活パターンの統計データ欄223
・今週と先週との差分の統計データ欄224
・これまでの履歴との差分の統計データ欄225
FIG. 11 is a screen diagram showing the display screen of the observer terminal 3 when the current behavior pattern is normal (S111, No).
The change detection unit 18 notifies the observer 3u of the healthy state of the observed person 2u by displaying a display screen including the following display contents on the observer terminal 3.
Message column 221 showing an overview of the current behavior pattern
・Current behavior pattern time chart column 222
Statistical data column 223 of this week's lifestyle pattern
Statistical data column 224 for the difference between this week and last week
Statistical data column 225 for differences with previous history

図12は、現在行動パターンが異常なとき(S111,Yes)の観察者端末3の表示画面(S112)を示す画面図である。
画面中央の間取り図欄211には、自宅2hの部屋ごとに、寝室、居室などの部屋名と、部屋ごとの環境センサが計測したセンサ情報(温度、湿度、照度)とが表示される。
ここで、被観察者2uの推定位置212と、被観察者2uの異常な行動を示す警告メッセージ213(緊急信号)も、間取り図欄211に表示させる。これにより、人が倒れているなどの被観察者2uの異常の詳細を、観察者3uは容易に把握することができる。
FIG. 12 is a screen diagram showing the display screen (S112) of the observer terminal 3 when the current behavior pattern is abnormal (S111, Yes).
In the floor plan column 211 at the center of the screen, the names of rooms such as bedrooms and living rooms for each room in the home 2h, and sensor information (temperature, humidity, illuminance) measured by the environmental sensor for each room are displayed.
Here, the estimated position 212 of the observed person 2u and a warning message 213 (emergency signal) indicating abnormal behavior of the observed person 2u are also displayed in the floor plan column 211. Thereby, the observer 3u can easily grasp the details of an abnormality of the observed person 2u, such as a person falling down.

以上説明した本実施形態では、画像変換部13は、冷蔵庫2aや掃除機2bなどのコネクテッド家電のセンサ情報、および、人感センサ2cのセンサ情報などの多くの種類のセンサ情報を1枚の画像に統合する(図7,図8)。
これにより、単体のセンサ情報だけでは把握できなかった、転倒のような被観察者2uの大きな行動の変化でも検知できる。
In the present embodiment described above, the image conversion unit 13 converts many types of sensor information, such as sensor information of connected home appliances such as the refrigerator 2a and the vacuum cleaner 2b, and sensor information of the human sensor 2c, into one image. (Figure 7, Figure 8).
This makes it possible to detect large changes in the behavior of the observed person 2u, such as a fall, which could not be detected using single sensor information alone.

ここで、本実施形態と特許文献1のような生活行動データベースを構築する方式とを比較する。特許文献1のような従来の技術では、どのセンサ情報がどの程度行動に影響するかというルールを手作業で入力するため、手間がかかっていた。
一方、本実施形態の画像化したセンサ情報を機械学習する方式は、どのセンサ情報がどの程度行動に影響するかというルールは、機械学習で自動的に発見してくれるので、人間がルールを手作業で入力する手間が省ける。さらに、人間が知らなかったルールでも機械学習で自動的に発見してくれるので、行動の認識精度が向上する。
Here, this embodiment will be compared with a method of constructing a lifestyle behavior database such as that disclosed in Patent Document 1. In the conventional technology such as Patent Document 1, rules regarding which sensor information influences behavior and to what degree are manually inputted, which takes time and effort.
On the other hand, in the method of machine learning based on imaged sensor information according to this embodiment, the rules regarding which sensor information influences behavior and to what degree are automatically discovered by machine learning, so humans can manually learn the rules. It saves you the trouble of inputting data at work. Additionally, machine learning can automatically discover rules that humans are unaware of, improving the accuracy of behavior recognition.

なお、本発明は前記した実施例に限定されるものではなく、さまざまな変形例が含まれる。例えば、前記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。
また、前記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
Note that the present invention is not limited to the embodiments described above, and includes various modifications. For example, the embodiments described above are described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described.
Furthermore, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment.
Further, it is possible to add, delete, or replace a part of the configuration of each embodiment with other configurations. Further, each of the above-mentioned configurations, functions, processing units, processing means, etc. may be partially or entirely realized in hardware by, for example, designing an integrated circuit.
Further, each of the configurations, functions, etc. described above may be realized by software by a processor interpreting and executing programs for realizing the respective functions.

各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリや、ハードディスク、SSD(Solid State Drive)などの記録装置、または、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)などの記録媒体におくことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
さらに、各装置を繋ぐ通信手段は、無線LANに限定せず、有線LANやその他の通信手段に変更してもよい。
Information such as programs, tables, and files that realize each function can be stored in memory, recording devices such as hard disks, SSDs (Solid State Drives), IC (Integrated Circuit) cards, SD cards, DVDs (Digital Versatile Discs), etc. can be stored on a recording medium.
Further, the control lines and information lines are shown to be necessary for explanation purposes, and not all control lines and information lines are necessarily shown in the product. In reality, almost all configurations may be considered to be interconnected.
Furthermore, the communication means for connecting each device is not limited to wireless LAN, but may be changed to wired LAN or other communication means.

2 センサ
2u 被観察者
3 観察者端末
3u 観察者
1 行動認識サーバ
11 センサ情報取得部
12 時刻情報取得部
13 画像変換部
13L レイアウトデータ
14 行動推論部
14m 推論モデル
15 現在行動特定部
16 現在行動蓄積部
17 データベース
18 変化検知部
2 Sensor 2u Observed person 3 Observer terminal 3u Observer 1 Behavior recognition server 11 Sensor information acquisition unit 12 Time information acquisition unit 13 Image conversion unit 13L Layout data 14 Behavior inference unit 14m Inference model 15 Current behavior identification unit 16 Current behavior accumulation Section 17 Database 18 Change detection section

Claims (7)

被観察者を検知するセンサの集合から、前記センサごとの検知結果を示すセンサ情報を取得するセンサ情報取得部と、
前記各センサ情報の値に基づいた任意の範囲の値に加えて、前記センサ情報の時刻情報に基づいた任意の範囲の値も、レイアウトデータで規定された画像内の前記各センサ情報の領域に書き込むことで前記各センサ情報を画像化する画像変換部と、
前記センサ情報の画像と前記被観察者の行動との対応データが事前に準備された推論モデルに対して、前記画像変換部が作成した前記センサ情報の画像を入力することにより、前記推論モデルから出力される前記被観察者の行動を求める行動推論部と、を有することを特徴とする
行動認識サーバ。
a sensor information acquisition unit that acquires sensor information indicating a detection result for each sensor from a set of sensors that detect an observed person;
In addition to the arbitrary range of values based on the values of each sensor information, the arbitrary range of values based on the time information of the sensor information can also be applied to the area of each sensor information in the image defined by the layout data. an image conversion unit that converts each sensor information into an image by writing;
By inputting the image of the sensor information created by the image conversion unit into an inference model in which correspondence data between the image of the sensor information and the behavior of the observed person is prepared in advance, A behavior recognition server comprising: a behavior inference unit that determines the behavior of the observed person to be output.
前記レイアウトデータには、前記各センサ情報の種類に従って、画像内の前記領域の大きさが規定されており、
前記画像変換部は、前記レイアウトデータに規定された前記領域の大きさに従って、前記各センサ情報の値に基づいた任意の範囲の値を書き込むことを特徴とする
請求項1に記載の行動認識サーバ。
The layout data defines the size of the area in the image according to the type of each sensor information,
The image conversion unit writes values in an arbitrary range based on the values of each sensor information according to the size of the area defined in the layout data.
The behavior recognition server according to claim 1 .
前記レイアウトデータには、画像内の前記領域の大きい順に、前記センサ情報の時刻情報、前記被観察者の居場所を示す前記センサ情報、前記被観察者の動作を示す前記センサ情報、前記被観察者の生活環境を測定する前記センサ情報とした前記領域の大きさが規定されることを特徴とする
請求項2に記載の行動認識サーバ。
The layout data includes, in descending order of the area in the image, time information of the sensor information, sensor information indicating the location of the observed person, sensor information indicating the movement of the observed person, and the observed person. The size of the area used as the sensor information for measuring the living environment of the person is defined.
The behavior recognition server according to claim 2 .
被観察者を検知するセンサの集合から、前記センサごとの検知結果を示すセンサ情報を取得するセンサ情報取得部と、
前記各センサ情報の値に基づいた任意の範囲の値を、レイアウトデータで規定された画像内の前記各センサ情報の領域に書き込むことで前記各センサ情報を画像化する画像変換部と、
前記センサ情報の画像と前記被観察者の行動との対応データが事前に準備された推論モデルに対して、前記画像変換部が作成した前記センサ情報の画像を入力することにより、前記推論モデルから出力される前記被観察者の行動を求める行動推論部と
前記行動推論部が求めた前記被観察者の行動を時系列につなげた現在行動パターンを特定する現在行動特定部と、
正常な行動を時系列につなげた通常行動パターンが格納されているデータベースと、
前記現在行動パターンと前記通常行動パターンとを比較することで、前記通常行動パターンから逸脱した前記現在行動パターンを前記被観察者の異常な行動として検知する変化検知部と、を有しており、
前記変化検知部は、前記現在行動パターンに含まれる行動の間隔から前記被観察者の行動速度を取得し、取得した前記被観察者の行動速度が前記通常行動パターンとして定義した行動の速度を逸脱したときに、前記被観察者の軽度な異常を示す要観察信号を報知することを特徴とする
行動認識サーバ。
a sensor information acquisition unit that acquires sensor information indicating a detection result for each sensor from a set of sensors that detect an observed person;
an image conversion unit that converts each sensor information into an image by writing a value in an arbitrary range based on the value of each sensor information into a region of each sensor information within an image defined by layout data;
By inputting the image of the sensor information created by the image conversion unit into an inference model in which correspondence data between the image of the sensor information and the behavior of the observed person is prepared in advance, a behavior inference unit that calculates the behavior of the observed person to be output ;
a current behavior identification unit that identifies a current behavior pattern in which the observed person's behaviors determined by the behavior inference unit are connected in chronological order;
A database that stores normal behavior patterns that connect normal behaviors in chronological order,
a change detection unit that detects the current behavior pattern that deviates from the normal behavior pattern as abnormal behavior of the observed person by comparing the current behavior pattern and the normal behavior pattern ,
The change detection unit acquires a behavioral speed of the observed person from an interval of behaviors included in the current behavioral pattern, and determines whether the acquired behavioral speed of the observed person deviates from the behavioral speed defined as the normal behavioral pattern. An action recognition server, characterized in that, when the observed person does so, an observation required signal indicating a slight abnormality of the observed person is notified .
前記変化検知部は、
前記通常行動パターンで定義した通常の行動が前記現在行動パターンでは行われていなかった場合、または、前記通常行動パターンにない行動が前記現在行動パターンで行われた場合には、前記被観察者の重度な異常を示す緊急信号を報知し、
前記通常行動パターンで定義した通常の行動が前記現在行動パターンでも行われたが前記通常行動パターンで定義した時刻とは異なっていた場合、または、前記通常行動パターンで定義した通常の行動が前記現在行動パターンでも行われたが前記通常行動パターンで定義した長さとは異なっていた場合には、前記被観察者の軽度な異常を示す要観察信号を報知することを特徴とする
請求項4に記載の行動認識サーバ。
The change detection section includes:
If the normal behavior defined in the normal behavior pattern is not performed in the current behavior pattern, or if an action that is not in the normal behavior pattern is performed in the current behavior pattern, the observed person's Alerts an emergency signal indicating a serious abnormality,
If the normal action defined in the normal action pattern is also performed in the current action pattern, but at a different time from the time defined in the normal action pattern, or the normal action defined in the normal action pattern is performed in the current action pattern. If the length is different from the length defined in the normal behavior pattern, a signal requiring observation indicating a slight abnormality of the observed person is notified.
The behavior recognition server according to claim 4 .
行動認識サーバは、センサ情報取得部と、画像変換部と、行動推論部と、を有しており、
前記センサ情報取得部は、被観察者を検知するセンサの集合から、前記センサごとの検知結果を示すセンサ情報を取得し、
前記画像変換部は、前記各センサ情報の値に基づいた任意の範囲の値に加えて、前記センサ情報の時刻情報に基づいた任意の範囲の値も、レイアウトデータで規定された画像内の前記各センサ情報の領域に書き込むことで前記各センサ情報を画像化し、
前記行動推論部は、前記センサ情報の画像と前記被観察者の行動との対応データが事前に準備された推論モデルに対して、前記画像変換部が作成した前記センサ情報の画像を入力することにより、前記推論モデルから出力される前記被観察者の行動を求めることを特徴とする
行動認識方法。
The behavior recognition server includes a sensor information acquisition unit, an image conversion unit, and a behavior inference unit,
The sensor information acquisition unit acquires sensor information indicating a detection result for each sensor from a set of sensors that detect the observed person,
The image converting unit converts the values in an arbitrary range based on the time information of the sensor information in addition to the values in an arbitrary range based on the values of the respective sensor information into the values in the image defined by the layout data. Converting each sensor information into an image by writing in the area of each sensor information,
The behavior inference unit inputs the image of the sensor information created by the image conversion unit to an inference model in which correspondence data between the image of the sensor information and the behavior of the observed person is prepared in advance. A behavior recognition method, characterized in that the behavior of the observed person output from the inference model is determined by:
行動認識サーバは、センサ情報取得部と、画像変換部と、行動推論部と、現在行動特定部と、データベースと、変化検知部とを有しており、
前記センサ情報取得部は、被観察者を検知するセンサの集合から、前記センサごとの検知結果を示すセンサ情報を取得し、
前記画像変換部は、前記各センサ情報の値に基づいた任意の範囲の値を、レイアウトデータで規定された画像内の前記各センサ情報の領域に書き込むことで前記各センサ情報を画像化し、
前記行動推論部は、前記センサ情報の画像と前記被観察者の行動との対応データが事前に準備された推論モデルに対して、前記画像変換部が作成した前記センサ情報の画像を入力することにより、前記推論モデルから出力される前記被観察者の行動を求め
前記現在行動特定部は、前記行動推論部が求めた前記被観察者の行動を時系列につなげた現在行動パターンを特定し、
前記データベースには、正常な行動を時系列につなげた通常行動パターンが格納されており、
前記変化検知部は、前記現在行動パターンと前記通常行動パターンとを比較することで、前記通常行動パターンから逸脱した前記現在行動パターンを前記被観察者の異常な行動として検知する場合に、前記現在行動パターンに含まれる行動の間隔から前記被観察者の行動速度を取得し、取得した前記被観察者の行動速度が前記通常行動パターンとして定義した行動の速度を逸脱したときに、前記被観察者の軽度な異常を示す要観察信号を報知することを特徴とする
行動認識方法。
The behavior recognition server includes a sensor information acquisition unit, an image conversion unit, a behavior inference unit, a current behavior identification unit, a database, and a change detection unit ,
The sensor information acquisition unit acquires sensor information indicating a detection result for each sensor from a set of sensors that detect the observed person,
The image conversion unit converts each sensor information into an image by writing a value in an arbitrary range based on the value of each sensor information into a region of each sensor information in an image defined by layout data,
The behavior inference unit inputs the image of the sensor information created by the image conversion unit to an inference model in which correspondence data between the image of the sensor information and the behavior of the observed person is prepared in advance. determine the behavior of the observed person output from the inference model ,
The current behavior identification unit identifies a current behavior pattern that connects the observed person's behaviors determined by the behavior inference unit in chronological order,
The database stores normal behavior patterns in which normal behaviors are connected in chronological order.
The change detection unit detects the current behavior pattern that deviates from the normal behavior pattern as abnormal behavior of the observed person by comparing the current behavior pattern with the normal behavior pattern. The observed person's behavioral speed is obtained from the behavioral interval included in the behavioral pattern, and when the obtained behavioral speed of the observed person deviates from the behavioral speed defined as the normal behavioral pattern, the observed person's behavioral speed is An action recognition method characterized by notifying a signal requiring observation indicating a slight abnormality in a person .
JP2020054434A 2020-03-25 2020-03-25 Behavior recognition server and behavior recognition method Active JP7366820B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020054434A JP7366820B2 (en) 2020-03-25 2020-03-25 Behavior recognition server and behavior recognition method
PCT/JP2020/042056 WO2021192398A1 (en) 2020-03-25 2020-11-11 Behavior recognition server and behavior recognition method
CN202080066478.8A CN114424263B (en) 2020-03-25 2020-11-11 Behavior recognition server and behavior recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020054434A JP7366820B2 (en) 2020-03-25 2020-03-25 Behavior recognition server and behavior recognition method

Publications (2)

Publication Number Publication Date
JP2021157274A JP2021157274A (en) 2021-10-07
JP7366820B2 true JP7366820B2 (en) 2023-10-23

Family

ID=77891149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020054434A Active JP7366820B2 (en) 2020-03-25 2020-03-25 Behavior recognition server and behavior recognition method

Country Status (3)

Country Link
JP (1) JP7366820B2 (en)
CN (1) CN114424263B (en)
WO (1) WO2021192398A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112022003716T5 (en) 2021-09-27 2024-05-29 Fujifilm Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM
JP2023090273A (en) * 2021-12-17 2023-06-29 株式会社日立製作所 Sensing system, sensing device, and sensing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352352A (en) 2001-05-29 2002-12-06 Mitsubishi Electric Corp System and method for determining degree of abnormality of life behavior pattern
JP2017117492A (en) 2017-03-13 2017-06-29 株式会社日立製作所 Watching system
JP2017216006A (en) 2017-08-10 2017-12-07 パラマウントベッド株式会社 Watching support device
JP2018124639A (en) 2017-01-30 2018-08-09 日本電気株式会社 Data analysis system, data analysis method and program

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5143780B2 (en) * 2009-03-31 2013-02-13 綜合警備保障株式会社 Monitoring device and monitoring method
JP5726792B2 (en) * 2012-03-12 2015-06-03 株式会社東芝 Information processing apparatus, image sensor apparatus, and program
JP5877135B2 (en) * 2012-07-20 2016-03-02 株式会社日立製作所 Image recognition apparatus and elevator apparatus
JP6683199B2 (en) * 2015-04-27 2020-04-15 コニカミノルタ株式会社 Monitoring device, monitoring method, monitoring program, and monitoring system
JP2017023055A (en) * 2015-07-22 2017-02-02 大日本印刷株式会社 Cell management system, program, and cell management method
WO2017038035A1 (en) * 2015-08-31 2017-03-09 富士フイルム株式会社 Device, system, and method for generating behavior history information
JP6713837B2 (en) * 2016-05-31 2020-06-24 株式会社日立製作所 Transport equipment control system and transport equipment control method
KR101810853B1 (en) * 2016-10-27 2017-12-20 숭실대학교산학협력단 Method for preventing corporate data leakage using neural network algorithm, recording medium and device for performing the method
WO2018186042A1 (en) * 2017-04-06 2018-10-11 コニカミノルタ株式会社 Behavior detection device, behavior detection method, and monitored person monitoring support system
US10331943B2 (en) * 2017-07-31 2019-06-25 Cubic Corporation Automated scenario recognition and reporting using neural networks
JP6999399B2 (en) * 2017-12-19 2022-01-18 日本信号株式会社 Abnormality judgment device
JP2019149039A (en) * 2018-02-27 2019-09-05 パナソニックIpマネジメント株式会社 Monitoring system and monitoring method
KR102152717B1 (en) * 2018-08-28 2020-09-07 한국전자통신연구원 Apparatus and method for recognizing behavior of human
KR101999213B1 (en) * 2019-03-28 2019-07-11 한국건설기술연구원 Behavior recognition system based on cctv using signal strengh pattern, method thereof and a recording medium having computer readable program for executing the method
CN110058699B (en) * 2019-04-28 2021-04-27 电子科技大学 User behavior identification method based on intelligent mobile device sensor
CN110533889B (en) * 2019-08-30 2021-08-13 中国电子科技网络信息安全有限公司 Sensitive area electronic equipment monitoring and positioning device and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352352A (en) 2001-05-29 2002-12-06 Mitsubishi Electric Corp System and method for determining degree of abnormality of life behavior pattern
JP2018124639A (en) 2017-01-30 2018-08-09 日本電気株式会社 Data analysis system, data analysis method and program
JP2017117492A (en) 2017-03-13 2017-06-29 株式会社日立製作所 Watching system
JP2017216006A (en) 2017-08-10 2017-12-07 パラマウントベッド株式会社 Watching support device

Also Published As

Publication number Publication date
WO2021192398A1 (en) 2021-09-30
JP2021157274A (en) 2021-10-07
CN114424263A (en) 2022-04-29
CN114424263B (en) 2023-06-27

Similar Documents

Publication Publication Date Title
Aran et al. Anomaly detection in elderly daily behavior in ambient sensing environments
CN107205698B (en) System and method for monitoring activities of daily living of a person
Ghayvat et al. Smart aging system: uncovering the hidden wellness parameter for well-being monitoring and anomaly detection
JP7366820B2 (en) Behavior recognition server and behavior recognition method
Pirzada et al. Sensors in smart homes for independent living of the elderly
US20220230746A1 (en) Sensor-based monitoring of at-risk person at a dwelling
CN116976834B (en) Intelligent endowment service platform based on SaaS cloud service
Valero et al. EBASI: IoT-based emotion and behaviour recognition system against elderly people social isolation
JP7436257B2 (en) Behavior recognition server, behavior recognition system, and behavior recognition method
JP6830298B1 (en) Information processing systems, information processing devices, information processing methods, and programs
WO2023017619A1 (en) Information processing system, information processing method, computer program, and information processing device
US10832554B1 (en) Sensor vectors based on activations of sensors with attributes
Pnevmatikakis Recognising daily functioning activities in smart homes
Akbarzadeh et al. Smart aging system
JP2021174189A (en) Method of assisting in creating menu of service, method of assisting in evaluating user of service, program causing computer to execute the method, and information providing device
Li Research Direction of Smart Home Real-time Monitoring
JP7251546B2 (en) Report output program, report output method, and report output device
KR102682288B1 (en) System for smart home healthcare using non-contact sensor and method thereof
US20220122441A1 (en) Monitoring device, monitoring method, and monitoring program
Ngankam et al. Experimentation of a Nighttime Wandering Assistance System Based on AAL Solutions to Foster Aging at Home
WO2020179343A1 (en) Watching device, watching method, and watching program
WO2020003714A1 (en) Report output program, report output method, and report output device
Shahid et al. Forecasting and Detecting Anomalies in ADLs in Single-Resident Elderly Smart Homes
Selwood et al. The Use of Home-Based Behaviours for Detecting Early Dementia: Protocol for the CUBOId Study
Sedghi BehViz: a smart house monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231011

R150 Certificate of patent or registration of utility model

Ref document number: 7366820

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150