JP2020181257A - Method and system for generating teacher data of learning model estimating mental and physical state of person watched over - Google Patents

Method and system for generating teacher data of learning model estimating mental and physical state of person watched over Download PDF

Info

Publication number
JP2020181257A
JP2020181257A JP2019082111A JP2019082111A JP2020181257A JP 2020181257 A JP2020181257 A JP 2020181257A JP 2019082111 A JP2019082111 A JP 2019082111A JP 2019082111 A JP2019082111 A JP 2019082111A JP 2020181257 A JP2020181257 A JP 2020181257A
Authority
JP
Japan
Prior art keywords
light emission
light emitting
feature
person
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019082111A
Other languages
Japanese (ja)
Other versions
JP7281177B2 (en
Inventor
一色 正男
Masao Isshiki
正男 一色
佐野 芳樹
Yoshiki Sano
芳樹 佐野
優河 神林
Yuga Kambayashi
優河 神林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ikutoku Gakuen School Corp
Original Assignee
Ikutoku Gakuen School Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ikutoku Gakuen School Corp filed Critical Ikutoku Gakuen School Corp
Priority to JP2019082111A priority Critical patent/JP7281177B2/en
Publication of JP2020181257A publication Critical patent/JP2020181257A/en
Application granted granted Critical
Publication of JP7281177B2 publication Critical patent/JP7281177B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Alarm Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

To provide a method for generating teacher data of a learning model that estimates a mental and physical state of a person who is watched over.SOLUTION: A method includes the steps of: acquiring operation logs from a plurality of IoT apparatuses 40 installed in a living space of a person who is watched over; extracting a plurality of feature quantities from the acquired operation logs; generating a feature tensor having the extracted plurality of feature quantities as elements; controlling a light emission mode of corresponding light-emitting elements on the basis of values of the feature quantities extracted from the operation logs in a light-emitting display device including the plurality of light-emitting elements associated with the respective feature quantities; and labeling the feature tensor as abnormal or normal on the basis of a judgement by a watcher who has observed the light-emitting display device whose light emission is controlled.SELECTED DRAWING: Figure 5

Description

本発明は、教師データを生成する方法に関し、より詳細には、見守り対象者の心身状態を推定する学習モデルを生成するために必要な教師データを生成する方法に関する。 The present invention relates to a method of generating teacher data, and more particularly to a method of generating teacher data necessary for generating a learning model for estimating the mental and physical state of a watching subject.

超高齢社会に突入した日本では、核家族化が進む中、一人暮らしの高齢者の割合が年々増加している。このような社会情勢を受けて、近年、高齢者を見守るための見守りシステムが種々提案されている。 In Japan, which has entered a super-aging society, the proportion of elderly people living alone is increasing year by year as the nuclear family grows. In response to this social situation, various monitoring systems for watching over the elderly have been proposed in recent years.

従来の見守りシステムの多くは、高齢者の生活空間に設置された人感センサの出力や家電の使用状況などを所定のルールに照らして異常を検知しようとするものだが(例えば、特許文献1、2)、実際には、実用に足るルールを作成することは非常に困難であり、誤検知や見逃しが多いなど、満足のいく結果が得られていないのが現状である。 Most of the conventional monitoring systems try to detect an abnormality by comparing the output of a motion sensor installed in the living space of an elderly person or the usage status of home appliances with a predetermined rule (for example, Patent Document 1, 2) In reality, it is extremely difficult to create rules that are practical, and the current situation is that satisfactory results have not been obtained, such as many false positives and oversights.

一方、高齢者と離れて暮らす家族は、高齢者の心身状態を絶えず気にかけており、高齢者の心身状態の変化にできるだけ早く気付きたいと願っている。 On the other hand, families living apart from the elderly are constantly concerned about their physical and mental condition and want to be aware of changes in their physical and mental condition as soon as possible.

しかしながら、従来のルールベースによるアプローチでは、「トイレの中で倒れている」とか「外出したまま帰ってこない」といった明らかな異常状態を検知することはできても、高齢者の心身状態の変化を検知することはできなかった。 However, although the conventional rule-based approach can detect obvious abnormal conditions such as "falling down in the bathroom" or "not returning while going out", it can detect changes in the physical and mental condition of the elderly. It could not be detected.

特開2017−116994号公報JP-A-2017-116994 特開2014−222498号公報Japanese Unexamined Patent Publication No. 2014-222298

本発明者は、上記の問題に鑑みて、高齢者の心身状態を推定する見守りシステムを機械学習のアプローチで構築するという着想を得たが、この着想を具体化する過程で、学習モデルを生成するために必要な教師データをいかにして生成するのかという問題に行き当たった。本発明は、この問題を解決するべくなされたものであり、一人暮らしの高齢者に代表される見守り対象者の心身状態を推定する学習モデルの教師データを生成する方法を提供することを目的とする。 In view of the above problems, the present inventor got the idea of constructing a watching system for estimating the mental and physical condition of the elderly by a machine learning approach, but in the process of embodying this idea, a learning model was generated. I ran into the question of how to generate the teacher data needed to do this. The present invention has been made to solve this problem, and an object of the present invention is to provide a method for generating teacher data of a learning model for estimating the mental and physical condition of a watching subject represented by an elderly person living alone. ..

見守り対象者の心身状態を推定する学習モデルの教師データを生成するにあたり、第1に、何を入力データとするのかが問題となり、第2に、入力データに対して誰がどのような方法でラベル付け(異常/正常)を行うのかが問題となる。 In generating teacher data for a learning model that estimates the physical and mental state of the person being watched over, firstly, what is the input data is an issue, and secondly, who and how to label the input data. The problem is whether to attach (abnormal / normal).

第1の問題に関して、本発明者は、生活者の生活の質向上を長年研究する中で得た、生活者の心身状態がその人の生活行動パターンに反映するという知見から、見守り対象者の生活行動パターンの特徴量を入力データとするという着想を得た。 Regarding the first problem, the present inventor, based on the knowledge that the mental and physical condition of the consumer is reflected in the lifestyle pattern of the consumer, obtained through many years of research on the improvement of the quality of life of the consumer, is the subject of the watch. I got the idea of using the features of life behavior patterns as input data.

第2の問題に関して、本発明者は、光の変化を高感度に感じ取る人間の優れた視覚能力に着目し、見守り対象者の生活行動パターンの特徴量を光で表現し、それを見守り対象者に愛着を持つ見守り者に提示して、見守り対象者の心身状態を判定させるという着想を得た。 Regarding the second problem, the present inventor pays attention to the excellent visual ability of human beings who sense the change of light with high sensitivity, expresses the feature amount of the life behavior pattern of the person to be watched by light, and the person to watch over it. I got the idea of presenting it to a watcher who has an attachment to the watch and letting the watcher judge the physical and mental condition of the watcher.

本発明者は、上述した着想に基づいて鋭意検討した結果、以下の構成に想到し、本発明に至ったのである。 As a result of diligent studies based on the above-mentioned idea, the present inventor came up with the following configuration and arrived at the present invention.

すなわち、本発明によれば、見守り対象者の心身状態を推定する学習モデルの教師データを生成する方法であって、見守り対象者の生活空間に設置された複数のIoT機器から動作ログを取得するステップと、取得した前記動作ログから複数の特徴量を抽出するステップと、抽出された複数の特徴量を要素とする特徴テンソルを生成するステップと、複数の特徴量のそれぞれに対応付けられている複数の発光素子によって構成される発光表示装置の発光を制御するステップであって、前記動作ログから抽出された特徴量の値に基づいて対応する発光素子の発光態様を制御するステップと、発光が制御される前記発光表示装置を観察した見守り者による判定に基づいて、前記特徴テンソルに対して異常または正常のラベル付けを行うステップと、を含む方法が提供される。 That is, according to the present invention, it is a method of generating teacher data of a learning model for estimating the mental and physical state of the person being watched over, and acquiring operation logs from a plurality of IoT devices installed in the living space of the person being watched over. It is associated with each of a step, a step of extracting a plurality of feature quantities from the acquired operation log, a step of generating a feature tensor having the extracted plurality of feature quantities as elements, and a plurality of feature quantities. The step of controlling the light emission of the light emitting display device composed of a plurality of light emitting elements, the step of controlling the light emitting mode of the corresponding light emitting element based on the value of the feature amount extracted from the operation log, and the light emitting A method is provided that includes a step of labeling the feature tensor as abnormal or normal based on a determination by a watcher who has observed the controlled light emission display device.

上述したように、本発明によれば、見守り対象者の心身状態を推定する学習モデルの教師データを生成する方法が提供される。 As described above, according to the present invention, there is provided a method of generating teacher data of a learning model for estimating the mental and physical state of a watching subject.

本実施形態の見守りシステムの構成を示す図。The figure which shows the structure of the monitoring system of this embodiment. 本実施形態の発光表示装置を示す図。The figure which shows the light emission display device of this embodiment. 本実施形態の発光表示装置を説明するための概念図。The conceptual diagram for demonstrating the light emission display device of this embodiment. 本実施形態の見守りシステムの機能構成を示す図。The figure which shows the functional structure of the monitoring system of this embodiment. 本実施形態の見守りシステムが実行する処理のシーケンス図。The sequence diagram of the process executed by the monitoring system of this embodiment. 本実施形態の見守りシステムが用いるテーブルを示す図。The figure which shows the table used by the monitoring system of this embodiment. 本実施形態の見守りシステムが用いるテーブルを示す図。The figure which shows the table used by the monitoring system of this embodiment. 本実施形態の見守りシステムが実行する処理のシーケンス図。The sequence diagram of the process executed by the monitoring system of this embodiment. 見守り者のPCに表示されるUI画面を示す図。The figure which shows the UI screen displayed on the watcher's PC. 発光素子と特徴量の対応付けを説明するための概念図。The conceptual diagram for demonstrating the correspondence between a light emitting element and a feature amount.

以下、本発明を図面に示した実施の形態をもって説明するが、本発明は、図面に示した実施の形態に限定されるものではない。なお、以下に参照する各図においては、共通する要素について同じ符号を用い、適宜、その説明を省略するものとする。 Hereinafter, the present invention will be described with reference to the embodiments shown in the drawings, but the present invention is not limited to the embodiments shown in the drawings. In each of the figures referred to below, the same reference numerals are used for common elements, and the description thereof will be omitted as appropriate.

図1は、本発明の実施形態である見守りシステム1000のシステム構成を示す。本実施形態の見守りシステム1000は、システム全体を管理する集中管理サーバ100と、複数のIoT機器40と、パーソナル・コンピュータ200と、発光表示装置300とを含む。 FIG. 1 shows the system configuration of the monitoring system 1000 according to the embodiment of the present invention. The monitoring system 1000 of the present embodiment includes a centralized management server 100 that manages the entire system, a plurality of IoT devices 40, a personal computer 200, and a light emitting display device 300.

複数のIoT機器40は、見守り対象者(例えば、独居の高齢者)の生活空間400に設置される電子機器であり、各IoT機器40は、無線アクセスポイント42およびネットワーク50を介して集中管理サーバ100と相互通信可能となっている。 The plurality of IoT devices 40 are electronic devices installed in the living space 400 of the person to be watched (for example, an elderly person living alone), and each IoT device 40 is a centralized management server via a wireless access point 42 and a network 50. It is possible to communicate with 100.

本実施形態において、「IoT機器」とは、インターネットなどのネットワークを介してデータ通信を行うことが可能なネットワーク対応の電子機器全般を意味する。ここで、IoT機器40としては、いわゆる“スマート家電”や各種の状態センサを例示することができ、スマート家電としては、例えば、冷蔵庫、テレビ、エアコン、洗濯機、室内照明器具、電子レンジ、HIクッキングヒーター、炊飯器、電気ポットなどを例示することができ、状態センサとしては、扉や窓に設置される開閉センサや、各部屋に設置される人感センサ、照度センサ、温湿度センサ、匂いセンサなどを例示することができる。 In the present embodiment, the "IoT device" means all network-compatible electronic devices capable of performing data communication via a network such as the Internet. Here, examples of the IoT device 40 include so-called "smart home appliances" and various state sensors, and examples of the smart home appliances include refrigerators, televisions, air conditioners, washing machines, indoor lighting fixtures, microwave ovens, and HI. Cooking heaters, rice cookers, electric pots, etc. can be exemplified, and the status sensors include open / close sensors installed on doors and windows, human sensor installed in each room, illuminance sensor, temperature / humidity sensor, and odor sensor. Etc. can be exemplified.

発光表示装置300は、見守り対象者の生活行動パターンを光で表現する装置である。図2に拡大して示すように、発光表示装置300は、正方形状の支持台32と、4つの支持枠34a,34b,34c,34dと、80個の発光素子30と、立方体状の透明カバー36とからなり、それぞれに20個の発光素子30が2次元マトリックス状に配設された4つの支持枠34a,34b,34c,34dが支持台32の上に等間隔に並んで立設されることで、80個の発光素子30が3次元マトリックス状に配設された構造となっている。なお、本実施形態では、発光素子30として、発光強度および発光色を制御可能なフルカラーLEDが採用しており、以下では、発光素子30のことをLED素子30という。 The light emitting display device 300 is a device that expresses the life behavior pattern of the person being watched over by light. As shown enlarged in FIG. 2, the light emitting display device 300 includes a square support base 32, four support frames 34a, 34b, 34c, 34d, 80 light emitting elements 30, and a cubic transparent cover. Four support frames 34a, 34b, 34c, 34d, each of which is composed of 36 and has 20 light emitting elements 30 arranged in a two-dimensional matrix, are erected on the support base 32 at equal intervals. As a result, the structure is such that 80 light emitting elements 30 are arranged in a three-dimensional matrix. In the present embodiment, as the light emitting element 30, a full-color LED capable of controlling the light emitting intensity and the light emitting color is adopted, and hereinafter, the light emitting element 30 is referred to as an LED element 30.

本実施形態では、発光表示装置300を構成する80個のLED素子30のそれぞれに対して固有のアドレスが割り当てられている。具体的には、図3に示すように、支持枠34aに配設される20個のLED素子30に対してアドレスa1〜a20が割り当てられ、支持枠34bに配設される20個のLED素子30に対してアドレスb1〜b20が割り当てられ、支持枠34cに配設される20個のLED素子30に対してアドレスc1〜c20が割り当てられ、支持枠34dに配設される20個のLED素子30に対してアドレスd1〜d20が割り当てられており、各LED素子30のアドレスを指定して、その発光強度、発光色および発光タイミングを個別に制御できるようになっている。 In the present embodiment, unique addresses are assigned to each of the 80 LED elements 30 constituting the light emitting display device 300. Specifically, as shown in FIG. 3, addresses a1 to a20 are assigned to the 20 LED elements 30 arranged on the support frame 34a, and 20 LED elements arranged on the support frame 34b. Addresses b1 to b20 are assigned to 30 and addresses c1 to c20 are assigned to 20 LED elements 30 arranged on the support frame 34c, and 20 LED elements are assigned to the support frame 34d. Addresses d1 to d20 are assigned to 30 so that the address of each LED element 30 can be specified and the light emission intensity, light emission color, and light emission timing thereof can be individually controlled.

パーソナル・コンピュータ200(以下、ユーザPC200という)は、見守り対象者を見守る見守り者(例えば、独居の高齢者と離れて暮らす家族)が使用するコンピュータであり、ネットワーク50を介して集中管理サーバ100と相互通信可能となっている。本実施形態において、ユーザPC200は、有線または無線を介して発光表示装置300に接続されており、発光表示装置300の発光を制御するとともに、見守り者による見守り対象者の心身状態の判定結果の入力を受け付ける役割を担う。なお、図1では、ユーザPC200として、ノート型PCを例示しているが、ユーザPC200は、これに限定されず、デスクトップPCやタブレット型PCであってよく、スマートフォンであってもよい。 The personal computer 200 (hereinafter referred to as a user PC 200) is a computer used by a watcher (for example, a family living away from an elderly person living alone) who watches over the person to be watched, and is connected to the centralized management server 100 via the network 50. Mutual communication is possible. In the present embodiment, the user PC 200 is connected to the light emitting display device 300 via wire or wirelessly, controls the light emission of the light emitting display device 300, and inputs the determination result of the mental and physical condition of the person to be watched by the watcher. Takes the role of accepting. In FIG. 1, a notebook PC is illustrated as the user PC 200, but the user PC 200 is not limited to this, and may be a desktop PC, a tablet PC, or a smartphone.

以上、本実施形態の見守りシステム1000のシステム構成を説明してきたが、続いて、図4に示す機能ブロック図に基づいて、ユーザPC200および集中管理サーバ100の機能構成を説明する。 The system configuration of the monitoring system 1000 of the present embodiment has been described above, but subsequently, the functional configurations of the user PC 200 and the centralized management server 100 will be described based on the functional block diagram shown in FIG.

本実施形態では、本システムを利用するための専用アプリケーションがユーザPC200に予めインストールされており、ユーザPC200は、当該専用アプリケーションを実行することにより、UI部202および発光制御部203として機能する。 In the present embodiment, a dedicated application for using this system is pre-installed in the user PC 200, and the user PC 200 functions as a UI unit 202 and a light emission control unit 203 by executing the dedicated application.

UI部202は、所定のUI画面をユーザPC200のディスプレイに表示し、当該UI画面を介して、見守り者からの操作入力を受け付ける手段である。 The UI unit 202 is a means for displaying a predetermined UI screen on the display of the user PC 200 and receiving an operation input from a watcher via the UI screen.

発光制御部203は、集中管理サーバ100から取得した発光制御情報(後述する)に基づいて発光表示装置300の発光を制御する手段である。 The light emission control unit 203 is a means for controlling the light emission of the light emission display device 300 based on the light emission control information (described later) acquired from the centralized management server 100.

一方、集中管理サーバ100は、動作ログ収集部101と、特徴量抽出部102と、特徴ベクトル生成部103と、発光制御情報生成部104と、発光制御情報提供部105と、教師データ生成部106と、機械学習部107と、見守り実行部108とを含んで構成される。 On the other hand, the centralized management server 100 includes an operation log collection unit 101, a feature amount extraction unit 102, a feature vector generation unit 103, a light emission control information generation unit 104, a light emission control information provision unit 105, and a teacher data generation unit 106. , A machine learning unit 107, and a watching execution unit 108.

動作ログ収集部101は、見守り対象者の生活空間400に設置される複数のIoT機器40から定期的に動作ログを収集する手段である。 The operation log collecting unit 101 is a means for periodically collecting operation logs from a plurality of IoT devices 40 installed in the living space 400 of the person to be watched over.

特徴量抽出部102は、動作ログ収集部101が収集した各機器の動作ログから複数の特徴量を抽出する手段である。特徴量抽出部102は、適切な推論エンジンを備えており、記憶領域109に保存される知識ベースを用いて、動作ログから所定の特徴量を抽出する。 The feature amount extraction unit 102 is a means for extracting a plurality of feature amounts from the operation log of each device collected by the operation log collection unit 101. The feature amount extraction unit 102 includes an appropriate inference engine, and extracts a predetermined feature amount from the operation log by using the knowledge base stored in the storage area 109.

特徴ベクトル生成部103は、特徴量抽出部102が抽出した複数の特徴量を要素とする特徴ベクトルを生成する手段である。 The feature vector generation unit 103 is a means for generating a feature vector having a plurality of feature quantities extracted by the feature quantity extraction unit 102 as elements.

発光制御情報生成部104は、発光表示装置300の発光を制御するために必要な発光制御情報を生成する手段である。 The light emission control information generation unit 104 is a means for generating light emission control information necessary for controlling light emission of the light emission display device 300.

発光制御情報提供部105は、ユーザPC200からの求めに応じて、発光制御情報生成部104が生成した発光制御情報を提供する手段である。 The light emission control information providing unit 105 is a means for providing light emission control information generated by the light emission control information generation unit 104 in response to a request from the user PC 200.

教師データ生成部106は、特徴ベクトル生成部103が生成した特徴ベクトルに対してラベル付けを行うことにより、見守り対象者の心身状態を推定する学習モデルの教師データを生成する手段である。 The teacher data generation unit 106 is a means for generating teacher data of a learning model that estimates the mental and physical state of the person being watched over by labeling the feature vector generated by the feature vector generation unit 103.

機械学習部107は、教師データ生成部106が生成した教師データを用いて見守り対象者の心身状態を推定する学習モデルを生成する手段である。 The machine learning unit 107 is a means for generating a learning model that estimates the mental and physical state of the watching target person using the teacher data generated by the teacher data generation unit 106.

見守り実行部108は、機械学習部107が生成した学習モデルを用いて見守り対象者の心身状態を推定し、見守り者に必要な通知を行う手段である。 The watching execution unit 108 is a means for estimating the mental and physical state of the watching target person using the learning model generated by the machine learning unit 107 and giving necessary notification to the watching person.

なお、本実施形態では、集中管理サーバ100を構成するコンピュータが、所定のプログラムを実行することにより、上述した各手段として機能する。 In the present embodiment, the computer constituting the centralized management server 100 functions as each of the above-mentioned means by executing a predetermined program.

以上、ユーザPC200および集中管理サーバ100の機能構成について説明してきたが、続いて、見守りシステム1000が「教師データ生成モード」で実行する処理の内容を説明する。なお、以下では、見守り対象者の生活空間400に20台のIoT機器40が設置されている場合を例にとって説明を行う。 The functional configurations of the user PC 200 and the centralized management server 100 have been described above. Next, the contents of the processing executed by the monitoring system 1000 in the "teacher data generation mode" will be described. In the following, a case where 20 IoT devices 40 are installed in the living space 400 of the person to be watched over will be described as an example.

まず最初に、本実施形態の見守りシステム1000が日々継続的に実行する処理の内容を図5に示すシーケンス図に基づいて説明する。 First, the contents of the processes continuously executed by the monitoring system 1000 of the present embodiment on a daily basis will be described with reference to the sequence diagram shown in FIG.

本実施形態では、動作ログ収集部101が、所定のタイミングで、見守り対象者の生活空間400に設置される20台のIoT機器40から動作ログを収集する(S1)。例えば、動作ログ収集部101は、一日が終わるタイミング(24時00分)で、各IoT機器40から一日分の動作ログを収集し、収集した20個の動作ログを記憶領域109に保存する。ここでいう動作ログとしては、例えば、スマート冷蔵庫の扉の開閉時刻、スマートテレビの電源のオン/オフ時刻、トイレの照明のオン/オフ時刻、玄関ドアの開閉時刻、各種状態センサの検出値などを例示することができる。 In the present embodiment, the operation log collecting unit 101 collects operation logs from 20 IoT devices 40 installed in the living space 400 of the person to be watched at a predetermined timing (S1). For example, the operation log collection unit 101 collects operation logs for one day from each IoT device 40 at the end of the day (24:00), and saves the collected 20 operation logs in the storage area 109. To do. The operation log referred to here includes, for example, the opening / closing time of the smart refrigerator door, the power on / off time of the smart TV, the on / off time of the toilet lighting, the opening / closing time of the entrance door, the detection values of various status sensors, and the like. Can be exemplified.

20台のIoT機器40の動作ログを収集し終わると、特徴量抽出部102が、所定のアルゴリズムに基づいて、収集した20個の動作ログから複数の特徴量を抽出する(S2)。ここで、動作ログからどのような特徴量を抽出するかについては、任意に設計することができ、本発明は、特徴量の内容を限定するものではないが、ここでは、説明の便宜上、以下に述べるような特徴量を抽出するものとして説明を行う。 After collecting the operation logs of the 20 IoT devices 40, the feature amount extraction unit 102 extracts a plurality of feature amounts from the collected 20 operation logs based on a predetermined algorithm (S2). Here, what kind of feature amount is extracted from the operation log can be arbitrarily designed, and the present invention does not limit the content of the feature amount, but here, for convenience of explanation, the following The description will be given assuming that the features described in the above are extracted.

すなわち、本実施形態では、1日を6時間毎の4つの時間帯(0−6、6−12、12−18、18−24)に分け、スマート冷蔵庫の各時間帯の動作ログ(扉の開閉時刻)から各時間帯の冷蔵庫の利用回数を特徴量として抽出し、スマートテレビの各時間帯の動作ログ(電源のオン/オフ時刻)から各時間帯のテレビの視聴時間の利用回数を特徴量として抽出し、玄関ドアに設けられたセンサの各時間帯の動作ログ(ドアの開閉時刻)から各時間帯の玄関ドアの開閉回数を特徴量として抽出する、といった具合に、各IoT機器40の動作ログから時間帯に対応する1つの特徴量を抽出する。この場合、20台のIoT機器40の1日分の動作ログから合計で80個の特徴量が抽出されることになる。 That is, in the present embodiment, the day is divided into four time zones (0-6, 6-12, 12-18, 18-24) every 6 hours, and the operation log (of the door) of each time zone of the smart refrigerator. The number of times the refrigerator is used in each time zone is extracted as a feature amount from the opening / closing time), and the number of times the TV viewing time in each time zone is used is characterized from the operation log (power on / off time) of each time zone of the smart TV. Each IoT device 40 is extracted as an amount, and the number of times the entrance door is opened / closed in each time zone is extracted as a feature quantity from the operation log (door opening / closing time) of the sensor provided on the entrance door in each time zone. Extract one feature amount corresponding to the time zone from the operation log of. In this case, a total of 80 features will be extracted from the operation logs of 20 IoT devices 40 for one day.

特徴量抽出部102は、S2で抽出した特徴量の値を記憶領域109に保存されるテーブル500に格納する。図6は、テーブル500を示す。図6に示すように、テーブル500は、特徴量抽出部102が1日分の動作ログから抽出する80個の特徴量と、発光表示装置300を構成する80個のLED素子30を一対一で対応付けるテーブルであり、特徴量のIDを格納するカラム501と、特徴量の内容を格納するカラム502と、特徴量の値を格納するためのカラム503と、特徴量に対応付けられるLED素子30のアドレスを格納するカラム504と、LED素子30の発光色を格納するカラム505と、LED素子30の発光強度を格納するためのカラム506とを有している。特徴量抽出部102は、S2で抽出した80個の特徴量の値を、カラム503の該当するフィールドに格納する。 The feature amount extraction unit 102 stores the feature amount value extracted in S2 in the table 500 stored in the storage area 109. FIG. 6 shows the table 500. As shown in FIG. 6, in the table 500, 80 feature quantities extracted from the operation log for one day by the feature quantity extraction unit 102 and 80 LED elements 30 constituting the light emitting display device 300 are one-to-one. It is a table to be associated, and the column 501 for storing the ID of the feature amount, the column 502 for storing the contents of the feature amount, the column 503 for storing the value of the feature amount, and the LED element 30 associated with the feature amount. It has a column 504 for storing an address, a column 505 for storing the emission color of the LED element 30, and a column 506 for storing the emission intensity of the LED element 30. The feature amount extraction unit 102 stores the values of the 80 feature amounts extracted in S2 in the corresponding fields of the column 503.

ここで、本実施形態では、発光表示装置300を構成する各LED素子30に対して予め固有の発光色が割り当てられており、カラム505の各フィールドには、各LED素子30の発光色を指定するためのRGB情報が予め格納されている。また、本実施形態では、LED素子30の発光強度が4段階のレベルで制御可能となっており、カラム506の各フィールドには、各LED素子30の発光強度のレベルを指定するためのレベル情報(0,1,2,3)が格納されるようになっている。 Here, in the present embodiment, a unique emission color is assigned in advance to each LED element 30 constituting the emission display device 300, and the emission color of each LED element 30 is designated in each field of the column 505. RGB information for the purpose is stored in advance. Further, in the present embodiment, the light emission intensity of the LED element 30 can be controlled in four levels, and level information for designating the light emission intensity level of each LED element 30 in each field of the column 506. (0,1,2,3) is stored.

再び図5に戻って説明を続ける。 The explanation will be continued by returning to FIG. 5 again.

特徴量の抽出が終わると、続いて、特徴ベクトル生成部103が、抽出した特徴量を要素とする特徴ベクトルを生成する(S3)。具体的には、テーブル500のカラム503に格納された80個の特徴量を読み出し、これらを要素とする80次元のベクトル(X,X,X,…X80)を生成する。 When the feature amount extraction is completed, the feature vector generation unit 103 subsequently generates a feature vector having the extracted feature amount as an element (S3). Specifically, 80 feature quantities stored in column 503 of the table 500 are read out, and 80-dimensional vectors (X 1 , X 2 , X 3 , ... X 80 ) having these as elements are generated.

ここで、見守り対象者の生活空間400に設置されるIoT機器40の動作ログから抽出される特徴量を要素とする特徴ベクトル(X,X,X,…X80)は、見守り対象者の生活行動パターンの特徴を表していると見ることができ、これを、生活者の心身状態がその人の生活行動パターンに反映するという知見に照らせば、つまるところ、S3で生成される特徴ベクトルは、見守り対象者の心身状態の特徴を表していると見ることができる。 Here, the feature vectors (X 1 , X 2 , X 3 , ... X 80 ) whose elements are the feature quantities extracted from the operation log of the IoT device 40 installed in the living space 400 of the watch target person are the watch targets. It can be seen that it represents the characteristics of a person's life behavior pattern, and in light of the knowledge that the mental and physical condition of a person is reflected in that person's life behavior pattern, after all, the feature vector generated by S3. Can be seen as representing the characteristics of the physical and mental condition of the person being watched over.

特徴ベクトル生成部103は、S3で生成した特徴ベクトルを記憶領域109に保存されるテーブル600に格納する。図7は、テーブル600を示す。図7に示すように、テーブル600は、動作ログを抽出した日付を格納するためのカラム601と、生成した特徴ベクトルを格納するためのカラム602と、発光制御情報を格納するためのカラム603とを備えており、特徴ベクトル生成部103は、S3で生成した特徴ベクトル(X,X,X,…X80)を、その元となった動作ログを収集した日付に対応するカラム602のフィールドに格納する。 The feature vector generation unit 103 stores the feature vector generated in S3 in the table 600 stored in the storage area 109. FIG. 7 shows the table 600. As shown in FIG. 7, the table 600 includes a column 601 for storing the date when the operation log is extracted, a column 602 for storing the generated feature vector, and a column 603 for storing the light emission control information. The feature vector generation unit 103 uses the feature vector (X 1 , X 2 , X 3 , ... X 80 ) generated in S3 as a column 602 corresponding to the date when the operation log from which the feature vector is collected is collected. Store in the field of.

特徴ベクトルの生成が終わると、続いて、発光制御情報生成部104が、S2で抽出された特徴量に基づいて発光制御情報を生成する(S4)。ここで、「発光制御情報」とは、発光表示装置300を構成する各LED素子30の発光態様を指定するためのデータセットを意味し、発光制御情報生成部104は、以下の手順で、発光制御情報を生成する。 When the generation of the feature vector is completed, the light emission control information generation unit 104 subsequently generates light emission control information based on the feature amount extracted in S2 (S4). Here, the "light emission control information" means a data set for designating the light emission mode of each LED element 30 constituting the light emission display device 300, and the light emission control information generation unit 104 emits light by the following procedure. Generate control information.

まず最初に、S2で抽出した各特徴量の値に基づき、所定の規則に従って、LED素子30の発光強度のレベルを決定し、決定したレベルを指定するレベル情報(0,1,2,3)を、テーブル500の注目する特徴量に対応するカラム506のフィールドに格納する。本発明は、発光強度のレベルを決定する規則を特に限定するものではないが、ここでは、特徴量の値が大きくなるにつれ、段階的に発光強度のレベルを大きくするという規則に基づいて発光強度のレベルを決定するものとする。 First, based on the value of each feature amount extracted in S2, the level of the light emission intensity of the LED element 30 is determined according to a predetermined rule, and the level information (0, 1, 2, 3) for designating the determined level. Is stored in the field of column 506 corresponding to the feature quantity of interest in table 500. The present invention does not particularly limit the rule for determining the level of emission intensity, but here, the emission intensity is based on the rule that the level of emission intensity is gradually increased as the value of the feature amount increases. Shall determine the level of.

テーブル500のカラム506に80個のレベル情報が格納されたことを受けて、発光制御情報生成部104は、テーブル500の各レコードから、LED素子30のアドレス、発光色(RGB情報)および発光強度(レベル情報)という3つの情報を抽出し、これら3つの情報を一組とする80組のデータセットを発光制御情報として生成する。 In response to the fact that 80 level information is stored in the column 506 of the table 500, the light emission control information generation unit 104 receives the address of the LED element 30, the light emission color (RGB information), and the light emission intensity from each record of the table 500. Three pieces of information (level information) are extracted, and 80 sets of data sets including these three pieces of information are generated as light emission control information.

最後に、S4で生成した発光制御情報(あるいは、その保存先パス)を、テーブル600の、S1で動作ログを収集した日付に対応するカラム603のフィールドに格納する。これにより、動作ログを収集した日付と、当該動作ログから抽出した特徴量を要素とする特徴ベクトルと、当該動作ログから抽出した特徴量に基づいて生成された発光制御情報とが対応付けて保存される(S5)。 Finally, the light emission control information (or its storage destination path) generated in S4 is stored in the field of column 603 of the table 600 corresponding to the date when the operation log was collected in S1. As a result, the date when the operation log is collected, the feature vector whose elements are the feature amount extracted from the operation log, and the light emission control information generated based on the feature amount extracted from the operation log are stored in association with each other. Is done (S5).

本実施形態では、上述した一連の処理が毎日実行され、その度に、テーブル600が更新される。 In the present embodiment, the series of processes described above is executed every day, and the table 600 is updated each time.

続いて、本実施形態の見守りシステム1000が教師データを生成する際に実行する処理の内容を図8に示すシーケンス図に基づいて説明する。 Subsequently, the content of the processing executed when the monitoring system 1000 of the present embodiment generates the teacher data will be described with reference to the sequence diagram shown in FIG.

見守り者が自身のユーザPC200を操作して、本システムを利用するための専用アプリケーションを起動すると(S1)、これに応答して、UI部202が、図9(a)に示す観察日指定画面700をディスプレイに表示する(S2)。このとき、観察日指定画面700には、日付を指定するためのカレンダーが表示され、見守り者は、表示されたカレンダー上で観察したい日付を指定して、OKボタンをクリックする(S3)。 When the watcher operates his / her own user PC200 to start a dedicated application for using this system (S1), in response to this, the UI unit 202 displays the observation date designation screen shown in FIG. 9A. The 700 is displayed on the display (S2). At this time, a calendar for designating the date is displayed on the observation date designation screen 700, and the watcher specifies the date to be observed on the displayed calendar and clicks the OK button (S3).

OKボタンがクリックされたことに応答して、UI部202が、集中管理サーバ100に対して、見守り者が指定した日付に対応する発光制御情報を要求する(S4)。これを受けて、集中管理サーバ100の発光制御情報提供部105は、テーブル600から見守り者が指定した日付に紐付いた発光制御情報を読み出し(S5)、読み出した発光制御情報をユーザPC200に送信する(S6)。 In response to the click of the OK button, the UI unit 202 requests the centralized management server 100 for light emission control information corresponding to the date specified by the watcher (S4). In response to this, the light emission control information providing unit 105 of the centralized management server 100 reads the light emission control information associated with the date specified by the watcher from the table 600 (S5), and transmits the read light emission control information to the user PC 200. (S6).

これを受けて、ユーザPC200の発光制御部203は、集中管理サーバ100から受信した発光制御情報に基づいて発光表示装置300を構成する80個のLED素子30の発光態様を制御する(S7)。具体的には、受信した発光制御情報から、各LED素子30のアドレスに対応付けられたRGB情報およびレベル情報を読み出し、読み出したRGB情報およびレベル情報に基づいて、当該アドレスのLED素子30の発光色および発光強度を個別的に制御する。 In response to this, the light emission control unit 203 of the user PC 200 controls the light emission mode of the 80 LED elements 30 constituting the light emission display device 300 based on the light emission control information received from the centralized management server 100 (S7). Specifically, the RGB information and the level information associated with the address of each LED element 30 are read from the received light emission control information, and the light emission of the LED element 30 at the address is based on the read RGB information and the level information. Individually control color and emission intensity.

このとき発光表示装置300が提示する光の固まりは、見守り者が指定した日の見守り対象者の心身状態を可視化しており、見守り者は、この光の固まりを観察し、そこから受ける印象に基づいて、見守り対象者の心身状態を判定する。 At this time, the lump of light presented by the light emitting display device 300 visualizes the mental and physical condition of the person to be watched on the day specified by the watcher, and the watcher observes this lump of light and gives an impression from it. Based on this, the physical and mental condition of the person being watched over is determined.

発光制御部203が発光表示装置300の発光制御を終えると、UI部202は、図9(b)に示す判定結果入力画面800をディスプレイに表示する(S8)。このとき、判定結果入力画面800には、「何か異常を感じましたか?」というメッセージとともに、回答ボタン(はい/いいえ)が表示される。見守り者は、発光表示装置300が提示する光の固まりから、何かしらの異常を感じ取った場合は「はい」ボタンをクリックし、特に何も感じなかった場合は「いいえ」ボタンをクリックすることで、判定結果を入力する(S9)。 When the light emission control unit 203 finishes the light emission control of the light emission display device 300, the UI unit 202 displays the determination result input screen 800 shown in FIG. 9B on the display (S8). At this time, the answer button (yes / no) is displayed on the determination result input screen 800 together with the message "Did you feel something abnormal?". The watcher clicks the "Yes" button when he / she feels something abnormal from the mass of light presented by the light emitting display device 300, and clicks the "No" button when he / she feels nothing in particular. The determination result is input (S9).

このとき期待されるのが、見守り対象者に愛着を持つ見守り者の直感力である。一般に、愛ある人間が、愛する人のなにげない表情やしぐさなどから、赤の他人であれば到底気付くことのできないような潜在的な変化を直感的に感じ取れることが経験的に知られているが、本発明者は、見守り対象者の心身状態を表現する光の固まりを観察する見守り者においても、これと同様の直感力が発揮されるものと考える。 What is expected at this time is the intuition of the watcher who has an attachment to the watcher. In general, it is empirically known that a loved one can intuitively perceive potential changes that cannot be noticed by others in red from the casual expressions and gestures of a loved one. The present inventor considers that the same intuition can be exhibited by a watcher who observes a mass of light expressing the physical and mental state of the watcher.

判定結果入力画面800の回答ボタンがクリックされたことに応答して、UI部202は、見守り者が入力した判定結果を集中管理サーバ100に送信する(S10)。具体的には、「はい」ボタンがクリックされた場合には、見守り者が指定した観察日の日付と「異常」フラグを含む判定結果を集中管理サーバ100に送信し、「いいえ」ボタンがクリックされた場合には、見守り者が指定した観察日の日付と「正常」フラグを含む判定結果を集中管理サーバ100に送信する。 In response to the click of the answer button on the determination result input screen 800, the UI unit 202 transmits the determination result input by the watcher to the centralized management server 100 (S10). Specifically, when the "Yes" button is clicked, the date of the observation date specified by the watcher and the judgment result including the "abnormal" flag are sent to the centralized management server 100, and the "No" button is clicked. If this is the case, the determination result including the date of the observation date specified by the watcher and the "normal" flag is transmitted to the centralized management server 100.

ユーザPC200から判定結果を受信したことを受けて、集中管理サーバ100の教師データ生成部106は、図7に示すテーブル600から、受信した判定結果に含まれる観察日の日付に紐付いた特徴ベクトルを読み出し、読み出した特徴ベクトルに対してラベル付けを行う。具体的には、受信した判定結果に「異常」フラグが含まれていた場合には、読み出した特徴ベクトルに対して「異常」のラベル付けを行い(S11)、受信した判定結果に「正常」フラグが含まれていた場合には、読み出した特徴ベクトルに対して「正常」のラベル付けを行う(S12)。 Upon receiving the determination result from the user PC 200, the teacher data generation unit 106 of the centralized management server 100 obtains a feature vector linked to the date of the observation date included in the received determination result from the table 600 shown in FIG. Read and label the read feature vector. Specifically, when the received determination result includes the "abnormal" flag, the read feature vector is labeled as "abnormal" (S11), and the received determination result is "normal". If the flag is included, the read feature vector is labeled as "normal" (S12).

教師データ生成部106は、上述した手順で得られた特徴ベクトルとラベルのペアを、見守り対象者の心身状態を推定する学習モデルの教師データとして、記憶領域109に保存する(S13)。 The teacher data generation unit 106 stores in the storage area 109 the pair of the feature vector and the label obtained in the above procedure as the teacher data of the learning model for estimating the mental and physical state of the watching target person (S13).

本実施形態では、見守り者の要求に応じて上述した一連の処理が実行され、その度に、1つの新しい教師データが記憶領域109に蓄積される。 In the present embodiment, the above-mentioned series of processes is executed in response to the request of the watcher, and one new teacher data is accumulated in the storage area 109 each time.

以上、本実施形態の見守りシステム1000の「教師データ生成モード」について説明してきたが、続いて、見守りシステム1000の「学習モード」および「見守り実行モード」について説明する。 The "teacher data generation mode" of the watching system 1000 of the present embodiment has been described above, but subsequently, the "learning mode" and the "watching execution mode" of the watching system 1000 will be described.

「学習モード」では、集中管理サーバ100の機械学習部107が、上述した手順を経て記憶領域109に蓄積された複数の教師データを用いて教師あり学習を行うことにより見守り対象者の心身状態を推定する学習モデルを生成し、生成した学習モデルを記憶領域109に保存する。 In the "learning mode", the machine learning unit 107 of the centralized management server 100 monitors the physical and mental state of the subject by performing supervised learning using a plurality of teacher data accumulated in the storage area 109 through the above procedure. A learning model to be estimated is generated, and the generated learning model is stored in the storage area 109.

一方、「見守り実行モード」では、集中管理サーバ100は、まず最初に、図5で説明したS1〜S3の処理を実行する。すなわち、動作ログ収集部101が、所定のタイミングで、見守り対象者の生活空間400に設置される20台のIoT機器40から各機器の動作ログを収集し(S1)、特徴量抽出部102が、収集した20個の動作ログから80個の特徴量を抽出し(S2)、特徴ベクトル生成部103が、抽出した80個の特徴量を要素とする80次元の特徴ベクトルを生成する(S3) On the other hand, in the "watching execution mode", the centralized management server 100 first executes the processes S1 to S3 described with reference to FIG. That is, the operation log collecting unit 101 collects the operation log of each device from the 20 IoT devices 40 installed in the living space 400 of the person to be watched at a predetermined timing (S1), and the feature amount extracting unit 102 , 80 feature quantities are extracted from the collected 20 operation logs (S2), and the feature vector generation unit 103 generates an 80-dimensional feature vector having the extracted 80 feature quantities as elements (S3).

続いて、見守り実行部108が、記憶領域109に保存される学習モデルを用いて見守り対象者の心身状態を推定する。具体的には、当該学習モデルに対して、特徴ベクトル生成部103が生成した80次元の特徴ベクトルを入力として与え、見守り対象者の心身状態(異常/正常)を出力として得る。その結果、見守り対象者の心身状態の「異常」が推定された場合には、見守り実行部108は、その旨を電子メール等の適切な方法でユーザPC200に通知する。 Subsequently, the watching execution unit 108 estimates the mental and physical state of the watching target person using the learning model stored in the storage area 109. Specifically, the 80-dimensional feature vector generated by the feature vector generation unit 103 is given as an input to the learning model, and the mental and physical state (abnormal / normal) of the watch target person is obtained as an output. As a result, when an "abnormality" in the mental and physical condition of the person to be watched is presumed, the watching execution unit 108 notifies the user PC 200 to that effect by an appropriate method such as e-mail.

以上、説明したように、本実施形態によれば、見守り対象者の心身状態を推定する学習モデルを生成するために必要な教師データを生成することができ、当該教師データを学習した学習モデルを用いて、見守り対象者の心身状態を推定することが可能となる。 As described above, according to the present embodiment, it is possible to generate the teacher data necessary for generating the learning model for estimating the mental and physical state of the person to be watched over, and the learning model in which the teacher data is learned can be generated. By using it, it is possible to estimate the physical and mental condition of the person being watched over.

同居の高齢者の場合は、その表情やしぐさ、言葉づかいなどから、何となく元気がないとか、体調を崩しかけているといった小さな変化を家族が直感的に感じ取ることができるので、優しい言葉をかけて慰めたり、病院に連れて行くなどの適切な処置を取ることができるのに対し、遠く離れて暮らす高齢者の場合は、どうしても変化に気付くのが遅れ、気付いたときには手遅れということになりかねない。この点、本実施形態によれば、離れて暮らす高齢者の心身状態の小さな変化をその家族が遠隔で検知することができるので、大事に至る前に適切な処置を取ることが可能になる。 In the case of elderly people living together, the family can intuitively feel small changes such as feeling unwell or feeling sick from their facial expressions, gestures, and language, so use gentle words to comfort them. While appropriate measures such as taking them to a hospital or taking them to a hospital can be taken, elderly people living far away may inevitably be late in noticing the change, and when they do, it may be too late. In this regard, according to the present embodiment, since the family can remotely detect a small change in the mental and physical condition of the elderly living apart, it is possible to take appropriate measures before it becomes important.

以上、本発明について説明してきたが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々の変更が可能である。以下、このことを具体的に説明する。 Although the present invention has been described above, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention. This will be specifically described below.

本発明では、特徴量を任意の発光素子に割り当てることができる。例えば、上述した実施形態では、図10(a)に示すように、4つの時間帯(0−6、6−12、12−18、18−24)の動作ログから抽出された特徴量が割り当てられた発光素子が時系列順にZ方向に並ぶ態様を示したが、別の実施形態では、図10(b)に示すように、4つの時間帯(0−6、6−12、12−18、18−24)の動作ログから抽出された特徴量が割り当てられた発光素子が時系列順にX方向に並び、且つ、4つの部屋(居間、台所、客間、寝室)の動作ログから抽出された特徴量が割り当てられた発光素子が部屋ごとに纏まってZ方向に並ぶように割り当てることもできる。特徴量の割り当て方には、この他にも、種々のバリエーションが可能であることはいうまでもない。 In the present invention, the feature amount can be assigned to any light emitting element. For example, in the above-described embodiment, as shown in FIG. 10A, the feature quantities extracted from the operation logs of the four time zones (0-6, 6-12, 12-18, 18-24) are assigned. The light emitting elements are arranged in the Z direction in chronological order, but in another embodiment, as shown in FIG. 10B, four time zones (0-6, 6-12, 12-18) are shown. , 18-24) The light emitting elements to which the features assigned are assigned are arranged in the X direction in chronological order, and are extracted from the operation logs of the four rooms (living room, kitchen, guest room, bedroom). It is also possible to allocate the light emitting elements to which the feature amounts are assigned so as to be arranged in the Z direction together for each room. Needless to say, various variations are possible in the method of assigning the feature amount.

上述した実施形態では、1つの発光素子に対して1つの特徴量を割り当てる構成を示したが、別の実施形態では、2以上の発光素子に対して1つの特徴量を割り当てるようにしてもよいし、1つの発光素子に対して2以上の特徴量を割り当てるようにしてもよい。1つの発光素子に対して2以上の特徴量を割り当てるケースとしては、1つの発光素子に対して4つの時間帯(0−6、6−12、12−18、18−24)の動作ログから抽出された4個の特徴量を割り当てるケースを例示することができる。このケースでは、所定の発光期間(例えば、1分間)を4分割した各期間(例えば、15秒間)を各時間帯の特徴量に割り当てる必要があり、その場合、上述した発光制御情報には、各発光素子の発光色や発光強度に加えて、各発光素子の発光タイミングを指定する情報が含まれることになる。 In the above-described embodiment, one feature amount is assigned to one light emitting element, but in another embodiment, one feature amount may be assigned to two or more light emitting elements. However, two or more feature quantities may be assigned to one light emitting element. As a case where two or more features are assigned to one light emitting element, from the operation logs of four time zones (0-6, 6-12, 12-18, 18-24) for one light emitting element. An example can be illustrated of a case in which the four extracted features are assigned. In this case, it is necessary to assign each period (for example, 15 seconds) obtained by dividing a predetermined light emission period (for example, 1 minute) into four to the feature amount of each time zone. In that case, the above-mentioned light emission control information includes In addition to the emission color and emission intensity of each light emitting element, information for designating the emission timing of each light emitting element is included.

上述した実施形態では、複数の発光素子を3次元マトリックス状に配設してなる発光表示装置を示したが、発光表示装置の構造はこれに限定されず、複数の発光素子を任意の態様(2次元的あるいは3次元的)で配設したものであればよい。 In the above-described embodiment, a light emitting display device in which a plurality of light emitting elements are arranged in a three-dimensional matrix is shown, but the structure of the light emitting display device is not limited to this, and a plurality of light emitting elements can be arranged in any embodiment ( It may be arranged in two dimensions or three dimensions).

上述した実施形態では、発光表示装置を構成する発光素子としてフルカラーLEDを採用する例を示したが、発光表示装置を構成する発光素子はこれに限定されず、発光強度および発光色の少なくとも一方を制御できる発光素子であればよい。 In the above-described embodiment, an example in which a full-color LED is adopted as the light emitting element constituting the light emitting display device is shown, but the light emitting element constituting the light emitting display device is not limited to this, and at least one of the light emitting intensity and the light emitting color can be used. Any light emitting element that can be controlled may be used.

上述した実施形態では、特徴量の値の大きさに応じて、対応する発光素子の発光強度を変化させる例を示したが、別の実施形態では、特徴量の値の大きさに応じて、対応する発光素子の発光色を変化させるようにしてもよい。 In the above-described embodiment, an example in which the emission intensity of the corresponding light emitting element is changed according to the magnitude of the feature amount value is shown, but in another embodiment, the emission intensity is changed according to the magnitude of the feature amount value. The emission color of the corresponding light emitting element may be changed.

別の実施形態では、上述した発光表示装置を任意のディスプレイ装置で代替することができ、その場合は、ディスプレイ装置の表示画面上に定義した複数の画素領域の一つ一つが上述した発光素子として機能するように構成すればよい。また、その場合、見守り者のPCのディスプレイを発光表示装置として機能させるようにすれば、追加的に発光表示装置を用意する必要がなくなる。 In another embodiment, the above-mentioned light emitting display device can be replaced with an arbitrary display device, in which case each of the plurality of pixel regions defined on the display screen of the display device is used as the above-mentioned light emitting element. It may be configured to work. Further, in that case, if the display of the watcher's PC is made to function as a light emitting display device, it is not necessary to additionally prepare a light emitting display device.

上述した実施形態では、発光制御情報の生成に用いる特徴量と同じ特徴量を用いて特徴ベクトルを生成する例を示したが、別の実施形態では、1日分の動作ログから抽出したN個の第1特徴量に基づいて発光制御情報を生成する一方で、同じ動作ログから抽出されるM個の第2特徴量(第1特徴量とは異なる特徴量)を用いてM次元の特徴ベクトルを生成するようにしてもよい。この場合、M<Nとなるように第2特徴量を設計すれば、学習するデータの次元数が小さくなるので、学習の効率化が期待できる。そのような例としては、1日分の動作ログから上述した80個の特徴量を第1特徴量として抽出する一方で、同じ動作ログから5つの部屋(居間、客間、寝室、台所、風呂、トイレ)の滞在時間を推定し、5個の推定値を第2特徴量として抽出する、といった態様を挙げることができる。 In the above-described embodiment, an example of generating a feature vector using the same feature amount as the feature amount used for generating the light emission control information is shown, but in another embodiment, N pieces extracted from the operation log for one day are shown. While generating light emission control information based on the first feature amount of, M-dimensional feature vector using M second feature amounts (feature amounts different from the first feature amount) extracted from the same operation log. May be generated. In this case, if the second feature amount is designed so that M <N, the number of dimensions of the data to be learned becomes small, so that learning efficiency can be expected. As such an example, while extracting the above-mentioned 80 features as the first feature from the operation log for one day, five rooms (living room, guest room, bedroom, kitchen, bath, etc.) are extracted from the same operation log. It is possible to estimate the staying time of the toilet) and extract five estimated values as the second feature amount.

上述した実施形態では、見守り対象者の生活行動パターンの特徴をベクトル(1階のテンソル)で表現する例を示したが、別の実施形態では、見守り対象者の生活行動パターンの特徴をN階(Nは2以上の整数)のテンソルで表現するようにしてもよい。この場合、上述した実施形態の説明は、「特徴ベクトル」を「特徴テンソル」と読み替えて理解されたい。 In the above-described embodiment, an example in which the characteristics of the living behavior pattern of the watching target person are expressed by a vector (tensor on the first floor) is shown, but in another embodiment, the characteristics of the living behavior pattern of the watching target person are expressed on the Nth floor. It may be expressed by a tensor (N is an integer of 2 or more). In this case, the description of the above-described embodiment should be understood by replacing "feature vector" with "feature tensor".

なお、上述した実施形態では、見守り対象者として、専ら独居の高齢者を想定して説明を行ったが、本発明は、見守り対象者の属性を特に限定するものではなく、本発明が想定する見守り対象者には、例えば、家で留守番する幼い子供や、部屋で放し飼いにされているペット(犬猫)なども含まれる。 In the above-described embodiment, the description has been made assuming an elderly person living alone as a person to be watched over, but the present invention does not particularly limit the attributes of the person to be watched over, and the present invention assumes it. The people to be watched over include, for example, young children who are away from home and pets (dogs and cats) that are kept free in the room.

上述した他にも、当業者が推考しうる実施態様の範囲内において、本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 In addition to the above, it is included in the scope of the present invention as long as the action and effect of the present invention are exhibited within the scope of embodiments that can be conceived by those skilled in the art.

30…発光素子(LED素子)、32…支持台、34a…支持枠、34…支持枠、36…透明カバー、40…IoT機器、42…無線アクセスポイント、50…ネットワーク、100…集中管理サーバ、101…動作ログ収集部、102…特徴量抽出部
103…特徴ベクトル生成部、104…発光制御情報生成部、105…発光制御情報提供部、106…教師データ生成部、107…機械学習部、108…見守り実行部、109…記憶領域、200…ユーザPC(パーソナル・コンピュータ)、202…UI部、203…発光制御部、300…発光表示装置、400…生活空間、500…テーブル、501,502,503,504,505,506…カラム、600…テーブル、601,602,603…カラム、700…観察日指定画面、800…判定結果入力画面、1000…システム
30 ... light emitting element (LED element), 32 ... support base, 34a ... support frame, 34 ... support frame, 36 ... transparent cover, 40 ... IoT device, 42 ... wireless access point, 50 ... network, 100 ... centralized management server, 101 ... Operation log collection unit, 102 ... Feature amount extraction unit 103 ... Feature vector generation unit, 104 ... Light emission control information generation unit, 105 ... Light emission control information provision unit, 106 ... Teacher data generation unit, 107 ... Machine learning unit, 108 ... Watching execution unit, 109 ... Storage area, 200 ... User PC (personal computer), 202 ... UI unit, 203 ... Light emission control unit, 300 ... Light emission display device, 400 ... Living space, 500 ... Table, 501,502, 503, 504, 505, 506 ... Column, 600 ... Table, 601, 602, 603 ... Column, 700 ... Observation date designation screen, 800 ... Judgment result input screen, 1000 ... System

Claims (6)

見守り対象者の心身状態を推定する学習モデルの教師データを生成する方法であって、
見守り対象者の生活空間に設置された複数の電子機器から動作ログを取得するステップと、
取得した前記動作ログから複数の特徴量を抽出するステップと、
抽出された複数の特徴量を要素とする特徴テンソルを生成するステップと、
複数の特徴量のそれぞれに対応付けられている複数の発光素子によって構成される発光表示装置の発光を制御するステップであって、前記動作ログから抽出された特徴量の値に基づいて対応する発光素子の発光態様を制御するステップと、
発光が制御される前記発光表示装置を観察した見守り者による判定に基づいて、前記特徴テンソルに対して異常または正常のラベル付けを行うステップと
を含む方法。
It is a method of generating teacher data of a learning model that estimates the mental and physical condition of the person being watched over.
Steps to acquire operation logs from multiple electronic devices installed in the living space of the person being watched over,
A step of extracting a plurality of features from the acquired operation log, and
Steps to generate a feature tensor with multiple extracted features as elements,
It is a step of controlling the light emission of a light emitting display device composed of a plurality of light emitting elements associated with each of the plurality of feature amounts, and corresponds to the corresponding light emission based on the value of the feature amount extracted from the operation log. Steps to control the light emission mode of the element,
A method including a step of labeling the feature tensor as abnormal or normal based on a determination by a watcher who observes the light emission display device whose light emission is controlled.
前記複数の特徴量を抽出するステップは、
取得した前記動作ログから複数の第1特徴量を抽出するステップと、該動作ログから第1特徴量の数よりも少ない数の複数の第2特徴量を抽出するステップとを含み、
前記特徴テンソルを生成するステップは、
抽出された複数の前記第2特徴量を要素とする特徴テンソルを生成するステップであり、
前記発光態様を制御するステップは、
抽出された前記第1特徴量の値に基づいて対応する発光素子の発光態様を制御するステップである、
請求項1に記載の方法。
The step of extracting the plurality of features is
It includes a step of extracting a plurality of first feature amounts from the acquired operation log and a step of extracting a plurality of second feature amounts smaller than the number of the first feature amounts from the operation log.
The step of generating the feature tensor is
This is a step of generating a feature tensor having a plurality of extracted second feature quantities as elements.
The step of controlling the light emission mode is
This is a step of controlling the light emitting mode of the corresponding light emitting element based on the extracted value of the first feature amount.
The method according to claim 1.
前記発光態様を制御するステップは、
前記発光素子の発光強度および発光色の少なくとも一方を制御するステップを含む、
請求項1または2に記載の方法。
The step of controlling the light emission mode is
A step of controlling at least one of the emission intensity and the emission color of the light emitting element is included.
The method according to claim 1 or 2.
前記発光態様を制御するステップは、
前記発光素子の発光タイミングを制御するステップを含む、
請求項3に記載の方法。
The step of controlling the light emission mode is
A step of controlling the light emission timing of the light emitting element is included.
The method according to claim 3.
前記発光表示装置を構成する前記複数の発光素子が3次元的に配設されていることを特徴とする、
請求項1〜4のいずれか一項に記載の方法。
The plurality of light emitting elements constituting the light emission display device are three-dimensionally arranged.
The method according to any one of claims 1 to 4.
見守り対象者の心身状態を推定する学習モデルの教師データを生成するシステムであって、
見守り対象者の生活空間に設置された複数の電子機器から動作ログを取得する手段と、
取得した前記動作ログから複数の特徴量を抽出する手段と、
抽出された複数の特徴量を要素とする特徴テンソルを生成する手段と、
複数の特徴量のそれぞれに対応付けられている複数の発光素子によって構成される発光表示装置の発光を制御する手段であって、前記動作ログから抽出された特徴量の値に基づいて対応する発光素子の発光態様を制御する手段と、
発光が制御される前記発光表示装置を観察した見守り者による判定に基づいて、前記特徴テンソルに対して異常または正常のラベル付けを行う手段と
を含むシステム。
It is a system that generates teacher data of a learning model that estimates the mental and physical condition of the person being watched over.
A means of acquiring operation logs from multiple electronic devices installed in the living space of the person being watched over,
A means for extracting a plurality of features from the acquired operation log, and
A means for generating a feature tensor whose elements are a plurality of extracted features,
It is a means for controlling the light emission of a light emitting display device composed of a plurality of light emitting elements associated with each of the plurality of feature amounts, and corresponds to the corresponding light emission based on the value of the feature amount extracted from the operation log. Means for controlling the light emitting mode of the element and
A system including means for labeling the feature tensor as abnormal or normal based on a determination by a watcher who observes the light emission display device whose light emission is controlled.
JP2019082111A 2019-04-23 2019-04-23 METHOD AND SYSTEM FOR GENERATING TEACHING DATA FOR A LEARNING MODEL THAT ESTIMATES THE PSYCHO-PHYSICAL CONDITION OF THE BEING CAREFULLY Active JP7281177B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019082111A JP7281177B2 (en) 2019-04-23 2019-04-23 METHOD AND SYSTEM FOR GENERATING TEACHING DATA FOR A LEARNING MODEL THAT ESTIMATES THE PSYCHO-PHYSICAL CONDITION OF THE BEING CAREFULLY

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019082111A JP7281177B2 (en) 2019-04-23 2019-04-23 METHOD AND SYSTEM FOR GENERATING TEACHING DATA FOR A LEARNING MODEL THAT ESTIMATES THE PSYCHO-PHYSICAL CONDITION OF THE BEING CAREFULLY

Publications (2)

Publication Number Publication Date
JP2020181257A true JP2020181257A (en) 2020-11-05
JP7281177B2 JP7281177B2 (en) 2023-05-25

Family

ID=73024145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019082111A Active JP7281177B2 (en) 2019-04-23 2019-04-23 METHOD AND SYSTEM FOR GENERATING TEACHING DATA FOR A LEARNING MODEL THAT ESTIMATES THE PSYCHO-PHYSICAL CONDITION OF THE BEING CAREFULLY

Country Status (1)

Country Link
JP (1) JP7281177B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002109663A (en) * 2000-09-27 2002-04-12 Mitsui Eng & Shipbuild Co Ltd Method for confirming health of resident, and apparatus for confirming health of resident
JP2010205012A (en) * 2009-03-04 2010-09-16 Brother Ind Ltd Control apparatus, control method and control processing program
JP2011199858A (en) * 2010-02-26 2011-10-06 Sharp Corp Content reproduction device, television receiver, content reproduction method, content reproduction program, and recording medium
JP2017027574A (en) * 2015-07-17 2017-02-02 株式会社アレス Safety information management device using short-range communication device
JP2017198784A (en) * 2016-04-26 2017-11-02 Necプラットフォームズ株式会社 Display device, and lighting control device and method
JP2018010169A (en) * 2016-07-13 2018-01-18 大日本印刷株式会社 LED display device
JP2018181004A (en) * 2017-04-14 2018-11-15 株式会社Nttドコモ Teacher data generation device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002109663A (en) * 2000-09-27 2002-04-12 Mitsui Eng & Shipbuild Co Ltd Method for confirming health of resident, and apparatus for confirming health of resident
JP2010205012A (en) * 2009-03-04 2010-09-16 Brother Ind Ltd Control apparatus, control method and control processing program
JP2011199858A (en) * 2010-02-26 2011-10-06 Sharp Corp Content reproduction device, television receiver, content reproduction method, content reproduction program, and recording medium
JP2017027574A (en) * 2015-07-17 2017-02-02 株式会社アレス Safety information management device using short-range communication device
JP2017198784A (en) * 2016-04-26 2017-11-02 Necプラットフォームズ株式会社 Display device, and lighting control device and method
JP2018010169A (en) * 2016-07-13 2018-01-18 大日本印刷株式会社 LED display device
JP2018181004A (en) * 2017-04-14 2018-11-15 株式会社Nttドコモ Teacher data generation device

Also Published As

Publication number Publication date
JP7281177B2 (en) 2023-05-25

Similar Documents

Publication Publication Date Title
CN107205698B (en) System and method for monitoring activities of daily living of a person
CN105247290B (en) Automation for resource-effective HVAC schedulings adjusts
Chapman et al. On the multi-agent stochastic simulation of occupants in buildings
JP6602386B2 (en) Monitoring daily human activities using graphic elements
US20180239311A1 (en) Method and Apparatus for Controlling an Environment Management System within a Building
CN107431649B (en) The method and system realized for resident&#39;s strategy in intelligent household&#39;s environment
JP2018513439A (en) Monitoring daily human activities using graphic elements
JP2007048265A (en) Remote person tracking method and device for person in dwelling
JP5875625B2 (en) Energy management system, energy management controller, energy management method, and program
Sixsmith et al. Monitoring the well-being of older people
Clement et al. Detecting activities of daily living with smart meters
Masoodian et al. Time-pie visualization: Providing contextual information for energy consumption data
Costanza et al. 'A bit like British Weather, I suppose' Design and Evaluation of the Temperature Calendar
Boers et al. The Smart Condo: Visualizing independent living environments in a virtual world
JP2021105941A (en) Information processing system, life evaluation method, and program
Larson Designing and evaluating supportive technology for homes
JP7281177B2 (en) METHOD AND SYSTEM FOR GENERATING TEACHING DATA FOR A LEARNING MODEL THAT ESTIMATES THE PSYCHO-PHYSICAL CONDITION OF THE BEING CAREFULLY
Zaad et al. The influence of control on the acceptance of ambient intelligence by elderly people: An explorative study
US11573027B2 (en) Home automation (HA) system for identifying a health condition based upon user thermostat setting data and related methods
Evchina et al. An ICT-driven hybrid automation system for elderly care support: a rehabilitation facility study case
Reyes-Campos et al. Energy Saving by Using Internet of Things Paradigm and Machine Learning
US20200294649A1 (en) Home automation system for predicting a health change based upon a data trend and diet data and related methods
US20200293006A1 (en) Home automation system for predicting a health change based upon a data trend and biometric characteristic and related methods
Kempter et al. Guiding light for the mobility support of seniors
Trivedi et al. Living in a networked home: Older adults’ expectations and attitudes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R150 Certificate of patent or registration of utility model

Ref document number: 7281177

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150