JP2021182242A - Estimation model construction device - Google Patents

Estimation model construction device Download PDF

Info

Publication number
JP2021182242A
JP2021182242A JP2020087240A JP2020087240A JP2021182242A JP 2021182242 A JP2021182242 A JP 2021182242A JP 2020087240 A JP2020087240 A JP 2020087240A JP 2020087240 A JP2020087240 A JP 2020087240A JP 2021182242 A JP2021182242 A JP 2021182242A
Authority
JP
Japan
Prior art keywords
unit
sensor data
estimation model
reference value
abnormality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020087240A
Other languages
Japanese (ja)
Other versions
JP7470569B2 (en
Inventor
尚志 濱谷
Hisashi Hamaya
茂樹 田中
Shigeki Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2020087240A priority Critical patent/JP7470569B2/en
Publication of JP2021182242A publication Critical patent/JP2021182242A/en
Application granted granted Critical
Publication of JP7470569B2 publication Critical patent/JP7470569B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To obtain effective information that contributes to constructing an estimation model for estimating a user state without using domain knowledge pertaining to locations.SOLUTION: An estimation model construction device 10 comprises: a sensor data acquisition unit 11 acquiring, from one or more sensors that measure physical elements in one or more users, sensor data for each spatial unit of the users; a reference value calculation unit 12 for calculating, with regard to the acquired sensor data for each spatial unit of a plurality of users for reference value calculation, the reference value of sensor data for each spatial unit on the basis of a prescribed method; and an abnormality degree calculation unit 13 for calculating, with regard to the acquired sensor data for each spatial unit of target users for estimation model construction, the target value of sensor data for each spatial unit on the basis of a prescribed method, and calculating the abnormality degree of the sensor data for each spatial unit of the target users on the basis of the target value of sensor data for each spatial unit and the reference value of sensor data for each spatial unit.SELECTED DRAWING: Figure 1

Description

本開示は、ユーザ状態推定のための推定モデルを構築する推定モデル構築装置に関する。 The present disclosure relates to an estimation model construction device that constructs an estimation model for user state estimation.

従来より、以下の推定モデルの基本式

Figure 2021182242

が知られており、目的変数yと説明変数xのペアを大規模に与えて推定モデルfを学習し構築する(即ち、目的変数yと説明変数xの関係性を習得する)技術が知られている(下記の特許文献1参照)。このような従来技術では、目的変数yを推定するために必要な説明変数x(具体的な値vとして何を与えるか)に関する識者の知見(以下「ドメインの知識」と呼ぶ)を用いることを前提としている。 Conventionally, the basic formula of the following estimation model
Figure 2021182242

Is known, and a technique for learning and constructing an estimation model f by giving a pair of an objective variable y and an explanatory variable x on a large scale (that is, learning the relationship between the objective variable y and the explanatory variable x) is known. (See Patent Document 1 below). In such prior art, the use of the explanatory variables necessary to estimate the response variable y x (specific value v i What given as either) regarding experts findings (hereinafter referred to as "domain knowledge") Is assumed.

一方、人がいる場所とその人の状態とは関連するという研究成果が知られており、その結果、人がいる場所がその人の行動にも影響すると考えられるため、対象者の場所ごと(例えば、ジオハッシュ(Geohash)単位)のセンサデータ(即ち、対象者の状態および行動の変化を検知したデータ)から、場所ごとの対象者の状態を推定できると考えられる。 On the other hand, research results are known that the place where a person is and the condition of the person are related, and as a result, the place where the person is located is considered to affect the behavior of the person. For example, it is considered that the state of the target person for each place can be estimated from the sensor data (that is, the data obtained by detecting the change in the state and behavior of the target person) of the geohash unit).

特開2016−106689号公報Japanese Unexamined Patent Publication No. 2016-106689

ただし、上記のような場所ごとのセンサデータから対象者の状態を推定するためには、場所に関するドメインの知識が重要となるが、ここでの、場所に関するドメインの知識は、場所、人の状態および人の行動から成るさまざまなパターンごとに必要となる。 However, in order to estimate the state of the target person from the sensor data for each place as described above, the knowledge of the domain regarding the place is important, but the knowledge of the domain regarding the place here is the state of the place and the person. And it is needed for each of the various patterns of human behavior.

しかし、場所に関するドメインの知識は、誰でも容易に取得できるものではないため、場所に関するドメインの知識が無い状況では、推定モデルfを学習し構築することは困難であった。そのため、場所に関するドメインの知識を用いることなく、ユーザ状態推定のための推定モデルを構築することに資する有効な情報を得ることが待望されていた。 However, since the knowledge of the domain regarding the place cannot be easily acquired by anyone, it is difficult to learn and construct the estimation model f in the situation where there is no knowledge of the domain regarding the place. Therefore, it has been long-awaited to obtain useful information that contributes to constructing an estimation model for user state estimation without using domain knowledge about the location.

本開示は、上記のような課題を解決するべく、場所に関するドメインの知識を用いることなく、ユーザ状態推定のための推定モデルを構築することに資する有効な情報を得ることを目的とする。 It is an object of the present disclosure to obtain useful information that contributes to constructing an estimation model for user state estimation without using domain knowledge about a place in order to solve the above-mentioned problems.

出願人は、人がいる場所がその人の状態および行動に影響し、また、場所に関するドメインの知識の大枠について、「ユーザ状態に変化があるときは、ユーザにおける身体的要素を計測するセンサの、場所ごと(即ち、空間単位(例えばジオハッシュ単位)ごと)のセンサデータが変化するときである」と把握できる点に着目し、場所に関するドメインの知識は無くとも、説明変数を定める代わりに、上記の場所(空間単位)ごとのセンサデータの異常度を用いることで、ユーザ状態推定のための推定モデルを構築することに資する有効な情報として「ユーザの空間単位ごとのセンサデータの異常度」を得るための発明をした。 The applicant stated that the location of the person affects the person's condition and behavior, and that the general knowledge of the domain regarding the location is "when there is a change in the user's condition, a sensor that measures physical factors in the user. , When the sensor data for each location (that is, for each spatial unit (for example, geohash unit) changes) ”, and instead of defining explanatory variables, even if you do not have knowledge of the domain regarding the location, By using the degree of abnormality of the sensor data for each location (space unit) described above, "the degree of abnormality of the sensor data for each space unit of the user" is useful information that contributes to constructing an estimation model for estimating the user state. Invented to obtain.

本開示に係る推定モデル構築装置は、1人以上のユーザにおける身体的要素を計測する1つ以上のセンサから、当該ユーザの空間単位ごとのセンサデータを取得するセンサデータ取得部と、前記センサデータ取得部により取得された、参照値計算のための複数ユーザの空間単位ごとのセンサデータについて、予め定められた方法に基づき、空間単位ごとのセンサデータの参照値を計算する参照値計算部と、前記センサデータ取得部により取得された、推定モデル構築のための対象ユーザの空間単位ごとのセンサデータについて、前記予め定められた方法に基づき、空間単位ごとのセンサデータの対象値を計算し、得られた空間単位ごとのセンサデータの対象値と、前記参照値計算部による計算で得られた空間単位ごとのセンサデータの参照値とに基づいて、前記対象ユーザの空間単位ごとのセンサデータの異常度を計算する異常度計算部と、を備える。 The estimation model construction device according to the present disclosure includes a sensor data acquisition unit that acquires sensor data for each spatial unit of the user from one or more sensors that measure physical elements in one or more users, and the sensor data. A reference value calculation unit that calculates the reference value of the sensor data for each space unit based on a predetermined method for the sensor data for each space unit of multiple users for the reference value calculation acquired by the acquisition unit. With respect to the sensor data for each space unit of the target user for constructing the estimation model acquired by the sensor data acquisition unit, the target value of the sensor data for each space unit is calculated and obtained based on the predetermined method. Abnormality of the sensor data for each space unit of the target user based on the target value of the sensor data for each space unit obtained and the reference value of the sensor data for each space unit obtained by the calculation by the reference value calculation unit. It is provided with an abnormality degree calculation unit for calculating the degree.

上記の推定モデル構築装置では、センサデータ取得部が、参照値計算のための複数ユーザにおける身体的要素を計測する複数のセンサから、当該複数ユーザの空間単位ごとのセンサデータを取得すると、参照値計算部が、取得された複数ユーザの空間単位ごとのセンサデータについて、予め定められた方法に基づき、空間単位ごとのセンサデータの参照値を計算する。そして、センサデータ取得部が、推定モデル構築のための対象ユーザにおける身体的要素を計測するセンサから、当該対象ユーザの空間単位ごとのセンサデータを取得すると、異常度計算部が、取得された対象ユーザの空間単位ごとのセンサデータについて、予め定められた方法に基づき、空間単位ごとのセンサデータの参照値を計算し、得られた空間単位ごとのセンサデータの対象値と、前述した計算で得られた空間単位ごとのセンサデータの参照値とに基づいて、対象ユーザの空間単位ごとのセンサデータの異常度を計算する。これにより、場所に関するドメインの知識は無くとも、説明変数を定める代わりに、空間単位ごとのセンサデータの異常度を用いることで、ユーザ状態推定のための推定モデルを構築することに資する有効な情報として、対象ユーザの空間単位ごとのセンサデータの異常度を得ることができる。 In the above estimation model construction device, when the sensor data acquisition unit acquires sensor data for each spatial unit of the plurality of users from a plurality of sensors that measure physical elements in the plurality of users for reference value calculation, the reference value is obtained. The calculation unit calculates the reference value of the sensor data for each space unit based on a predetermined method for the acquired sensor data for each space unit of a plurality of users. Then, when the sensor data acquisition unit acquires the sensor data for each spatial unit of the target user from the sensor that measures the physical element of the target user for constructing the estimation model, the abnormality degree calculation unit acquires the acquired target. For the sensor data for each space unit of the user, the reference value of the sensor data for each space unit is calculated based on a predetermined method, and the target value of the sensor data for each space unit obtained and the above-mentioned calculation are obtained. The degree of abnormality of the sensor data for each space unit of the target user is calculated based on the reference value of the sensor data for each space unit. This is useful information that contributes to building an estimation model for user state estimation by using the degree of anomaly of sensor data for each spatial unit instead of defining explanatory variables, even if there is no knowledge of the domain regarding the location. As a result, the degree of abnormality of the sensor data for each spatial unit of the target user can be obtained.

本開示によれば、場所に関するドメインの知識を用いることなく、ユーザ状態推定のための推定モデルを構築することに資する有効な情報を得ることができる。 According to the present disclosure, it is possible to obtain useful information that contributes to constructing an estimation model for user state estimation without using domain knowledge about the location.

推定モデル構築装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the estimation model construction apparatus. (a)は、空間単位ごとのセンサデータの参照値の計算処理を示すフロー図であり、(b)は、異常度に基づくユーザ状態推定モデルの構築処理を示すフロー図である。(A) is a flow chart which shows the calculation process of the reference value of the sensor data for each space unit, and (b) is a flow chart which shows the construction process of the user state estimation model based on the degree of anomaly. (a)は、取得されたあるユーザのセンサデータを例示した表であり、(b)は、当該ユーザの位置情報を例示した表である。(A) is a table exemplifying the acquired sensor data of a certain user, and (b) is a table exemplifying the position information of the user. (a)は、計算で得られた空間単位ごとのセンサデータの平均・分散を例示した表であり、(b)は、空間単位ごとのセンサデータの平均の大小を二次元的に示す図である。(A) is a table exemplifying the average / variance of the sensor data for each space unit obtained by calculation, and (b) is a diagram showing the magnitude of the average of the sensor data for each space unit two-dimensionally. be. (a)は、取得された対象ユーザのセンサデータを例示した表であり、(b)は、対象ユーザの位置情報を例示した表である。(A) is a table exemplifying the acquired sensor data of the target user, and (b) is a table exemplifying the position information of the target user. 計算で得られた空間単位ごとの対象ユーザのセンサデータの平均・分散を例示した表である。It is a table exemplifying the average / variance of the sensor data of the target user for each space unit obtained by calculation. (a)は、対象ユーザについての空間単位ごとの加速度センサデータの平均の大小を二次元的に示す図であり、(b)は、対象ユーザについての空間単位ごとのジャイロセンサデータの平均の大小を二次元的に示す図であり、(c)は、対象ユーザについての空間単位ごとの画面オン/オフ状況を二次元的に示す図であり、(d)は、対象ユーザについての空間単位ごとのアプリAの使用状況を二次元的に示す図である。(A) is a diagram two-dimensionally showing the magnitude of the average of the acceleration sensor data for each space unit for the target user, and (b) is the magnitude of the average of the gyro sensor data for each space unit for the target user. Is a diagram two-dimensionally showing, (c) is a diagram showing the screen on / off status for each spatial unit for the target user two-dimensionally, and (d) is a diagram for each spatial unit for the target user. It is a figure which shows the usage situation of the application A two-dimensionally. 空間単位ごとの異常度の計算処理を説明するための図である。It is a figure for demonstrating the calculation process of the degree of abnormality for each space unit. 一日単位の各センサの異常度を集約する処理を説明するための図である。It is a figure for demonstrating the process which aggregates the abnormality degree of each sensor on a day-by-day basis. 取得されたユーザ状態データの例を示す表である。It is a table which shows the example of the acquired user state data. 集約された一日単位の各センサの異常度の例を示す表である。It is a table which shows the example of the abnormality degree of each sensor of the aggregated day. 推定モデル構築装置のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the estimation model construction apparatus.

以下、図面を参照しながら、本開示に係る推定モデル構築装置の一実施形態について説明する。 Hereinafter, an embodiment of the estimation model construction device according to the present disclosure will be described with reference to the drawings.

図1に示すように、推定モデル構築装置10は、センサデータ取得部11、参照値計算部12、異常度計算部13、ユーザ状態データ取得部14、および推定モデル構築部15を備える。以下、各部の機能・動作について説明する。 As shown in FIG. 1, the estimation model construction device 10 includes a sensor data acquisition unit 11, a reference value calculation unit 12, an abnormality degree calculation unit 13, a user state data acquisition unit 14, and an estimation model construction unit 15. The functions and operations of each part will be described below.

センサデータ取得部11は、1人以上のユーザにおける身体的要素を計測する1つ以上のセンサから、当該ユーザの空間単位ごとのセンサデータを取得する機能部である。詳細は後述するが、空間単位ごとのセンサデータの参照値(即ち、後述する異常度計算で対象値との比較に用いられる値)の計算処理において、センサデータ取得部11は、参照値計算のための複数ユーザにおける身体的要素を計測する複数のセンサから、当該複数ユーザの空間単位ごとのセンサデータを取得する。また、異常度に基づくユーザ状態推定モデルの構築処理において、センサデータ取得部11は、推定モデル構築のための対象ユーザにおける身体的要素を計測するセンサから、当該対象ユーザの空間単位ごとのセンサデータの対象値(即ち、後述する異常度計算における対象値)を取得する。 The sensor data acquisition unit 11 is a functional unit that acquires sensor data for each spatial unit of a user from one or more sensors that measure physical elements in one or more users. Although the details will be described later, in the calculation process of the reference value of the sensor data for each space unit (that is, the value used for comparison with the target value in the abnormality degree calculation described later), the sensor data acquisition unit 11 calculates the reference value. Sensor data for each spatial unit of the plurality of users is acquired from a plurality of sensors that measure physical elements in the plurality of users. Further, in the process of constructing the user state estimation model based on the degree of abnormality, the sensor data acquisition unit 11 obtains sensor data for each spatial unit of the target user from a sensor that measures a physical element of the target user for constructing the estimation model. (That is, the target value in the abnormality degree calculation described later) is acquired.

参照値計算部12は、参照値計算のための複数ユーザの空間単位ごとのセンサデータについて、予め定められた方法に基づき、空間単位ごとのセンサデータの参照値を計算する機能部である。この計算方法の具体例は後述する。 The reference value calculation unit 12 is a functional unit that calculates the reference value of the sensor data for each space unit based on a predetermined method for the sensor data for each space unit of a plurality of users for the reference value calculation. A specific example of this calculation method will be described later.

異常度計算部13は、センサデータ取得部11により取得された、推定モデル構築のための対象ユーザの空間単位ごとのセンサデータについて、予め定められた方法に基づき、空間単位ごとのセンサデータの対象値を計算し、得られた空間単位ごとのセンサデータの対象値と、参照値計算部12による計算で得られた空間単位ごとのセンサデータの参照値とに基づいて、対象ユーザの空間単位ごとのセンサデータの異常度を計算する機能部である。また、異常度計算部13は、計算で得られた対象ユーザの空間単位ごとのセンサデータの異常度を、所定の時間幅単位(以下では一例として「1日単位」)でセンサごとの異常度として集約する。異常度計算部13による計算方法の具体例は後述する。 The anomaly degree calculation unit 13 is the target of the sensor data for each space unit based on a predetermined method for the sensor data for each space unit of the target user for constructing the estimation model acquired by the sensor data acquisition unit 11. Based on the value calculated and the target value of the sensor data for each space unit obtained and the reference value of the sensor data for each space unit obtained by the calculation by the reference value calculation unit 12, each space unit of the target user It is a functional part that calculates the degree of abnormality of the sensor data of. Further, the abnormality degree calculation unit 13 determines the abnormality degree of the sensor data for each space unit of the target user obtained by the calculation in a predetermined time width unit (hereinafter, "one day unit" as an example) for each sensor. Aggregate as. A specific example of the calculation method by the abnormality degree calculation unit 13 will be described later.

ユーザ状態データ取得部14は、対象ユーザの状態を表すユーザ状態データを上記の所定の時間幅単位(1日単位)で取得する機能部である。ユーザ状態データの一例として、ストレス指標が挙げられ、一般的なストレス指標である交感神経と副交感神経の緊張の程度(バランス)を表すLFHF(Low Frequency High Frequency)を、一般的に知られた方法によって、ユーザ状態データとして取得してもよいし、得られたLFHFが予め定めた基準値よりも「高い」か「低い」かという2値を用いてもよい。 The user status data acquisition unit 14 is a functional unit that acquires user status data representing the status of the target user in the predetermined time width unit (daily unit). As an example of user state data, a stress index is mentioned, and LFHF (Low Frequency High Frequency), which represents the degree (balance) of tension between sympathetic nerve and parasympathetic nerve, which is a general stress index, is generally known. Depending on the situation, it may be acquired as user status data, or two values of whether the obtained LFHF is "higher" or "lower" than a predetermined reference value may be used.

推定モデル構築部15は、異常度計算部13により集約された所定の時間幅単位(1日単位)のセンサごとの異常度を説明変数とし、ユーザ状態データ取得部14により取得された所定の時間幅単位(1日単位)のユーザ状態データを目的変数とする推定モデルを構築する機能部である。 The estimation model building unit 15 uses the degree of abnormality for each sensor in a predetermined time width unit (daily unit) aggregated by the abnormality degree calculation unit 13 as an explanatory variable, and the predetermined time acquired by the user state data acquisition unit 14. It is a functional unit that builds an estimation model that uses user state data in width units (daily units) as the objective variable.

(推定モデル構築装置10において実行される処理)
以下、図2(a)、図2(b)を用いて、推定モデル構築装置10において実行される処理の一例を概説する。図2(a)の処理は空間単位ごとのセンサデータの参照値を予め計算するための処理であり、図2(b)の処理は対象ユーザの異常度に基づいてユーザ状態推定モデルを構築するための処理である。図2(a)の処理で得られる参照値は図2(b)の処理で用いられるため、図2(a)の処理は図2(b)の処理の前提となる処理である。
(Process executed in the estimation model building apparatus 10)
Hereinafter, an example of the processing executed by the estimation model building apparatus 10 will be outlined with reference to FIGS. 2 (a) and 2 (b). The process of FIG. 2A is a process for calculating the reference value of the sensor data for each space unit in advance, and the process of FIG. 2B constructs a user state estimation model based on the degree of abnormality of the target user. It is a process for. Since the reference value obtained in the process of FIG. 2 (a) is used in the process of FIG. 2 (b), the process of FIG. 2 (a) is a premise process of the process of FIG. 2 (b).

図2(a)の処理では、センサデータ取得部11が、参照値計算のための複数ユーザにおける身体的要素を計測する複数のセンサから、当該複数ユーザの空間単位ごとのセンサデータを取得する(ステップS1)。これにより、例えば、図3(a)に示すような、あるユーザにおける加速度センサデータ、ジャイロセンサデータ、画面オン/オフ状態データ、アプリ起動に関するデータが取得され、また、図3(b)に示すような、当該ユーザの時系列的な位置情報として、当該ユーザが滞在したジオハッシュ、そのジオハッシュの緯度・経度、滞在開始した時刻などの情報が取得される。 In the process of FIG. 2A, the sensor data acquisition unit 11 acquires sensor data for each spatial unit of the plurality of users from a plurality of sensors that measure physical elements in the plurality of users for reference value calculation (). Step S1). As a result, for example, acceleration sensor data, gyro sensor data, screen on / off state data, and application startup data for a certain user as shown in FIG. 3A are acquired, and are also shown in FIG. 3B. As such time-series position information of the user, information such as the geohash in which the user stayed, the latitude / longitude of the geohash, and the time when the stay started is acquired.

次に、参照値計算部12が、ステップS1で取得された複数ユーザの空間単位(ここではジオハッシュ)ごとのセンサデータの平均および分散を、空間単位ごとのセンサデータの参照値として計算する(ステップS2)。具体的には、図3(b)に示す、あるユーザの時系列的な位置情報から、当該ユーザは時刻0:00:10から0:13:50までの間、ジオハッシュ123456abに滞在していたと分かるため、参照値計算部12は、当該ユーザの加速度センサデータについて、ジオハッシュ123456abに滞在していた13分40秒の時間帯(つまり0:00:10〜0:13:50の時間帯)における加速度センサデータx,y,zの二乗和の平方根(ベクトルの大きさ)の平均と分散を計算する。もし、当該ユーザが他の時間帯もジオハッシュ123456abに滞在していた場合は、当該他の時間帯における加速度センサデータx,y,zも加えて、ジオハッシュ123456abに滞在していた全ての時間帯における加速度センサデータx,y,zをひとまとめにして、平均と分散を計算する。参照値計算部12は、このようなジオハッシュ123456abにおける加速度センサデータの平均と分散の計算を、滞在した他のジオハッシュ(ここではジオハッシュ123456a9)についても実行する。また、上記のような加速度センサデータの平均と分散の計算を、他のセンサデータについても実行する。例えば、画面オン/オフ状態データからは、画面オン時間の平均と分散を計算してもよいし、アプリ起動に関するデータからは、特定のアプリAの利用時間の平均と分散を計算してもよい。これにより、図4(a)に例示するさまざまなセンサデータの平均と分散が、空間単位(ここではジオハッシュ)ごとに得られる。図4(b)には、一例として、加速度センサデータの「平均」について、予め定めた標準的な値よりも大きいか小さいかをジオハッシュごとに二次元的に示しており、斜めのハッチングが施されたジオハッシュでは、加速度センサデータの平均が大きいことを示し、縦のハッチングが施されたジオハッシュでは、加速度センサデータの平均が小さいことを示している。このように加速度センサデータの平均の大小をジオハッシュごとに把握することができる。なお、ステップS2では、ユーザごとにジオハッシュごとの平均・分散を計算してもよいし、全てのユーザをひとまとめにしてジオハッシュごとの平均・分散を計算してもよい。 Next, the reference value calculation unit 12 calculates the average and variance of the sensor data for each space unit (here, geohash) of the plurality of users acquired in step S1 as the reference value of the sensor data for each space unit (here). Step S2). Specifically, from the time-series position information of a user shown in FIG. 3 (b), the user stays in the geohash 123456ab from 0:00:10 to 0:13:50. Therefore, the reference value calculation unit 12 determines that the user's accelerometer data is in the time zone of 13 minutes and 40 seconds while staying in the geohash 123456ab (that is, the time zone from 0:00:10 to 0:13:50). ), The mean and variance of the square root (the magnitude of the vector) of the sum of squares of the accelerometer data x, y, z are calculated. If the user stayed in the geohash 123456ab in other time zones, the accelerometer data x, y, z in the other time zone was also added, and all the time spent in the geohash 123456ab. The accelerometer data x, y, z in the band are grouped together to calculate the mean and variance. The reference value calculation unit 12 also performs the calculation of the mean and variance of the accelerometer data in such a geohash 123456ab for the other geohashes that have stayed (here, the geohash 123456a9). In addition, the calculation of the mean and variance of the acceleration sensor data as described above is also executed for other sensor data. For example, the average and variance of the screen on time may be calculated from the screen on / off state data, and the average and variance of the usage time of a specific app A may be calculated from the data related to the application startup. .. As a result, the average and variance of the various sensor data illustrated in FIG. 4A can be obtained for each spatial unit (here, geohash). In FIG. 4B, as an example, whether the “average” of the accelerometer data is larger or smaller than a predetermined standard value is shown two-dimensionally for each geohash, and diagonal hatching is shown. The geohash applied indicates that the average of the accelerometer data is large, and the geohash with vertical hatching indicates that the average of the accelerometer data is small. In this way, the average magnitude of the acceleration sensor data can be grasped for each geohash. In step S2, the average / variance for each geohash may be calculated for each user, or the average / variance for each geohash may be calculated collectively for all users.

以上のような図2(a)の処理により、空間単位(ジオハッシュ)ごとのさまざまなセンサデータの参照値(平均および分散)が得られる。 By the process of FIG. 2A as described above, reference values (average and variance) of various sensor data for each spatial unit (geohash) can be obtained.

次に、図2(b)の処理では、センサデータ取得部11が、推定モデル構築のための対象ユーザにおける身体的要素を計測するセンサから、当該対象ユーザの空間単位(ジオハッシュ)ごとのセンサデータを取得する(ステップS11)。これにより、例えば、図5(a)に示すような、対象ユーザにおける加速度センサデータ、ジャイロセンサデータ、画面オン/オフ状態データ、アプリ起動に関するデータが取得され、また、図5(b)に示す対象ユーザの時系列的な位置情報として、対象ユーザが滞在したジオハッシュ、そのジオハッシュの緯度・経度、滞在開始した時刻などの情報が取得される。 Next, in the process of FIG. 2B, the sensor data acquisition unit 11 changes from the sensor that measures the physical element of the target user for constructing the estimation model to the sensor for each spatial unit (geohash) of the target user. Acquire data (step S11). As a result, for example, acceleration sensor data, gyro sensor data, screen on / off state data, and application startup data for the target user as shown in FIG. 5A are acquired, and are also shown in FIG. 5B. As time-series position information of the target user, information such as the geohash in which the target user stayed, the latitude / longitude of the geohash, and the time when the stay started is acquired.

次に、異常度計算部13が、ステップS11で取得された対象ユーザの空間単位(ジオハッシュ)ごとのセンサデータの平均および分散を、空間単位ごとのセンサデータの対象値として計算する(ステップS12)。具体的には、図5(b)に示す対象ユーザの時系列的な位置情報から、対象ユーザは9:00:00から12:30:10までの時間帯および14:40:20から17:15:00までの時間帯に、ジオハッシュ123456a9に滞在していたと分かるため、一例として加速度センサデータについては、異常度計算部13は、ジオハッシュ123456a9に滞在していた上記2つの時間帯における対象ユーザの加速度センサデータx,y,zの二乗和の平方根(ベクトルの大きさ)の平均と分散を計算する。異常度計算部13は、このようなジオハッシュ123456a9における加速度センサデータの平均と分散の計算を、滞在した他のジオハッシュ(ここではジオハッシュ123456ba)についても実行する。また、上記のような加速度センサデータの平均と分散の計算を、他のセンサデータについても実行する。前述した図2(a)のステップS2と同様に、画面オン/オフ状態データからは、画面オン時間の平均と分散を計算してもよいし、アプリ起動に関するデータからは、特定のアプリAの利用時間の平均と分散を計算してもよい。これにより、図6に例示するさまざまなセンサデータの平均と分散が、空間単位(ここではジオハッシュ)ごとに得られる。図7(a)には、一例として、対象ユーザの加速度センサデータの「平均」について、予め定めた標準的な値よりも大きいか小さいかをジオハッシュごとに二次元的に示しており、斜めのハッチングが施されたジオハッシュでは、加速度センサデータの平均が大きいことを示し、縦のハッチングが施されたジオハッシュでは、加速度センサデータの平均が小さいことを示し、ハッチングが施されていないジオハッシュでは、対象ユーザが滞在していないため、加速度センサデータが無いことを示している。同様に、図7(b)には対象ユーザのジオハッシュごとのジャイロセンサデータの「平均」の大小が、図7(c)には対象ユーザのジオハッシュごとの画面オン時間の「平均」の大小が、図7(d)には対象ユーザのジオハッシュごとのアプリAの利用時間の「平均」の大小が、それぞれ二次元的に示されている。なお、ステップS12では、対象ユーザごとにジオハッシュごとの平均・分散を計算してもよいし、全ての対象ユーザをひとまとめにしてジオハッシュごとの平均・分散を計算してもよい。 Next, the abnormality degree calculation unit 13 calculates the average and variance of the sensor data for each space unit (geohash) of the target user acquired in step S11 as the target value of the sensor data for each space unit (step S12). ). Specifically, from the time-series position information of the target user shown in FIG. 5 (b), the target user is in the time zone from 9:00:00 to 12:30:10 and from 14:40:20 to 17 :. Since it is known that the user was staying in the geohash 123456a9 until 15:00, as an example, for the acceleration sensor data, the anomaly degree calculation unit 13 is the target in the above two time zones in which the geohash 123456a9 was staying. Calculate the average and variance of the square root (the magnitude of the vector) of the sum of squares of the user's accelerometer data x, y, z. The anomaly degree calculation unit 13 also performs the calculation of the mean and variance of the acceleration sensor data in such a geohash 123456a9 for the other geohash (here, the geohash 123456ba) that has stayed. In addition, the calculation of the mean and variance of the acceleration sensor data as described above is also executed for other sensor data. Similar to step S2 in FIG. 2A described above, the average and variance of the screen on time may be calculated from the screen on / off state data, and the data related to the application startup may be used to calculate the average and variance of the screen on time. You may calculate the mean and variance of the usage time. As a result, the mean and variance of the various sensor data illustrated in FIG. 6 can be obtained for each spatial unit (here, geohash). FIG. 7A shows, as an example, whether the “average” of the acceleration sensor data of the target user is larger or smaller than a predetermined standard value in two dimensions for each geohash, and is oblique. The hatched geohash indicates that the average of the accelerometer data is large, and the vertical hatched geohash indicates that the average of the accelerometer data is small, and the geohash is not hatched. The hash indicates that there is no accelerometer data because the target user is not staying. Similarly, FIG. 7 (b) shows the magnitude of the "average" of the gyro sensor data for each geohash of the target user, and FIG. 7 (c) shows the "average" of the screen on time for each geohash of the target user. The magnitude is shown in FIG. 7D, and the magnitude of the "average" of the usage time of the application A for each geohash of the target user is shown two-dimensionally. In step S12, the average / variance for each geohash may be calculated for each target user, or the average / variance for each geohash may be calculated collectively for all the target users.

次に、異常度計算部13は、ステップS12で得られた対象値とステップS2で得られた参照値から、対象ユーザの空間単位(ジオハッシュ)ごとのセンサデータの異常度を計算する(ステップS13)。この異常度の計算は、任意のアルゴリズムを採用してよい。ここでは、一例として、異常度計算部13は、各ジオハッシュでの平均の差(絶対値)と分散の差(絶対値)との和を異常度として計算する。図8を用いて、加速度センサデータの異常度の計算例を説明する。図8に示す様々なセンサデータに関する「参照値」と「対象値」のうち、「加速度平均」と「加速度分散」に注目すると、ジオハッシュ123456abについては、対象ユーザの滞在履歴が無く「対象値」が無いため、異常度は計算できず、「値なし」となる。
ジオハッシュ123456a9については、|10.21−9.81|+|0.43−0.02|=0.81
ジオハッシュ123456baについては、|9.81−9.91|+|0.06−0.03|=0.13
という計算により、それぞれの異常度が得られる。別のセンサデータについても同様に、異常度が計算され、図8の下段の表に示すような、ジオハッシュごとの各センサデータについての異常度が得られる。
Next, the abnormality degree calculation unit 13 calculates the abnormality degree of the sensor data for each spatial unit (geohash) of the target user from the target value obtained in step S12 and the reference value obtained in step S2 (step). S13). Any algorithm may be adopted for the calculation of the degree of abnormality. Here, as an example, the anomaly degree calculation unit 13 calculates the sum of the average difference (absolute value) and the variance difference (absolute value) in each geohash as the anomaly degree. An example of calculation of the degree of abnormality of the acceleration sensor data will be described with reference to FIG. Focusing on the "acceleration average" and "acceleration variance" among the "reference values" and "target values" related to the various sensor data shown in FIG. 8, the geohash 123456ab has no stay history of the target user and is the "target value". Since there is no "", the degree of abnormality cannot be calculated, and it becomes "no value".
For Geohash 123456a9, | 10.21−9.81 | + | 0.43−0.02 | = 0.81
For Geohash 123456ba, | 9.81-9.91 | + | 0.06−0.03 | = 0.13
By the calculation, each abnormality degree can be obtained. Similarly, the degree of abnormality is calculated for another sensor data, and the degree of abnormality for each sensor data for each geohash as shown in the lower table of FIG. 8 is obtained.

ここまでの処理により、場所に関するドメインの知識は無くとも、後述するステップS15のセンサデータの異常度に基づくユーザ状態推定のための推定モデル構築に資する有効な情報として、対象ユーザの空間単位(ジオハッシュ単位)の各センサデータについての異常度を得ることができる。 By the processing up to this point, even if there is no knowledge of the domain regarding the location, the spatial unit (geo) of the target user can be used as effective information that contributes to the construction of an estimation model for estimating the user state based on the degree of abnormality of the sensor data in step S15 described later. It is possible to obtain the degree of abnormality for each sensor data (in hash units).

そして、異常度計算部13は、図9に示すように、計算で得られた対象ユーザのジオハッシュごとのセンサデータの異常度を、所定の時間幅単位(ここでは1日単位)でセンサごとの異常度として集約する。ここでの集約は任意のアルゴリズムを採用してよく、例えば、各センサの異常度の「最大値」を集約結果としてもよいし、各センサの異常度の「平均値」を集約結果としてもよいし、各センサの異常度の「最小値」を集約結果としてもよい。図9の例では、各センサの異常度の「最大値」を集約結果としており、ある1日(2020年1月1日)における各センサの異常度の集約結果を得ている。 Then, as shown in FIG. 9, the abnormality degree calculation unit 13 determines the abnormality degree of the sensor data for each geohash of the target user obtained by the calculation in a predetermined time width unit (here, one day unit) for each sensor. Aggregate as the degree of abnormality. Arbitrary algorithm may be adopted for the aggregation here. For example, the "maximum value" of the abnormality degree of each sensor may be the aggregation result, or the "average value" of the abnormality degree of each sensor may be the aggregation result. However, the "minimum value" of the degree of abnormality of each sensor may be used as the aggregation result. In the example of FIG. 9, the "maximum value" of the abnormality degree of each sensor is used as the aggregation result, and the aggregation result of the abnormality degree of each sensor on a certain day (January 1, 2020) is obtained.

図2(b)に戻り、次のステップS14では、ユーザ状態データ取得部14が、対象ユーザの状態を表すユーザ状態データとして、ストレス指標LFHFを一般的に知られた方法によって、上記の所定の時間幅単位(1日単位)で取得し、得られたLFHFが予め定めた基準値よりも「高い」か「低い」かという2値を求める。これにより、例えば、図10に示すように、対象ユーザ(ユーザ1)の1日単位のユーザ状態データとして、ストレス指標LFHFが基準値よりも「高い」か「低い」かを表すデータが取得される。なお、上記ステップS14の処理は、ステップS11〜S13の処理の後に実行することは必須ではなく、ステップS11〜S13の処理と同時並行で実行してもよい。 Returning to FIG. 2B, in the next step S14, the user state data acquisition unit 14 determines the stress index LFHF as the user state data representing the state of the target user by a method generally known. Obtained in time width units (daily units), and obtain two values, that is, whether the obtained LFHF is "higher" or "lower" than the predetermined reference value. As a result, for example, as shown in FIG. 10, as daily user status data of the target user (user 1), data indicating whether the stress index LFHF is “higher” or “lower” than the reference value is acquired. NS. It is not essential that the process of step S14 is executed after the process of steps S11 to S13, and the process may be executed in parallel with the process of steps S11 to S13.

次のステップS15では、推定モデル構築部15が、図11に示すように、ステップS13で得られた所定の時間幅単位(1日単位)のセンサごとの異常度x(ここでは、x=(v1,v2,…))を説明変数とし、ステップS14で取得された所定の時間幅単位(1日単位)のユーザ状態データy(ここではストレス指標LFHF)を目的変数とする推定モデルfを構築する。なお、推定モデル構築のための学習は、機械学習、深層学習など、任意のアルゴリズムで実行してよい。 In the next step S15, as shown in FIG. 11, the estimation model building unit 15 determines the degree of abnormality x (here, x = (here, x = (here, x =)) for each sensor in a predetermined time width unit (daily unit) obtained in step S13. An estimation model f is constructed using v1, v2, ...)) as an explanatory variable and the user state data y (here, the stress index LFHF) in a predetermined time width unit (daily unit) acquired in step S14 as an objective variable. do. The learning for constructing the estimation model may be executed by any algorithm such as machine learning and deep learning.

以上説明した発明の実施形態によれば、場所に関するドメインの知識は無くとも、ユーザ状態推定のための推定モデルを構築することに資する有効な情報として、対象ユーザの空間単位(ジオハッシュ単位)の各センサデータについての異常度を得ることができ、さらに、各センサデータの異常度に基づくユーザ状態推定のための推定モデルを構築することができる。 According to the embodiment of the invention described above, even if there is no knowledge of the domain regarding the location, as effective information that contributes to constructing an estimation model for estimating the user state, the spatial unit (geohash unit) of the target user is used. The degree of abnormality for each sensor data can be obtained, and an estimation model for estimating the user state based on the degree of abnormality of each sensor data can be constructed.

なお、上記実施形態では、参照値計算部12および異常度計算部13が、空間単位(ジオハッシュ単位)ごとのセンサデータの平均および分散を、参照値および対象値として計算し、これら参照値および対象値から異常度を計算する例を説明したが、センサデータの平均および分散を異常度計算の基礎とすることは一例であり、センサデータの平均および分散以外の数値を異常度計算の基礎としてもよい。 In the above embodiment, the reference value calculation unit 12 and the abnormality degree calculation unit 13 calculate the average and dispersion of the sensor data for each space unit (geohash unit) as the reference value and the target value, and these reference values and the target value are calculated. The example of calculating the degree of anomaly from the target value has been explained, but it is an example that the average and dispersion of the sensor data are used as the basis of the degree of abnormality calculation, and the numerical values other than the average and dispersion of the sensor data are used as the basis of the degree of abnormality calculation. May be good.

[用語、変形態様などについて]
なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
[Terms, variants, etc.]
The block diagram used in the description of the above embodiment shows a block of functional units. These functional blocks (components) are realized by any combination of at least one of hardware and software. Further, the method of realizing each functional block is not particularly limited. That is, each functional block may be realized using one physically or logically coupled device, or two or more physically or logically separated devices can be directly or indirectly (eg, for example). , Wired, wireless, etc.) and may be realized using these plurality of devices. The functional block may be realized by combining the software with the one device or the plurality of devices.

機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)、送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, search, confirmation, reception, transmission, output, access, solution, selection, selection, establishment, comparison, assumption, expectation, and assumption. Broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc., but limited to these I can't. For example, a functional block (configuration unit) that makes transmission function is called a transmitting unit (transmitting unit) or a transmitter (transmitter). In each case, as described above, the realization method is not particularly limited.

例えば、一実施の形態における推定モデル構築装置は、本実施形態における処理を行うコンピュータとして機能してもよい。図12は、推定モデル構築装置10のハードウェア構成例を示す図である。上述の推定モデル構築装置10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。 For example, the estimation model building apparatus in one embodiment may function as a computer that performs processing in the present embodiment. FIG. 12 is a diagram showing a hardware configuration example of the estimation model construction device 10. The estimation model building device 10 described above may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。推定モデル構築装置10のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 In the following description, the word "device" can be read as a circuit, a device, a unit, or the like. The hardware configuration of the estimation model construction device 10 may be configured to include one or more of the devices shown in the figure, or may be configured not to include some of the devices.

推定モデル構築装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。 For each function in the estimation model building apparatus 10, the processor 1001 performs an operation by loading predetermined software (program) on the hardware such as the processor 1001 and the memory 1002, and controls the communication by the communication apparatus 1004. It is realized by controlling at least one of reading and writing of data in the memory 1002 and the storage 1003.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。 Processor 1001 operates, for example, an operating system to control the entire computer. The processor 1001 may be configured by a central processing unit (CPU) including an interface with a peripheral device, a control device, an arithmetic unit, a register, and the like.

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 Further, the processor 1001 reads a program (program code), a software module, data, and the like from at least one of the storage 1003 and the communication device 1004 into the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described in the above-described embodiment is used. Although it has been described that the various processes described above are executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. Processor 1001 may be mounted by one or more chips. The program may be transmitted from the network via a telecommunication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one such as a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). May be done. The memory 1002 may be referred to as a register, a cache, a main memory (main storage device), or the like. The memory 1002 can store a program (program code), a software module, or the like that can be executed to implement the wireless communication method according to the embodiment of the present disclosure.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。 The storage 1003 is a computer-readable recording medium, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, an optical magnetic disk (for example, a compact disk, a digital versatile disk, a Blu-ray). It may consist of at least one (registered trademark) disk), smart card, flash memory (eg, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like. The storage 1003 may be referred to as an auxiliary storage device. The storage medium described above may be, for example, a database, server or other suitable medium containing at least one of the memory 1002 and the storage 1003.

通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。 The communication device 1004 is hardware (transmission / reception device) for communicating between computers via at least one of a wired network and a wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。 The input device 1005 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that receives an input from the outside. The output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that outputs to the outside. The input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel). Further, each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information. The bus 1007 may be configured by using a single bus, or may be configured by using a different bus for each device.

本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect / embodiment described in the present disclosure may be used alone, in combination, or may be switched and used according to the execution. Further, the notification of predetermined information (for example, the notification of "being X") is not limited to the explicit one, but is performed implicitly (for example, the notification of the predetermined information is not performed). May be good.

以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。 Although the present disclosure has been described in detail above, it is clear to those skilled in the art that the present disclosure is not limited to the embodiments described in the present disclosure. The present disclosure may be implemented as amendments and modifications without departing from the spirit and scope of the present disclosure, which is determined by the description of the scope of claims. Therefore, the description of this disclosure is for purposes of illustration and does not have any limiting meaning to this disclosure.

本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The order of the processing procedures, sequences, flowcharts, etc. of each aspect / embodiment described in the present disclosure may be changed as long as there is no contradiction. For example, the methods described in the present disclosure present elements of various steps using exemplary order, and are not limited to the particular order presented.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input / output information and the like may be stored in a specific place (for example, a memory), or may be managed using a management table. Information to be input / output may be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.

本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 The phrase "based on" as used in this disclosure does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".

本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 When "include", "including" and variations thereof are used in the present disclosure, these terms are as inclusive as the term "comprising". Is intended. Moreover, the term "or" used in the present disclosure is intended not to be an exclusive OR.

本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In the present disclosure, if articles are added by translation, for example a, an and the in English, the disclosure may include the plural nouns following these articles.

本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。 In the present disclosure, the term "A and B are different" may mean "A and B are different from each other". The term may mean that "A and B are different from C". Terms such as "separate" and "combined" may be interpreted in the same way as "different".

10…推定モデル構築装置、11…センサデータ取得部、12…参照値計算部、13…異常度計算部、14…ユーザ状態データ取得部、15…推定モデル構築部、1001…プロセッサ、1002…メモリ、1003…ストレージ、1004…通信装置、1005…入力装置、1006…出力装置、1007…バス。 10 ... estimation model construction device, 11 ... sensor data acquisition unit, 12 ... reference value calculation unit, 13 ... abnormality degree calculation unit, 14 ... user state data acquisition unit, 15 ... estimation model construction unit, 1001 ... processor, 1002 ... memory , 1003 ... Storage, 1004 ... Communication device, 1005 ... Input device, 1006 ... Output device, 1007 ... Bus.

Claims (3)

1人以上のユーザにおける身体的要素を計測する1つ以上のセンサから、当該ユーザの空間単位ごとのセンサデータを取得するセンサデータ取得部と、
前記センサデータ取得部により取得された、参照値計算のための複数ユーザの空間単位ごとのセンサデータについて、予め定められた方法に基づき、空間単位ごとのセンサデータの参照値を計算する参照値計算部と、
前記センサデータ取得部により取得された、推定モデル構築のための対象ユーザの空間単位ごとのセンサデータについて、前記予め定められた方法に基づき、空間単位ごとのセンサデータの対象値を計算し、得られた空間単位ごとのセンサデータの対象値と、前記参照値計算部による計算で得られた空間単位ごとのセンサデータの参照値とに基づいて、前記対象ユーザの空間単位ごとのセンサデータの異常度を計算する異常度計算部と、
を備える推定モデル構築装置。
A sensor data acquisition unit that acquires sensor data for each spatial unit of the user from one or more sensors that measure physical elements in one or more users.
Reference value calculation for calculating the reference value of the sensor data for each space unit based on a predetermined method for the sensor data for each space unit of a plurality of users for calculating the reference value acquired by the sensor data acquisition unit. Department and
With respect to the sensor data for each space unit of the target user for constructing the estimation model acquired by the sensor data acquisition unit, the target value of the sensor data for each space unit is calculated and obtained based on the predetermined method. Abnormality of the sensor data for each space unit of the target user based on the target value of the sensor data for each space unit obtained and the reference value of the sensor data for each space unit obtained by the calculation by the reference value calculation unit. Abnormality calculation unit that calculates the degree, and
Estimated model building device.
前記異常度計算部は、計算で得られた前記対象ユーザの空間単位ごとのセンサデータの異常度を、所定の時間幅単位でセンサごとの異常度として集約し、
前記推定モデル構築装置は、
前記対象ユーザの状態を表すユーザ状態データを前記所定の時間幅単位で取得するユーザ状態データ取得部と、
前記異常度計算部により集約された前記所定の時間幅単位のセンサごとの異常度を説明変数とし、前記ユーザ状態データ取得部により取得された前記所定の時間幅単位のユーザ状態データを目的変数とする推定モデルを構築する推定モデル構築部と、
をさらに備える、請求項1に記載の推定モデル構築装置。
The abnormality degree calculation unit aggregates the abnormality degree of the sensor data for each space unit of the target user obtained by the calculation as the abnormality degree for each sensor in a predetermined time width unit.
The estimation model construction device is
A user state data acquisition unit that acquires user state data representing the state of the target user in the predetermined time width unit, and a user state data acquisition unit.
The degree of abnormality for each sensor in the predetermined time width unit aggregated by the abnormality degree calculation unit is used as an explanatory variable, and the user state data in the predetermined time width unit acquired by the user state data acquisition unit is used as the objective variable. The estimation model building unit that builds the estimation model,
The estimation model building apparatus according to claim 1, further comprising.
前記参照値計算部は、前記空間単位ごとのセンサデータの平均および分散を参照値として計算し、
前記異常度計算部は、前記空間単位ごとのセンサデータの平均および分散を対象値として計算する、
請求項1又は2に記載の推定モデル構築装置。
The reference value calculation unit calculates the average and variance of the sensor data for each space unit as reference values.
The anomaly degree calculation unit calculates the average and variance of the sensor data for each space unit as target values.
The estimation model building apparatus according to claim 1 or 2.
JP2020087240A 2020-05-19 2020-05-19 Estimation model construction device Active JP7470569B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020087240A JP7470569B2 (en) 2020-05-19 2020-05-19 Estimation model construction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020087240A JP7470569B2 (en) 2020-05-19 2020-05-19 Estimation model construction device

Publications (2)

Publication Number Publication Date
JP2021182242A true JP2021182242A (en) 2021-11-25
JP7470569B2 JP7470569B2 (en) 2024-04-18

Family

ID=78606600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020087240A Active JP7470569B2 (en) 2020-05-19 2020-05-19 Estimation model construction device

Country Status (1)

Country Link
JP (1) JP7470569B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017521756A (en) 2014-05-23 2017-08-03 ニューミトラ インク.Neumitra Inc. Operating system with color-based health theme
JP6410670B2 (en) 2015-06-17 2018-10-24 日本電信電話株式会社 Traffic difficulty estimation device, method and program

Also Published As

Publication number Publication date
JP7470569B2 (en) 2024-04-18

Similar Documents

Publication Publication Date Title
US11086290B2 (en) Electronic apparatus for monitoring state of machine tool and control method thereof
CN105228531A (en) Menstruation starts pre-settled date accountant, program and organism analytical equipment
JP2018181184A (en) Evaluation device, evaluation method, and program therefor
CN103077184A (en) Method for rule-based context acquisition
JP6711519B2 (en) Evaluation device, evaluation method and program
JP2021182242A (en) Estimation model construction device
JP5555109B2 (en) Service time prediction apparatus and service time prediction method
US10819798B2 (en) On-site system
JP6783075B2 (en) Home judgment device, judgment method, and program
US20190195699A1 (en) Temperature estimation system, temperature estimation method, and recording medium storing temperature estimation program
JP2018181008A (en) Server device
JP7412267B2 (en) Estimation model construction device
JP6988556B2 (en) Information processing device, job status display method and job status display program
WO2019202791A1 (en) Pastime preference estimation device and pastime preference estimation method
JP2020201751A (en) User state estimation device
JP7341690B2 (en) Information processing device, method, and program
JP2014186526A (en) Information processing system, information processor and program
JP2019028687A (en) Server device and pandemic prediction method
JP7112885B2 (en) Information processing equipment
JP6879107B2 (en) Anonymity evaluation device, anonymity evaluation method and anonymity evaluation program
WO2015149015A1 (en) Methods, apparatuses and computer program products for providing a speed table for analytical models
JP2017162386A (en) Display control program, display control method, and display control device
JP2017016437A (en) Reservation processing program, reservation processing method, and reservation processing system
JP2022051136A (en) Replacement judgment program, replacement judgment method and replacement judgment device
JP2024008217A (en) Search space management method, search space management device and user terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240408

R150 Certificate of patent or registration of utility model

Ref document number: 7470569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150