JP2019087179A - Analyzer, analysis method and program - Google Patents

Analyzer, analysis method and program Download PDF

Info

Publication number
JP2019087179A
JP2019087179A JP2017216988A JP2017216988A JP2019087179A JP 2019087179 A JP2019087179 A JP 2019087179A JP 2017216988 A JP2017216988 A JP 2017216988A JP 2017216988 A JP2017216988 A JP 2017216988A JP 2019087179 A JP2019087179 A JP 2019087179A
Authority
JP
Japan
Prior art keywords
information
feature information
action
increase
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017216988A
Other languages
Japanese (ja)
Other versions
JP7121251B2 (en
Inventor
智大 今井
Tomohiro Imai
智大 今井
松井 一樹
Kazuki Matsui
一樹 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017216988A priority Critical patent/JP7121251B2/en
Publication of JP2019087179A publication Critical patent/JP2019087179A/en
Application granted granted Critical
Publication of JP7121251B2 publication Critical patent/JP7121251B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To improve the accuracy of behavior analysis.SOLUTION: An analyzer 1 includes a control unit 1a and a storage unit 1b. The control unit 1a generates feature information in time series that represents a behavior state per unit time from behavior information derived by sensing the behavior of a user. When non-continuous feature information exists in which feature information differs before and after the unit time, the control unit 1a classifies the behavior information included in the non-continuous feature information into first behavior information and second behavior information differing in nature from each other. Then, the control unit 1a determines whether the continuity of feature information is appropriate from the increment/decrement tendencies of both the first behavior information and the second behavior information, and corrects the continuity of the feature information on the basis of the result of determination. The storage unit 1b stores the behavior information and feature information, and further stores other control information associated with the operation of the analyzer 1.SELECTED DRAWING: Figure 1

Description

本発明は、分析装置、分析方法およびプログラムに関する。   The present invention relates to an analyzer, an analysis method, and a program.

近年、センシングによって取得された情報からユーザの行動を分析し、行動状態に応じて様々なサービスを提供する行動支援システムが注目されている。
ユーザの行動分析に用いられるセンシング情報としては、例えば、携帯端末やウェアラブル端末等を通じて取得可能な、歩数や加速度等のモーションデータ、心拍や脈拍等のバイタルデータがある。
BACKGROUND In recent years, behavior support systems that analyze user behavior from information acquired by sensing and provide various services according to behavior states have attracted attention.
Examples of sensing information used for user behavior analysis include motion data such as the number of steps and acceleration, and vital data such as heart beat and pulse, which can be acquired through a portable terminal or a wearable terminal.

また、無線LAN(Local Area Network)のアクセスポイントを通じて取得可能な位置情報や、クラウドネットワークを通じて取得可能なスケジューリング情報等がある。
行動支援システムでは、これらのセンシング情報を用いて、ユーザの行動状態(立つ、歩く、座る、話す等)を分析し、分析した行動状態に応じてユーザ個別にサービスを提供する。
Also, there are position information that can be acquired through an access point of a wireless local area network (LAN), scheduling information that can be acquired through a cloud network, and the like.
In the action support system, the user's action state (stand, walk, sit, talk, etc.) is analyzed using these sensing information, and services are provided individually for the user according to the analyzed action state.

例えば、移動ルートの案内、オフィス環境における業務情報の提示、病院内での医療補助、建築・整備現場におけるリスク行動の提言等、様々な分野でユーザに密着したサービスを提供することができる。   For example, it is possible to provide a service close to the user in various fields, such as guidance of a moving route, presentation of business information in an office environment, medical assistance in a hospital, recommendation of risk behavior in construction and maintenance sites.

従来技術としては、例えば、観測結果における特徴量と、記憶してある特徴量とから、被験体の行動を認識する技術が提案されている。また、基準位置にもとづいて行動ログに含まれる位置情報の系列を補正する技術が提案されている。さらに、加速度センサの計測値の基本単位時刻よりも長い補正単位時刻における行動が連続するように行動推定の結果を補正する技術が提案されている。   As a prior art, for example, a technique has been proposed for recognizing the behavior of a subject from the feature amount in the observation result and the feature amount stored. In addition, there has been proposed a technique for correcting the sequence of position information included in the action log based on the reference position. Furthermore, a technique has been proposed that corrects the result of the action estimation so that the action at the correction unit time that is longer than the basic unit time of the measurement value of the acceleration sensor continues.

特開平10−113343号公報JP 10-113343 A 国際公開第2015/194269号International Publication No. 2015/194269 特許第5382719号公報Patent No. 5382719 gazette

しかし、ノイズ等の原因によってセンシング情報の取得に乱れが生じると、ユーザの行動状態を本来の行動状態とは異なるものとして誤認識する可能性がある。このため、誤認識された行動状態を検出し、本来の行動状態に補正することが求められる。   However, if the acquisition of sensing information is disturbed due to noise or the like, there is a possibility that the user's action state is erroneously recognized as being different from the original action state. For this reason, it is required to detect the erroneously recognized behavior state and correct it to the original behavior state.

1つの側面では、本発明は、行動分析の精度向上を図った分析装置、分析方法およびプログラムを提供することを目的とする。   In one aspect, the present invention aims to provide an analysis device, an analysis method, and a program in which the accuracy of behavior analysis is improved.

上記課題を解決するために、分析装置が提供される。分析装置は、制御部を含む。制御部は、ユーザの行動をセンシングした行動情報から単位時間毎の行動状態を表す特徴情報を時系列に生成し、単位時間の前の特徴情報に対して後の特徴情報が非連続な非連続特徴情報がある場合、非連続特徴情報に含まれる行動情報を、性質が互いに異なる第1の行動情報と第2の行動情報に分類し、第1の行動情報と第2の行動情報の双方の増減傾向から特徴情報の連続性の適否を判定し、判定結果にもとづいて、特徴情報の連続性の補正を行う。   In order to solve the above-mentioned subject, an analyzer is provided. The analyzer includes a controller. The control unit generates feature information representing an action state for each unit time in time series from the action information in which the user's action is sensed, and the feature information before the unit time is discontinuous for non-continuous feature information If there is feature information, the action information included in the non-consecutive feature information is classified into first action information and second action information having different properties, and both of the first action information and the second action information The propriety of the continuity of the feature information is determined from the increase / decrease tendency, and the continuity of the feature information is corrected based on the determination result.

また、上記課題を解決するために、コンピュータが上記分析装置と同様の制御を実行する分析方法が提供される。
さらに、上記課題を解決するために、コンピュータに上記分析装置と同様の制御を実行させるプログラムが提供される。
Moreover, in order to solve the said subject, the analysis method in which a computer performs control similar to the said analyzer is provided.
Furthermore, in order to solve the above-mentioned subject, a program which makes a computer perform control similar to the above-mentioned analysis device is provided.

1側面によれば、行動分析の精度向上が可能になる。   According to one aspect, it is possible to improve the accuracy of behavioral analysis.

分析装置の構成の一例を示す図である。It is a figure which shows an example of a structure of an analyzer. 情報処理システムの構成の一例を示す図である。It is a figure showing an example of the composition of an information processing system. 行動支援のモデルの一例を示す図である。It is a figure showing an example of a model of action support. サーバのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a server. サーバの機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of a server. 特徴量の生成動作の一例を示す図である。It is a figure which shows an example of production | generation operation | movement of a feature-value. 特徴量のグルーピングの一例を示す図である。It is a figure which shows an example of grouping of a feature-value. 特徴量のラベリングの一例を示す図である。It is a figure which shows an example of labeling of a feature-value. ログの粒度にもとづいてグルーピングが行われた状態を示す図である。It is a figure which shows the state in which grouping was performed based on the granularity of a log. ログの粒度にもとづいてグルーピングが行われた状態を示す図である。It is a figure which shows the state in which grouping was performed based on the granularity of a log. 特徴量の補正の動作を説明するための図である。It is a figure for demonstrating the operation | movement of correction of a feature-value. 特徴量の補正の動作を説明するための図である。It is a figure for demonstrating the operation | movement of correction of a feature-value. ノイズ判定テーブルの一例を示す図である。It is a figure which shows an example of a noise determination table. 特徴量補正後の状態を示す図である。It is a figure which shows the state after feature-value correction | amendment. サーバの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a server.

以下、本実施の形態について図面を参照して説明する。
[第1の実施の形態]
第1の実施の形態の分析装置について図1を用いて説明する。図1は分析装置の構成の一例を示す図である。分析装置1は、制御部1aおよび記憶部1bを含む。制御部1aは、ユーザの行動をセンシングした行動情報から単位時間毎の行動状態を表す特徴情報を時系列に生成する。
Hereinafter, the present embodiment will be described with reference to the drawings.
First Embodiment
The analyzer according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of the configuration of an analyzer. The analyzer 1 includes a control unit 1a and a storage unit 1b. The control unit 1a generates feature information representing an action state for each unit time in time series from the action information in which the action of the user is sensed.

また、制御部1aは、単位時間の前の特徴情報に対して後の特徴情報が非連続な非連続特徴情報がある場合、非連続特徴情報に含まれる行動情報を、性質が互いに異なる第1の行動情報と第2の行動情報に分類する。   In addition, when there is non-consecutive non-consecutive feature information in which the subsequent feature information is non-consecutive with respect to the feature information before the unit time, the control unit 1a is different from the first in the behavior information Classified into action information and second action information.

そして、制御部1aは、第1の行動情報と第2の行動情報の双方の増減傾向から特徴情報の連続性の適否を判定し、判定結果にもとづいて、特徴情報の連続性の補正を行う。記憶部1bは、センシングされた行動情報、および特徴情報を記憶し、さらに分析装置1の動作に関わるその他の制御情報を記憶する。   Then, the control unit 1a determines the appropriateness of the continuity of the feature information from the increase / decrease tendency of both the first action information and the second action information, and corrects the continuity of the feature information based on the determination result. . The storage unit 1 b stores sensed behavior information and feature information, and further stores other control information related to the operation of the analyzer 1.

図1に示す例を用いて動作について説明する。
〔ステップS1〕制御部1aは、行動情報(センシング情報に該当)を受信する。行動情報は、移動端末等のセンサ機器によってセンシングされた、ユーザの行動によって生起される情報である。図1の例では、“心拍数”、“歩数”、“位置情報”、“メール送受信”が示されている。行動情報は、センサ機器から分析装置1に定期的に送信されて制御部1aで受信される。
The operation will be described using the example shown in FIG.
[Step S1] The control unit 1a receives action information (corresponding to sensing information). The action information is information generated by the action of the user, which is sensed by a sensor device such as a mobile terminal. In the example of FIG. 1, “heart rate”, “step count”, “position information”, and “e-mail transmission / reception” are shown. The behavior information is periodically transmitted from the sensor device to the analysis device 1 and received by the control unit 1a.

〔ステップS2〕制御部1aは、行動情報を受信すると、行動情報から特徴情報を生成する。図1の例では、時刻t0、t1、t3に特徴情報Aが生成され、時刻t2に特徴情報Bが生成され、時刻t4に特徴情報Cが生成されている。   [Step S2] When receiving the action information, the control unit 1a generates feature information from the action information. In the example of FIG. 1, the feature information A is generated at time t0, t1, and t3, the feature information B is generated at time t2, and the feature information C is generated at time t4.

また、制御部1aは、単位時間の前後で特徴情報が異なる非連続特徴情報の検出を行う。図1の例では、時刻t1の特徴情報Aおよび時刻t2の特徴情報Bの組αと、時刻t3の特徴情報Aおよび時刻t4の特徴情報Cの組βとが、非連続特徴情報として検出されている。   In addition, the control unit 1a detects non-continuous feature information whose feature information differs before and after a unit time. In the example of FIG. 1, a set α of feature information A at time t1 and feature information B at time t2 and a set β of feature information A at time t3 and feature information C at time t4 are detected as non-continuous feature information. ing.

〔ステップS3〕制御部1aは、非連続特徴情報に含まれる行動情報を、性質が互いに異なる第1の行動情報と第2の行動情報に分類する。図1の例では、特徴情報Aの行動情報が第1の行動情報d1aと第2の行動情報d2aに分類されている。また、特徴情報Bの行動情報が第1の行動情報d1bと第2の行動情報d2bに分類され、特徴情報Cの行動情報が第1の行動情報d1cと第2の行動情報d2cに分類される。   [Step S3] The control unit 1a classifies the action information included in the non-continuous feature information into first action information and second action information having mutually different properties. In the example of FIG. 1, the action information of the feature information A is classified into a first action information d1a and a second action information d2a. Further, the action information of the feature information B is classified into the first action information d1 b and the second action information d2 b, and the action information of the feature information C is classified into the first action information d1 c and the second action information d2 c .

また、制御部1aは、第1の行動情報と第2の行動情報の双方の増減傾向から特徴情報の連続性の適否を判定する。
この場合、制御部1aは、特徴情報Aから特徴情報Bへの遷移における、第1の行動情報d1aから第1の行動情報d1bへの増減傾向と、第2の行動情報d2aから第2の行動情報d2bへの増減傾向との組み合わせによる第1の増減傾向を求める。そして、制御部1aは、第1の増減傾向にもとづいて、組α内の特徴情報A、Bの連続性の適否を判定する。
Further, the control unit 1a determines the appropriateness of the continuity of the feature information from the increase and decrease tendency of both the first action information and the second action information.
In this case, the control unit 1a changes the first behavior information d1a to the first behavior information d1b in the transition from the feature information A to the feature information B, and the second behavior information d2a to the second behavior. A first increase / decrease tendency is determined by the combination with the increase / decrease tendency to the information d2b. Then, the control unit 1a determines whether the continuity of the feature information A and B in the set α is appropriate or not based on the first increase / decrease tendency.

また、制御部1aは、特徴情報Aから特徴情報Cの遷移における、第1の行動情報d1aから第1の行動情報d1cへの増減傾向と、第2の行動情報d2aから第2の行動情報d2cへの増減傾向との組み合わせによる第2の増減傾向を求める。そして、制御部1aは、第2の増減傾向にもとづいて、組β内の特徴情報A、Cの連続性の適否を判定する。   In addition, the control unit 1a controls the increase / decrease tendency from the first action information d1a to the first action information d1c in transition of the feature information A to the feature information C, and the second action information d2c to the second action information d2c. A second increase / decrease tendency is determined in combination with the increase / decrease tendency. Then, the control unit 1a determines the appropriateness of the continuity of the feature information A and C in the set β based on the second increase / decrease tendency.

〔ステップS4〕制御部1aは、判定結果にもとづいて、特徴情報の連続性の補正処理を行う。
〔ステップS4a〕制御部1aが第1の増減傾向から特徴情報の連続性を不適正と判定したとする。この場合、制御部1aは、特徴情報Bを特徴情報Aに置き換え、非連続特徴情報を連続特徴情報に変換する(特徴情報A、特徴情報Bを特徴情報A、特徴情報Aの並びにする)。
[Step S4] The controller 1a corrects the continuity of the feature information based on the determination result.
[Step S4a] It is assumed that the controller 1a determines that the continuity of the feature information is inappropriate from the first increase / decrease tendency. In this case, the control unit 1a replaces the feature information B with the feature information A and converts the non-continuous feature information into continuous feature information (arranges the feature information A and the feature information B into the feature information A and the feature information A).

〔ステップS4b〕制御部1aは、第2の増減傾向から特徴情報の連続性を適正と判定したとする。この場合、制御部1aは、特徴情報Cの特徴情報Aへの置き換えはせずに、非連続特徴情報の状態を維持する(特徴情報A、特徴情報Cの並びのままにする)。   [Step S4b] It is assumed that the controller 1a determines that the continuity of the feature information is appropriate from the second increase / decrease tendency. In this case, the control unit 1a does not replace the feature information C with the feature information A, but maintains the state of the non-continuous feature information (leaves the feature information A and the feature information C in the same order).

このように、分析装置1では、センシングされたユーザの行動情報から行動状態を表す特徴情報を生成し、性質に応じて分類した行動情報の増減傾向から特徴情報の連続性の適否を判定し、判定結果にもとづいて特徴情報の連続性の補正を行う。   As described above, the analysis device 1 generates feature information representing the action state from the sensed user action information, and determines the appropriateness of the continuity of the feature information from the increase / decrease tendency of the action information classified according to the property, The continuity of feature information is corrected based on the determination result.

これにより、分析装置1は、ノイズ等による外乱によりユーザの行動状態を本来の行動状態とは異なるものと誤認識した場合でも、誤認識された行動状態を検出して本来の行動状態に補正することができ、行動分析の精度向上が可能になる。   Thereby, even if the analysis device 1 erroneously recognizes the action state of the user as something different from the original action state due to disturbance due to noise or the like, the analysis device 1 detects the erroneously recognized action state and corrects it to the original action state. Be able to improve the accuracy of behavioral analysis.

[第2の実施の形態]
次に第2の実施の形態について説明する。まず、システム構成について説明する。図2は情報処理システムの構成の一例を示す図である。情報処理システム1−1は、サーバ10、ネットワーク2、無線基地局3および移動端末4を備える。
Second Embodiment
Next, a second embodiment will be described. First, the system configuration will be described. FIG. 2 is a diagram showing an example of the configuration of the information processing system. The information processing system 1-1 includes a server 10, a network 2, a radio base station 3, and a mobile terminal 4.

サーバ10は、ネットワーク2に接続する。無線基地局3は例えば、アクセスポイントであって、ネットワーク2および移動端末4に接続する。
移動端末4は、ユーザの行動をセンシングして得た行動情報をサーバ10へ送信する。この場合、移動端末4は、サーバ10からのポーリング指示にもとづいて送信してもよいし、あらかじめ設定した周期で送信してもよい。なお、ユーザの行動をセンシング可能な機器であれば、移動端末4以外のものが用いられてもよい。また、該機器は、無線通信に限らず、有線通信でネットワーク2を介してサーバ10に接続する構成でもよい。
The server 10 connects to the network 2. The radio base station 3 is, for example, an access point, and connects to the network 2 and the mobile terminal 4.
The mobile terminal 4 transmits, to the server 10, behavior information obtained by sensing a user's behavior. In this case, the mobile terminal 4 may transmit based on a polling instruction from the server 10 or may transmit at a preset cycle. In addition, if it is an apparatus which can sense a user's action, things other than the mobile terminal 4 may be used. The device is not limited to wireless communication, and may be connected to the server 10 via the network 2 by wired communication.

サーバ10は、図1に示した分析装置1の機能を有し、取得した行動情報にもとづいて、ユーザの行動を分析し、個々のユーザに対して行動支援を行う。なお、センサ機器である移動端末4に対して、図1に示した分析装置1の機能を備える構成とすることも可能である。   The server 10 has the function of the analysis device 1 shown in FIG. 1, analyzes the behavior of the user based on the acquired behavior information, and performs behavior support for each user. In addition, it is also possible to set it as the structure provided with the function of the analyzer 1 shown in FIG. 1 with respect to the mobile terminal 4 which is a sensor apparatus.

<行動支援のモデル>
図3は行動支援のモデルの一例を示す図である。以降の説明では、行動情報をログと呼ぶ場合がある。
<Model for Behavior Support>
FIG. 3 is a diagram showing an example of an action support model. In the following description, behavior information may be referred to as a log.

〔ステップS11〕サーバ10は、ユーザそれぞれからログを取得する。サーバ10は、例えば、デジタル空間の行動に関連したログを取得する。デジタル空間の行動に関連したログとは、例えば、アプリケーションやネットワークの利用状況に関する情報が該当する。   [Step S11] The server 10 acquires logs from each user. The server 10 acquires, for example, a log related to the behavior of the digital space. The log related to the behavior of the digital space corresponds to, for example, information on the application or network usage status.

また、サーバ10は、例えば、物理空間の行動に関連したログを取得する。物理空間の行動に関連したログとは、例えば、ユーザの所在や動作状態(立つ、座る等)に関する情報が該当する。   In addition, the server 10 acquires, for example, a log related to an action of the physical space. The log related to the action of the physical space corresponds to, for example, information on the whereabouts of the user and the operation state (standing, sitting, etc.).

〔ステップS12〕サーバ10は、ユーザの行動およびユーザが位置する環境をラベル化する。具体的には、サーバ10は、取得したログを行動状態に変換し、複数の行動状態をグループ化して、グループ毎にラベルを付与する(グループ単位のラベリング)。   [Step S12] The server 10 labels the user's behavior and the environment in which the user is located. Specifically, the server 10 converts the acquired log into an action state, groups a plurality of action states, and assigns a label to each group (group unit labeling).

〔ステップS13〕サーバ10は、ラベルが付与されたグループにもとづき、ユーザの行動モデルを生成する。
〔ステップS14〕サーバ10は、生成した行動モデルを記憶する。
[Step S13] The server 10 generates a behavior model of the user based on the group to which the label is attached.
[Step S14] The server 10 stores the generated behavior model.

〔ステップS15〕サーバ10は、ユーザの現在の行動モデルにもとづき、次の行動を推定する。なお、推定された次の行動は、ステップS13の処理にフィードバックされて、新たな行動モデルが生成される。そして、生成された新たな行動モデルにもとづいて、ステップS15の処理により次の行動が推定される。   [Step S15] The server 10 estimates the next action based on the current action model of the user. Note that the estimated next action is fed back to the process of step S13 to generate a new action model. Then, based on the generated new behavior model, the next behavior is estimated by the process of step S15.

〔ステップS16〕サーバ10は、ユーザ個々の行動推定(行動推定のパーソナライズ)にもとづいて、各ユーザに対しアクション(案内)を指示する行動支援を行う。
<ハードウェア構成>
図4はサーバのハードウェア構成の一例を示す図である。サーバ10は、プロセッサ100によって装置全体が制御されている。すなわち、プロセッサ100は、サーバ10の制御部として機能する。
[Step S16] The server 10 performs action support for instructing each user to perform an action (guidance) based on the action estimation (personalization of the action estimation) of each user.
<Hardware configuration>
FIG. 4 is a diagram showing an example of the hardware configuration of the server. The server 10 is controlled by the processor 100 as a whole. That is, the processor 100 functions as a control unit of the server 10.

プロセッサ100には、バス103を介して、メモリ101および複数の周辺機器が接続されている。プロセッサ100は、マルチプロセッサであってもよい。プロセッサ100は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはPLD(Programmable Logic Device)である。またプロセッサ100は、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。   A memory 101 and a plurality of peripheral devices are connected to the processor 100 via a bus 103. The processor 100 may be a multiprocessor. The processor 100 is, for example, a central processing unit (CPU), a micro processing unit (MPU), a digital signal processor (DSP), an application specific integrated circuit (ASIC), or a programmable logic device (PLD). The processor 100 may also be a combination of two or more elements of a CPU, an MPU, a DSP, an ASIC, and a PLD.

メモリ101は、サーバ10の主記憶装置として使用される。メモリ101には、プロセッサ100に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、メモリ101には、プロセッサ100による処理に要する各種データが格納される。   The memory 101 is used as a main storage device of the server 10. The memory 101 temporarily stores at least part of an OS (Operating System) program and application programs to be executed by the processor 100. The memory 101 also stores various data required for processing by the processor 100.

また、メモリ101は、サーバ10の補助記憶装置としても使用され、OSのプログラム、アプリケーションプログラム、および各種データが格納される。メモリ101は、補助記憶装置として、フラッシュメモリやSSD(Solid State Drive)等の半導体記憶装置やHDD(Hard Disk Drive)等の磁気記録媒体を含んでもよい。   The memory 101 is also used as an auxiliary storage device of the server 10, and stores an OS program, an application program, and various data. The memory 101 may include, as an auxiliary storage device, a semiconductor storage device such as a flash memory or a solid state drive (SSD), or a magnetic recording medium such as a hard disk drive (HDD).

バス103に接続されている周辺機器としては、入出力インタフェース102およびネットワークインタフェース104がある。入出力インタフェース102は、プロセッサ100からの命令にしたがってサーバ10の状態を表示する表示装置として機能するモニタ(例えば、LED(Light Emitting Diode)やLCD(Liquid Crystal Display)等)が接続されている。   Peripheral devices connected to the bus 103 include an input / output interface 102 and a network interface 104. The input / output interface 102 is connected with a monitor (for example, an LED (Light Emitting Diode), an LCD (Liquid Crystal Display), etc.) functioning as a display device for displaying the state of the server 10 according to an instruction from the processor 100.

また、入出力インタフェース102は、キーボードやマウス等の情報入力装置を接続可能であって、情報入力装置から送られてくる信号をプロセッサ100に送信する。
さらにまた、入出力インタフェース102は、周辺機器を接続するための通信インタフェースとしても機能する。例えば、入出力インタフェース102は、レーザ光等を利用して、光ディスクに記録されたデータの読み取りを行う光学ドライブ装置を接続することができる。光ディスクには、Blu−ray Disc(登録商標)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(Rewritable)等がある。
The input / output interface 102 is connectable to an information input device such as a keyboard and a mouse, and transmits a signal sent from the information input device to the processor 100.
Furthermore, the input / output interface 102 also functions as a communication interface for connecting peripheral devices. For example, the input / output interface 102 can connect an optical drive device that reads data recorded on an optical disk using a laser beam or the like. Examples of the optical disc include Blu-ray Disc (registered trademark), CD-ROM (Compact Disc Read Only Memory), CD-R (Recordable) / RW (Rewritable), and the like.

また、入出力インタフェース102は、メモリ装置やメモリリーダライタを接続することができる。メモリ装置は、入出力インタフェース102との通信機能を搭載した記録媒体である。メモリリーダライタは、メモリカードへのデータの書き込み、またはメモリカードからのデータの読み出しを行う装置である。メモリカードは、カード型の記録媒体である。   In addition, the input / output interface 102 can connect a memory device or a memory reader / writer. The memory device is a recording medium having a communication function with the input / output interface 102. The memory reader / writer is a device that writes data to the memory card or reads data from the memory card. The memory card is a card type recording medium.

ネットワークインタフェース104は、外部ネットワークとのインタフェース制御を行い、例えば、NIC(Network Interface Card)、無線LANカード等が使用できる。ネットワークインタフェース104で受信されたデータは、メモリ101やプロセッサ100に出力される。   The network interface 104 performs interface control with an external network, and can use, for example, a network interface card (NIC), a wireless LAN card, or the like. The data received by the network interface 104 is output to the memory 101 or the processor 100.

以上のようなハードウェア構成によって、サーバ10の処理機能を実現することができる。例えば、サーバ10は、プロセッサ100がそれぞれ所定のプログラムを実行することで本発明の制御を行うことができる。   By the hardware configuration as described above, the processing function of the server 10 can be realized. For example, the server 10 can perform control of the present invention as the processor 100 executes a predetermined program.

サーバ10は、例えば、コンピュータで読み取り可能な記録媒体に記録されたプログラムを実行することにより、本発明の処理機能を実現する。サーバ10に実行させる処理内容を記述したプログラムは、様々な記録媒体に記録しておくことができる。   The server 10 implements the processing function of the present invention, for example, by executing a program recorded on a computer readable recording medium. The program describing the processing content to be executed by the server 10 can be recorded in various recording media.

例えば、サーバ10に実行させるプログラムを補助記憶装置に格納しておくことができる。プロセッサ100は、補助記憶装置内のプログラムの少なくとも一部を主記憶装置にロードし、プログラムを実行する。   For example, a program to be executed by the server 10 can be stored in the auxiliary storage device. The processor 100 loads at least a part of the program in the auxiliary storage into the main storage and executes the program.

また、光ディスク、メモリ装置、メモリカード等の可搬型記録媒体に記録しておくこともできる。可搬型記録媒体に格納されたプログラムは、例えば、プロセッサ100からの制御により、補助記憶装置にインストールされた後、実行可能となる。またプロセッサ100が、可搬型記録媒体から直接プログラムを読み出して実行することもできる。   Moreover, it can also record on portable recording media, such as an optical disk, a memory apparatus, and a memory card. The program stored in the portable recording medium can be executed after being installed in the auxiliary storage device under the control of the processor 100, for example. The processor 100 can also read and execute the program directly from the portable recording medium.

<機能ブロック>
図5はサーバの機能ブロックの一例を示す図である。サーバ10は、行動分析部10aおよびデータ管理部10bを備える。なお、行動分析部10aは図1の制御部1aの機能を実現し、データ管理部10bは図1の記憶部1bの機能を実現する。なお、以降の説明では特徴情報を特徴量と呼ぶ。
<Function block>
FIG. 5 is a diagram showing an example of a functional block of the server. The server 10 includes a behavior analysis unit 10a and a data management unit 10b. The behavior analysis unit 10a implements the function of the control unit 1a of FIG. 1, and the data management unit 10b implements the function of the storage unit 1b of FIG. In the following description, feature information is called a feature amount.

行動分析部10aは、通信インタフェース部11、特徴量生成部12、特徴量補正部13、特徴量グループ処理部14および行動支援処理部15を含む。
通信インタフェース部11は、ネットワーク2を介して移動端末4との通信インタフェース制御を行う。特徴量生成部12は、移動端末4でセンシングされ送信されたログを受信し、受信したログを特徴量に変換する。
The behavior analysis unit 10 a includes a communication interface unit 11, a feature amount generation unit 12, a feature amount correction unit 13, a feature amount group processing unit 14, and an action support processing unit 15.
The communication interface unit 11 performs communication interface control with the mobile terminal 4 via the network 2. The feature amount generation unit 12 receives the log sensed and transmitted by the mobile terminal 4 and converts the received log into a feature amount.

特徴量補正部13は、時間の前後で特徴量が異なる非連続特徴量の存在を検出した場合、非連続特徴量に含まれるログを、性質が互いに異なる第1のログと第2のログに分類する。そして、特徴量補正部13は、第1のログと第2のログの双方の増減傾向から特徴量の連続性の適否を判定し、判定結果にもとづいて、特徴量の連続性の補正を行う。   When the feature amount correction unit 13 detects the presence of non-continuous feature amounts whose feature amounts are different before and after time, logs included in the non-continuous feature amount are used as the first log and the second log whose properties are different from each other. Classify. Then, the feature amount correction unit 13 determines the appropriateness of the continuity of the feature amount from the increase and decrease tendency of both the first log and the second log, and corrects the continuity of the feature amount based on the determination result. .

特徴量グループ処理部14は、所定時間帯において出現頻度が大きい(閾値を超える)複数の特徴量に対してラベルを付与して、特徴量をグルーピングする。
行動支援処理部15は、グルーピングされた特徴量から行動推定を行い、行動推定にもとづいて、行動支援を行うためのサービス情報をユーザに出力する。
The feature amount group processing unit 14 adds a label to a plurality of feature amounts whose appearance frequency is high (above the threshold) in a predetermined time zone, and groups the feature amounts.
The action support processing unit 15 performs action estimation from the grouped feature amounts, and outputs service information for performing action support to the user based on the action estimation.

データ管理部10bは、行動分析部10aの動作に要するデータを記憶管理する。また、データ管理部10bは、後述する特徴量管理テーブルTb1、特徴量補正テーブルTb2およびノイズ判定テーブルTb3の各テーブル情報を記憶管理する。   The data management unit 10 b stores and manages data required for the operation of the behavior analysis unit 10 a. Further, the data management unit 10b stores and manages table information of a feature amount management table Tb1, a feature amount correction table Tb2 and a noise determination table Tb3 described later.

なお、行動分析部10aは、図4に示したプロセッサ100によって実現される。また、データ管理部10bは、図4に示したメモリ101によって実現される。
<特徴量の生成>
図6は特徴量の生成動作の一例を示す図である。特徴量は、ユーザの原始的な行動状態であってマイクロアクティビティ(Micro Activity)とも呼ぶ。例えば、still(静止)、walking(歩行)、speaking(会話中)といったものが特徴量である。なお、特徴量は複数が同時に現れうる。
The behavior analysis unit 10a is realized by the processor 100 illustrated in FIG. Also, the data management unit 10 b is realized by the memory 101 shown in FIG. 4.
<Generation of feature quantities>
FIG. 6 is a diagram showing an example of the feature amount generation operation. The feature amount is a primitive action state of the user and is also called a micro activity. For example, features such as still (still), walking (walking), and speaking (during conversation) are such feature amounts. A plurality of feature quantities can appear simultaneously.

〔ステップS21〕特徴量生成部12は、移動端末4から送信されたログの受信処理を行う。なお、ログには属性として、例えば、センサ種類、センシング時刻およびセンシング結果が含まれる。   [Step S21] The feature amount generation unit 12 performs reception processing of the log transmitted from the mobile terminal 4. The log includes, for example, a sensor type, a sensing time, and a sensing result as attributes.

例えば、移動端末4がGPS(Global Positioning System)機能によってユーザ位置をセンシングした場合、属性内容としては、センサ種類はGPS、センシング時刻はユーザ位置を測定したときの時刻、センシング結果は緯度経度になる。ログの受信処理では、このような属性検出等が行われる。   For example, when the mobile terminal 4 senses the user position by the GPS (Global Positioning System) function, as the attribute contents, the sensor type is GPS, the sensing time is the time when the user position is measured, and the sensing result is latitude and longitude . In the log reception process, such attribute detection or the like is performed.

〔ステップS22〕特徴量生成部12は、所定条件にもとづいて、ログを特徴量に変換する(この変換処理は定期的に行われる)。例えば、過去一定期間において、ログa1の複数の所定パラメータ値がすべて閾値を超えるといった条件が満たされる場合、ログa1を特徴量A1に変換する。   [Step S22] The feature quantity generation unit 12 converts the log into feature quantities based on a predetermined condition (this conversion process is performed periodically). For example, when the condition that all the plurality of predetermined parameter values of the log a1 exceed the threshold value is satisfied in the past fixed period, the log a1 is converted to the feature amount A1.

具体例を挙げると、ログa1のセンサ種類の属性がマイクであり、センシング結果の属性が音声データであって、過去一定期間で音声データの値が閾値を超える場合、ログa1は特徴量A1として“speaking(会話中)”に変換される。   As a specific example, if the sensor type attribute of the log a1 is a microphone, the sensing result attribute is audio data, and the value of the audio data exceeds a threshold in a fixed period in the past, the log a1 is used as the feature amount A1 Converted to "speaking".

〔ステップS23〕特徴量生成部12は、ステップS22の変換処理で生成した特徴量の履歴を特徴量管理テーブルTb1に登録して管理する。特徴量管理テーブルTb1は、項目として、時刻および特徴量を持つ。時刻は、特徴量に変換される前のログが移動端末4でセンシングされたときの時刻である。   [Step S23] The feature amount generation unit 12 registers and manages the history of feature amounts generated in the conversion process of step S22 in the feature amount management table Tb1. The feature amount management table Tb1 has time and feature amount as items. The time is a time when the mobile terminal 4 senses the log before being converted into the feature value.

例えば、特徴量管理テーブルTb1の1行目には、センシング時刻が2017-10-12 13:58:20であり、この時刻にセンシングされたログは、特徴量として[speaking]、[strain]および[walking]に変換されていることを示している。   For example, in the first row of the feature amount management table Tb1, the sensing time is 2017-10-12 13:58:20, and the logs sensed at this time have the features [speaking], [strain] and It shows that it is converted to [walking].

<特徴量のグルーピング>
特徴量グループ処理部14は、同一時間帯で出現頻度が大きい(出現頻度が閾値を超える)特徴量をグルーピングして、複数の特徴量を1つのグループにまとめる。特徴量グループ処理部14は、特徴量のグルーピングを行う場合、特徴量の共起頻度を算出し、所定時刻(例えば、5分から10分)でゆらぎ(誤差)を吸収してグルーピングを行う。
<Grouping of feature quantities>
The feature amount group processing unit 14 groups the feature amounts whose appearance frequency is high (the appearance frequency exceeds the threshold) in the same time zone, and collects a plurality of feature amounts into one group. When grouping feature amounts, the feature amount group processing unit 14 calculates the co-occurrence frequency of the feature amounts, absorbs fluctuation (error) at a predetermined time (for example, 5 minutes to 10 minutes), and performs grouping.

また、特徴量グループ処理部14は、以下の式(1)により特徴量の出現数を補正する。式(1)のO(pt)が閾値以上の場合に出力補正を行う。なお、CTは現時刻、pTは最後の行動発生時刻、C(pt)は一時的に途切れる時刻である。 Further, the feature amount group processing unit 14 corrects the number of appearances of the feature amount according to the following equation (1). Output correction is performed when O (pt n ) in equation (1) is equal to or greater than the threshold. Note that CT is the current time, pT is the last action occurrence time, and C (pt) is the time when it is temporarily interrupted.

O(pt)=C(pt)/(pT−CT)・・・(1)
そして、特徴量グループ処理部14は、Jaccard係数を用いた以下の式(2)による類似度計算を行って類似度S(PS、PSt´)を求める(0≦S(PS、PSt´)≦1)。なお、ptは特徴量、PSはグループ(特徴量の集合)、n(G)はグループの要素数、E()は平均である。
O (pt n ) = C (pt n ) / (pT n −CT) (1)
Then, the feature amount group processing unit 14 calculates the similarity S (PS t , PS t ′ ) by performing similarity calculation according to the following equation (2) using the Jaccard coefficient (0 ≦ S (PS t , PS t ' ) <= 1). Here, pt is a feature amount, PS is a group (a set of feature amounts), n (G) is the number of elements of the group, and E () is an average.

S(PS、PSt´)={Σmin(pt,pt´)/Σmax(pt,pt´)}×{E(n(G))/E(n(PS),n(PSt´))}・・・(2)
例えば、図6に示した特徴量管理テーブルTb1の1行目と2行目の特徴量は同じである。この場合、S(PS、PSt´)=1となる。S(PS、PSt´)が1のとき、比較対象の特徴量は完全一致であり、1に近いほど類似度は大きくなる。また、S(PS、PSt´)が0のとき、比較対象の特徴量は完全に異なっており、0に近いほど類似度は小さくなる。よって、特徴量グループ処理部14は、式(2)で算出した値と、あらかじめ設定した閾値とを比較して、同一グループにするか否かを判定し、閾値を超えるものをグルーピングする。
S (PS t , PS t ′ ) = {Σmin (pt i , pt ′ i ) / Σmax (pt i , pt ′ i )} × {E (n (G)) / E (n (PS t ), n (PS t ' ))} (2)
For example, the feature amounts of the first and second lines of the feature amount management table Tb1 shown in FIG. 6 are the same. In this case, S (PS t , PS t ′ ) = 1. When S (PS t , PS t ′ ) is 1, the feature quantities to be compared are perfect match, and the similarity becomes larger as 1 is closer to 1. In addition, when S (PS t , PS t ′ ) is 0, the feature quantities to be compared are completely different, and the similarity becomes smaller as it approaches 0. Therefore, the feature amount group processing unit 14 compares the value calculated by the equation (2) with a preset threshold, determines whether or not to make the same group, and groups those exceeding the threshold.

図7は特徴量のグルーピングの一例を示す図である。横軸は時刻である。また縦軸には特徴量の具体例が挙げられている。
〔時刻t1〕特徴量グループ処理部14は、時刻t1において、縦軸に示される特徴量のうち、[sitting]と[fj_kawasaki_lab]の出現頻度が閾値を超えることを検出した場合、[sitting]と[fj_kawasaki_lab]を1つのグループg1にする。
FIG. 7 is a diagram showing an example of grouping of feature amounts. The horizontal axis is time. Further, a specific example of the feature amount is given on the vertical axis.
[Time t1] When the feature amount group processing unit 14 detects that the occurrence frequency of [sitting] and [fj_kawasaki_lab] among the feature amounts shown on the vertical axis at time t1 exceeds the threshold value, it means Make [fj_kawasaki_lab] one group g1.

〔時刻t2〕特徴量グループ処理部14は、時刻t2において、縦軸に示される特徴量のうち、[walking]と[strain]の出現頻度が閾値を超えることを検出した場合、[walking]と[strain]を1つのグループg2にする。   [Time t2] If the feature amount group processing unit 14 detects that the frequency of appearance of [walking] and [strain] exceeds the threshold at time t2, among the feature amounts shown on the vertical axis, [walking] Make [strain] one group g2.

〔時刻t3〕特徴量グループ処理部14は、時刻t3において、縦軸に示される特徴量のうち、[sitting]と[meeting]の出現頻度が閾値を超えることを検出した場合、[sitting]と[meeting]を1つのグループg3にする。   [Time t3] When the feature amount group processing unit 14 detects that the occurrence frequency of [sitting] and [meeting] of the feature amounts shown on the vertical axis at time t3 exceeds the threshold value, it means Make [meeting] one group g3.

〔時刻t4〕特徴量グループ処理部14は、時刻t4において、縦軸に示される特徴量のうち、[speaking]、[meeting]および[strain]の出現頻度が閾値を超えることを検出した場合、[speaking]、[meeting]および[strain]を1つのグループg4にする。   [Time t4] At time t4, if the feature quantity group processing unit 14 detects that the occurrence frequency of [speaking], [meeting] and [strain] exceeds the threshold among the feature quantities shown on the vertical axis, Make [speaking], [meeting] and [strain] one group g4.

〔時刻t5〕特徴量グループ処理部14は、時刻t5において、縦軸に示される特徴量のうち、[walking]と[office]の出現頻度が閾値を超えることを検出した場合、[walking]と[office]を1つのグループg5にする。   [Time t5] If the feature amount group processing unit 14 detects that the frequency of appearance of [walking] and [office] exceeds the threshold among the feature amounts shown on the vertical axis at time t5, [walking] Make [office] one group g5.

〔時刻t6〕特徴量グループ処理部14は、時刻t6において、縦軸に示される特徴量のうち、[walking]、[no_wifi]および[normal]の出現頻度が閾値を超えることを検出した場合、[walking]、[no_wifi]および[normal]を1つのグループg6にする。   [Time t6] When the feature amount group processing unit 14 detects that the occurrence frequency of [walking], [no_wifi] and [normal] among the feature amounts shown on the vertical axis at time t6 exceeds a threshold value, Make [walking], [no_wifi] and [normal] one group g6.

<特徴量のラベル付与>
複数の特徴量(マイクロアクティビティ)がグループ化され、ラベルが付与されたものはマクロアクティビティ(Macro Activity)と呼ばれる。例えば、会議中(still, speaking)、資料作成中(writing)といったものを指す。
<Labeling of feature quantities>
A plurality of feature quantities (micro activities) are grouped, and those to which a label is attached are called macro activities (Macro Activity). For example, during a meeting (still, speaking), writing materials (writing).

マクロアクティビティは、ユーザのより具体的な行動を表すものであり、該行動を認識するための特徴量として利用される。また、上記の“会議中”および“資料作成中”といった名前がラベルに相当する。   The macro activity represents a more specific action of the user, and is used as a feature for recognizing the action. Also, the names “in meeting” and “in preparation of material” correspond to labels.

図8は特徴量のラベリングの一例を示す図である。図7に示したグループに対してラベルが付与された状態を示している。グループg1には“事務所”のラベルが付与され、グループg2には“移動中”のラベルが付与されている。   FIG. 8 is a diagram showing an example of feature amount labeling. It shows a state in which a label is given to the group shown in FIG. The group g1 is labeled "Office", and the group g2 is labeled "moving".

グループg3には“会議参加中”のラベルが付与され、グループg4には“会議で資料説明中”のラベルが付与されている。グループg5には“移動中”のラベルが付与され、グループg6には“場所Pへ移動中”のラベルが付与されている。   The label "in meeting" is given to the group g3, and the label "in material explaining at the meeting" is given to the group g4. The label "moving" is given to the group g5, and the label "moving to the place P" is given to the group g6.

特徴量グループ処理部14は、上記のようなラベル付与処理を行うことで、特徴量のグループと、ユーザの実行動とを対応付ける。なお、ラベルはあらかじめサーバ10が保持しているが、特徴量グループ処理部14がユーザにフィードバックを要求し、ユーザが任意に設定したラベルを付与することも可能である。   The feature amount group processing unit 14 associates the feature amount group with the user's execution motion by performing the above-described labeling process. Although the label is held in advance by the server 10, it is also possible that the feature amount group processing unit 14 requests the user for feedback, and a label arbitrarily set by the user can be added.

<ログの粒度と分析精度>
上述したように、行動支援を行うシステムでは、移動端末4から定期的にログを収集し、収集したログを解析することで、移動端末4を使用しているユーザの行動を分析する。
<Log granularity and analysis accuracy>
As described above, in the system that provides behavior support, logs are periodically collected from the mobile terminal 4 and the collected logs are analyzed to analyze the behavior of the user who is using the mobile terminal 4.

ただし、移動端末4は、バッテリ駆動なので消費電力を抑制することが求められる。このため、移動端末4におけるログ取得の頻度は低減化されることが望ましい。よって、ログのサンプリング周期を大きくした方がバッテリの消費電力を抑制することができる。しかし、ログのサンプリング周期を大きくすると、行動分析の精度が劣化する可能性がある。   However, since the mobile terminal 4 is battery-powered, it is required to suppress power consumption. Therefore, it is desirable that the frequency of log acquisition in the mobile terminal 4 be reduced. Therefore, the power consumption of the battery can be suppressed by increasing the sampling period of the log. However, increasing the log sampling period may degrade the accuracy of behavioral analysis.

なお、以降の説明では、ログのサンプリング周期を粒度と呼ぶ場合がある。また、サンプリング周期を大きくすることを、粒度を粗くすると表現し、サンプリング周期を小さくすることを、粒度を細かくすると表現する場合がある。   In the following description, the sampling period of the log may be referred to as the granularity. In addition, increasing the sampling period may be expressed as coarsening the particle size, and decreasing the sampling period may be expressed as fineness of the particle size.

図9、図10はログの粒度にもとづいてグルーピングが行われた状態を示す図である。なお、図9、図10中の特徴量Aは会議、特徴量Bは出張、特徴量Cはオフィス内移動とラベリングされるとする。   FIGS. 9 and 10 are diagrams showing grouping performed based on log granularity. It is assumed that the feature amount A in FIG. 9 and FIG. 10 is labeled as “meeting”, the feature amount B as “business trip”, and the feature amount C as intra-office movement.

図9は細かい粒度のログにもとづくグルーピング状態を示している。
〔状態St1〕細粒度ログから変換された特徴量A、B、Cが示されている。時刻t1、t2、t3、t5、t6、t7、t11、t12は特徴量Aとなり、時刻t4は特徴量Bとなり、時刻t8、t9、t10は特徴量Cとなっている。なお、時刻t4の特徴量は、ノイズ等によってログ取得が一時的に乱れ、本来は特徴量Aであるはずが、特徴量Bが誤出現したものとする。
FIG. 9 shows a grouping state based on a log of fine granularity.
[State St1] The feature amounts A, B, C converted from the fine grained log are shown. Times t1, t2, t3, t5, t6, t7, t11 and t12 are feature amounts A, time t4 is feature amounts B, and times t8, t9 and t10 are feature amounts C. Note that the feature amount at time t4 is temporarily disturbed in log acquisition due to noise or the like, and should originally be the feature amount A, but the feature amount B is assumed to be erroneously appearing.

〔状態St2〕時刻t1から時刻t7までの特徴量には特徴量A、Bが含まれるが特徴量Bの個数は少ないため、特徴量Bは誤出現したものとみなされる。この場合、ノイズ除去処理が機能して特徴量Bは削除され、時刻t1から時刻t7までの特徴量は、特徴量Aのグループとしてグルーピングされる。   [State St2] The feature quantities A and B are included in the feature quantities from time t1 to time t7, but the number of feature quantities B is small, so the feature quantity B is considered to be erroneously appearing. In this case, the noise removal processing functions to delete the feature amount B, and the feature amounts from time t1 to time t7 are grouped as a group of the feature amount A.

〔状態St3〕時刻t8から時刻t10までは特徴量Cのみが出現するので、時刻t8から時刻t10までの特徴量は、特徴量Cのグループとしてグルーピングされる。
〔状態St4〕時刻t11、t12は特徴量Aのみが出現するので、時刻t11、t12の特徴量は、特徴量Aのグループとしてグルーピングされる。
[State St3] Since only the feature amount C appears from time t8 to time t10, the feature amounts from time t8 to time t10 are grouped as a group of feature amounts C.
[State St4] Since only feature amount A appears at time t11 and t12, the feature amount at time t11 and t12 is grouped as a group of feature amount A.

図10は粗い粒度のログにもとづくグルーピング状態を示している。
〔状態St11〕粗粒度ログから変換された特徴量A、B、Cが示されている。時刻T1、T2、T4は特徴量Aとなり、時刻T3は特徴量Bとなり、時刻T5は特徴量Cとなっている。なお、各時刻において認識された特徴量は、ノイズによる誤出現はなく、すべて正常に出現したものとする。
FIG. 10 shows the grouping state based on the coarse granularity log.
[State St11] The feature quantities A, B, and C converted from the coarse grain size log are shown. Times T1, T2 and T4 are feature amounts A, time T3 is feature amounts B, and time T5 is feature amounts C. It is assumed that the feature quantities recognized at each time do not appear erroneously due to noise, and all appear normally.

〔状態St12〕時刻T1から時刻T4までの特徴量には特徴量A、Bがある。この場合、上述の状態St2で示したような細粒度ログで行われたノイズ除去処理が機能し、特徴量Bは個数が少ないため誤出現したものとみなされる。したがって、時刻T1から時刻T4までの特徴量は、特徴量Aのグループとしてグルーピングされる。   [State St12] There are feature amounts A and B as feature amounts from time T1 to time T4. In this case, the noise removal processing performed on the fine-grained log as shown in the above-mentioned state St2 functions, and the feature amount B is considered to be erroneously appearing because the number is small. Therefore, the feature amounts from time T1 to time T4 are grouped as a group of feature amounts A.

上記のように、粒度の細かいログの場合、一時的な誤出現が発生してもノイズ除去処理が機能することで、相対的に少なく出現した特徴量は誤出現した特徴量とみなされて、グルーピング時に除外される。しかし、粒度の粗いログの場合、ノイズ除去処理によって正常出現で検出された特徴量が誤出現とみなされてしまう場合がある。   As described above, in the case of a fine-grained log, even if a temporary false occurrence occurs, the noise removal processing functions so that the feature quantity appearing relatively infrequently is regarded as the falsely appearing feature quantity, It is excluded at the time of grouping. However, in the case of a coarse-grained log, the feature amount detected as a normal appearance may be regarded as an erroneous appearance by the noise removal processing.

図10の例において、時刻T3では、本来は特徴量Bのはずが、時刻T3の前後で特徴量Aの個数の方が多いため、時刻T3の特徴量Bがノイズによる誤出現とみなされる。そして、時刻T1から時刻T4まで特徴量Aとしてグルーピングされてしまい、ユーザの行動状態の区切りが正確に検出されておらず、行動分析精度が劣化している。   In the example of FIG. 10, the characteristic quantity B is supposed to be originally at time T3, but since the number of characteristic quantities A is larger before and after time T3, the characteristic quantity B at time T3 is regarded as an erroneous appearance due to noise. Then, grouping is performed as feature amount A from time T1 to time T4, the break of the user's action state is not accurately detected, and the action analysis accuracy is degraded.

このように、粒度の粗いログを利用する場合、生成したグループの特徴量の中に誤認識した他の特徴量が混在してしまい、行動分析の精度が劣化してしまうおそれがある。
本発明はこのような点に鑑みてなされたものであり、粗い粒度でログが取得された場合でも、特徴量の区切りを正確に検出して、行動分析の精度向上を図るものである。
As described above, when a coarse-grained log is used, the other feature quantities that are erroneously recognized are mixed in the generated feature quantities of the group, and the accuracy of the behavior analysis may be degraded.
The present invention has been made in view of such a point, and aims to improve the accuracy of behavior analysis by accurately detecting the delimitation of the feature amount even when the log is acquired with the coarse granularity.

<ログの分類>
本発明のサーバ10は、ログを人間依存ログ(人間依存型の行動情報)と環境依存ログ(環境依存型の行動情報)の2種類に分類する。人間依存ログは、ユーザが能動的に行った動作に応じて値が変化する性質を持つログと定義できる。このように定義された人間依存ログには例えば、歩数、心拍数、ジャイロ、加速度、ディスプレイのオン/オフ等が含まれる。さらには、アプリケーションやネットワークの利用(メール送受信、スケジュールの追加等)もこの分類に含まれる。
<Classification of log>
The server 10 according to the present invention classifies the log into two types: human dependent log (human dependent behavior information) and environment dependent log (environment dependent behavior information). The human dependency log can be defined as a log whose value changes in accordance with an operation actively performed by the user. The human dependency log defined in this way includes, for example, the number of steps, heart rate, gyro, acceleration, display on / off and the like. Furthermore, application and network usage (mail transmission / reception, addition of schedule, etc.) are also included in this classification.

環境依存ログは、ユーザの周囲の環境においてユーザが意識することなく値が変化する性質を持つログと定義できる。このように定義された環境依存ログには例えば、アクセスポイントの無線エリアにユーザが入ってきたときの該アクセスポイントの識別子情報、またはブロードキャスト通信で受信された情報等が該当する。   The environment dependent log can be defined as a log having a property in which the value changes without the user's awareness in the environment around the user. The environment-dependent log defined in this way corresponds to, for example, identifier information of the access point when the user enters the wireless area of the access point, or information received by broadcast communication.

上記の定義の他にも、以下に示す定義によって人間依存ログと環境依存ログを分類することができる。なお、定義の仕方によって、人間依存ログに含まれていたログが環境依存ログに含まれることになったり、環境依存ログに含まれていたログが人間依存ログに含まれることになったりする。   In addition to the above definitions, human dependent logs and environment dependent logs can be classified according to the following definitions. Depending on the way of definition, the log included in the human dependency log may be included in the environment dependent log, or the log included in the environment dependent log may be included in the human dependency log.

上記では、ユーザの動きに応じた変化をするか否かで人間/環境依存を切り分けたが、下記基準を用いてもよい。
A)ユーザが能動的に入力した結果にもとづくセンサ変化か否かにもとづく判断。
In the above, the human / environmental dependency is separated depending on whether or not to make a change according to the movement of the user, but the following criteria may be used.
A) Judgment based on whether or not there is a sensor change based on a result actively input by the user.

能動的な入力のあるセンサの場合、行動の変化(非ノイズ)である可能性が相対的に高い。一方で、入力・変化した情報が行動の変化(非ノイズ)である可能性は相対的に低い(ノイズである可能性が高い)。   In the case of a sensor with active input, it is relatively likely to be a change in behavior (no noise). On the other hand, the possibility that the input / changed information is a change in behavior (no noise) is relatively low (it is likely to be noise).

A)の例で判断した場合、人間依存ログには、ディスプレイのオン/オフ、メール送信、スケジュールやTO DO入力等がある。また、環境依存ログには、歩数、心拍数、ジャイロ、加速度、アクセスポイント情報、メール受信、ブロードキャスト通信等がある。   As judged in the example A), the human dependency log includes display on / off, mail transmission, schedule, to-do input, and the like. The environment dependent log includes the number of steps, heart rate, gyro, acceleration, access point information, mail reception, broadcast communication and the like.

B)センサからの値の出力の頻度が断続的か否かにもとづく判断。
ユーザが行動した場合、センサから出力される値は断続的となる傾向にある。そのため、断続的な出力があるか否かで人間/環境依存の切り分けが可能である。すなわち、断続的な出力のあるログは人間依存、定期的な出力のログは環境依存となる。
B) Judgment based on whether the frequency of the output of the value from the sensor is intermittent.
When the user acts, the values output from the sensor tend to be intermittent. Therefore, human / environment-dependent separation is possible depending on whether or not there is an intermittent output. That is, logs with intermittent output are human dependent, and periodic output logs are environmental dependent.

B)の例で判断した場合、人間依存ログには、歩数、ジャイロ、加速度、ディスプレイのオン/オフ、メール送信、スケジュールやTO DO入力等がある。また、環境依存ログには、心拍数、メール受信、アクセスポイント情報、スケジュール情報受信、ブロードキャスト通信等がある。   When judged in the example of B), the human dependency log includes the number of steps, gyro, acceleration, display on / off, mail transmission, schedule, to-do input, and the like. The environment-dependent log includes heart rate, mail reception, access point information, schedule information reception, broadcast communication, and the like.

C)個人を対象としたセンサ機器か否かにもとづく判断。
センサ機器には、個人の動きを対象としたものと、複数のユーザの動きを対象としたものが存在している。この性質を利用して、人間/環境依存の切り分けが可能である。
C) Judgment based on whether it is a sensor device intended for an individual.
There are sensor devices that are targeted for individual movements and those targeted for movements of multiple users. This property can be used to make human / environment dependent distinctions.

C)の例で判断した場合、人間依存ログには、ディスプレイのオン/オフ、歩数、心拍数、ジャイロ、加速度、メール送信、スケジュールやTO DO入力、アクセスポイント情報、ブロードキャスト通信等がある。また、環境依存ログには、固定配置の人感センサ、室内の温度・湿度センサ等がある。   When judged in the example of C), the human dependency log includes display on / off, step number, heart rate, gyro, acceleration, e-mail transmission, schedule and to-do input, access point information, broadcast communication and the like. Further, the environment dependent log includes a fixed arrangement human sensor, indoor temperature / humidity sensor, and the like.

<特徴量の補正>
次に特徴量補正部13の動作について図11から図14を用いて説明する。図11、図12は特徴量の補正の動作を説明するための図である。まず、特徴量生成部12は、時刻t0、t1に特徴量A、時刻t2に特徴量B、時刻t3に特徴量A、時刻t4に特徴量Cを出力するものとする。
<Correction of feature amount>
Next, the operation of the feature amount correction unit 13 will be described using FIG. 11 to FIG. 11 and 12 are diagrams for explaining the operation of correcting the feature amount. First, the feature amount generation unit 12 outputs the feature amount A at times t0 and t1, the feature amount B at time t2, the feature amount A at time t3, and the feature amount C at time t4.

特徴量補正部13は、特徴量生成部12から出力された特徴量を受信し、時間の前後で異なる特徴量の組を検出する。この例の場合、時刻t1の特徴量Aおよび時刻t2の特徴量Bの組αと、時刻t3の特徴量Aおよび時刻t4の特徴量Cの組βとが検出されたとする。   The feature quantity correction unit 13 receives the feature quantity output from the feature quantity generation unit 12 and detects a set of feature quantities that differ before and after time. In this example, it is assumed that the set α of the feature A at time t1 and the feature B at time t2 and the set β of the feature A at time t3 and the feature C at time t4 are detected.

また、特徴量Aには、人間依存ログh1、h2が含まれ、環境依存ログe1、・・・、e10が含まれるとする。また、特徴量Bには、人間依存ログh1、h2が含まれ、環境依存ログe1、e2が含まれるとする。さらに、特徴量Cには、人間依存ログh3が含まれ、環境依存ログe11、・・・、e15が含まれるとする。   Also, the feature amount A includes human dependent logs h1 and h2, and environment dependent logs e1 to e10. Also, the feature amount B includes human dependent logs h1 and h2, and environment dependent logs e1 and e2. Furthermore, it is assumed that the feature amount C includes a human dependency log h3 and an environment dependency log e11 to e15.

特徴量補正テーブルTb2−1、Tb2−2は、特徴量補正部13によって生成されるテーブルである。特徴量補正テーブルTb2−1、Tb2−2は、人間依存ログと環境依存ログそれぞれに対し、前時刻の特徴量、後時刻の特徴量、ログ変化数、変化量、増減結果および判定結果の項目を有する。   The feature amount correction tables Tb2-1 and Tb2-2 are tables generated by the feature amount correction unit 13. The feature amount correction tables Tb2-1 and Tb2-2 are items of the feature amount of the previous time, the feature amount of the later time, the number of log changes, the amount of change, the increase / decrease result, and the determination result for each of the human dependency log and the environment dependency log Have.

なお、ログ変化数の枠内の左側のマイナス符号付き数値は、ログの減少数を表し、右側のプラス符号付き数値は、ログの増加数を表す。
図11の組αに対応する特徴量補正テーブルTb2−1における、前時刻の特徴量数、後時刻の特徴量数およびログ変化数について説明する。前時刻の特徴量は、時刻t1の特徴量Aに含まれる人間/環境依存ログの数である。特徴量Aには、2個の人間依存ログh1、h2と、10個の環境依存ログe1、・・・、e10が含まれるので、{前時刻の特徴量:(人間依存ログ数、環境依存ログ数)}=(2、10)となる。
Note that the minus sign numerical value on the left side in the log change number box indicates the reduction number of the log, and the plus sign numerical value on the right side indicates the increase number of the log.
The feature quantity count at the previous time, the feature quantity count at the later time, and the log change count in the feature quantity correction table Tb2-1 corresponding to the set α in FIG. 11 will be described. The feature amount at the previous time is the number of human / environment dependent logs included in the feature amount A at time t1. Since the feature amount A includes two human dependent logs h1 and h2 and ten environment dependent logs e1 to e10, {characteristics of previous time: (number of human dependent logs, environment dependent The number of logs)} = (2, 10).

後時刻の特徴量は、時刻t2の特徴量Bに含まれる人間/環境依存ログの数である。特徴量Bには、2個の人間依存ログh1、h2と、2個の環境依存ログe1、e2が含まれるので、{後時刻の特徴量:(人間依存ログ数、環境依存ログ数)}=(2、2)となる。   The feature value of the later time is the number of human / environment dependent logs included in the feature value B at time t2. Since the feature amount B includes two human dependent logs h1 and h2 and two environment dependent logs e1 and e2, {feature amount of later time: (number of human dependent logs, number of environment dependent logs)} = (2, 2).

ここで、人間依存ログは、特徴量A、B共にログh1、h2を含み、特徴量Aから特徴量Bへの遷移において、ログの減少および新たなログの増加はない。したがって、人間依存ログに変化はないから、ログ変化数=(−0、+0)と登録される。   Here, the human dependency log includes the logs h1 and h2 for both of the feature amounts A and B, and there is no decrease in log and no increase in new log in the transition from the feature amount A to the feature amount B. Therefore, since there is no change in the human dependency log, the number of log changes = (− 0, +0) is registered.

また、環境依存ログは、特徴量Aはログe1、・・・、e10を含み、特徴量Bはログe1、e2を含むため、特徴量Aから特徴量Bへの遷移において、ログe3、・・・、e10の8個が減少している。また新たなログの増加はない。したがって、環境依存ログは、8個のログが減少し、新たなログの増加はないから、ログ変化数=(−8、+0)と登録される。   In the environment-dependent log, since the feature amount A includes the logs e1 to e10 and the feature amount B includes the logs e1 and e2, in the transition from the feature amount A to the feature amount B, the log e3.・ ・ ・, Eight of e10 decrease. There is no new log increase. Therefore, the environment dependent log is registered as the number of log changes = (− 8, +0) because eight logs decrease and there is no new log increase.

図12の組βに対応する特徴量補正テーブルTb2−2における、前時刻の特徴量、後時刻の特徴量およびログ変化数について説明する。前時刻の特徴量は、時刻t3の特徴量Aに含まれる人間/環境依存ログの数である。上記と同様に、{前時刻の特徴量:(人間依存ログ数、環境依存ログ数)}=(2、10)となる。   The feature quantity of the previous time, the feature quantity of the later time, and the number of log changes in the feature quantity correction table Tb2-2 corresponding to the set β of FIG. 12 will be described. The feature amount at the previous time is the number of human / environment dependent logs included in the feature amount A at time t3. Similarly to the above, {feature amount of previous time: (number of human dependent logs, number of environment dependent logs)} = (2, 10).

後時刻の特徴量は、時刻t4の特徴量Cに含まれる人間/環境依存ログの数である。特徴量Cには、1個の人間依存ログh3と、5個の環境依存ログe11、・・・、e15が含まれるので、{後時刻の特徴量:(人間依存ログ数、環境依存ログ数)}=(1、5)となる。   The feature value of the later time is the number of human / environment dependent logs included in the feature value C at time t4. Since the feature amount C includes one human dependent log h3 and five environment dependent logs e11,..., E15, {characteristics of later time: (number of human dependent logs, number of environment dependent logs )} = (1, 5).

ここで、人間依存ログは、特徴量Aはログh1、h2を含み、特徴量Cはログh3を含むため、特徴量Aから特徴量Cへの遷移において、ログh1、h2の2個が減少し、新たな1個のログh3が増加している。したがって、人間依存ログは、2個のログが減少し、新たな1個のログが増加しているから、ログ変化数=(−2、+1)と登録される。   Here, in the human dependent log, the feature amount A includes the logs h1 and h2, and the feature amount C includes the log h3, so in the transition from the feature amount A to the feature amount C, the two logs h1 and h2 decrease And one new log h3 is increasing. Therefore, the human dependency log is registered as the number of log changes = (− 2, +1) because two logs decrease and one new log increases.

また、環境依存ログは、特徴量Aはログe1、・・・、e10を含み、特徴量Cはログe11、・・・、e15を含む。このため、特徴量Aから特徴量Cへの遷移において、ログe1、・・・、e10の10個が減少し、新たな5個のログe11、・・・、e15が増加している。したがって、環境依存ログは、10個のログが減少し、新たな5個のログが増加しているから、ログ変化数=(−10、+5)と登録される。   Further, the environment dependent log includes feature amounts A including logs e1 to e10, and a feature amount C including logs e11 to e15. Therefore, in the transition from the feature amount A to the feature amount C, ten of the logs e1, ..., e10 decrease, and five new logs e11, ..., e15 increase. Therefore, the environment-dependent log is registered as the number of log changes = (− 10, +5) because ten logs are decreased and five new logs are increased.

次に特徴量補正テーブルTb2−1、Tb2−2における変化量、増減結果および判定結果について説明する。変化量は、特徴量補正部13によって式(3)で算出される。
(変化量)=(ログの減少数)+(ログの増加数)×k・・・(3)
なお、k(>1)はあらかじめ設定した係数である。例えば、k=10とする。
Next, the amount of change, the increase / decrease result, and the determination result in the feature amount correction tables Tb2-1 and Tb2-2 will be described. The amount of change is calculated by the feature amount correction unit 13 using equation (3).
(Amount of change) = (number of decreases in log) + (number of increases in log) × k (3)
Here, k (> 1) is a preset coefficient. For example, k = 10.

特徴量補正テーブルTb2−1において、人間依存ログに対応する変化量は0(=0+0×10)であるから、増減結果は変化なしと登録される。環境依存ログに対応する変化量は−8(=−8+0×10)であるから、増減結果は減少と登録される。   In the feature amount correction table Tb2-1, the amount of change corresponding to the human dependency log is 0 (= 0 + 0 × 10), so the increase / decrease result is registered as no change. The change amount corresponding to the environment dependent log is −8 (= −8 + 0 × 10), so the increase / decrease result is registered as a decrease.

したがって、(人間依存ログの増減結果、環境依存ログの増減結果)=(変化なし、減少)であるので、後述する行動シーンにもとづき判定結果はノイズありと登録される(判定結果の説明は後述)。すなわち、特徴量Bは、ノイズ等の外乱によって誤出現したものとみなされる。   Therefore, (the increase / decrease result of the human dependent log, the increase / decrease result of the environment dependent log) = (no change, decrease), the determination result is registered as noise based on the action scene described later. ). That is, the feature amount B is considered to be erroneously appearing due to disturbance such as noise.

特徴量補正テーブルTb2−2において、人間依存ログに対応する変化量は8(=−2+1×10)であるから、増減結果は増加と登録される。環境依存ログに対応する変化量は40(=−10+5×10)であるから、増減結果は増加と登録される。したがって、(人間依存ログの増減結果、環境依存ログの増減結果)=(増加、増加)であるので、判定結果はノイズなしと登録される(判定結果の説明は後述)。すなわち、特徴量Cは、ユーザの行動として正常に出現したものとみなされる。   In the feature amount correction table Tb 2-2, the amount of change corresponding to the human dependency log is 8 (= −2 + 1 × 10), so the increase / decrease result is registered as an increase. Since the amount of change corresponding to the environment dependent log is 40 (= −10 + 5 × 10), the increase / decrease result is registered as an increase. Therefore, (the increase / decrease result of the human dependent log, the increase / decrease result of the environment dependent log) = (increase, increase), the determination result is registered as no noise (the description of the determination result will be described later). That is, the feature amount C is considered to have appeared normally as the user's action.

ここで、式(3)において、ログの増加数に係数を乗算する理由について説明する。行動が変化した場合、変化に応じて新たに出現するログがある一方、出現しなくなるログも存在する。   Here, in Equation (3), the reason for multiplying the number of log increases by a coefficient will be described. When the behavior changes, there are logs that newly appear according to the change, but there are also logs that do not appear.

変化量の算出において、前後に出現するログの数の差分をとって変化量とした場合、実際には新たな行動が出現しているにもかかわらず、変化量の減少をノイズありと誤認識してしまう可能性がある。   When calculating the amount of change, if the difference between the number of logs appearing before and after is taken as the amount of change, the decrease in the amount of change is falsely recognized as the presence of noise despite the fact that a new action has appeared There is a possibility of

例えば、会議中(still, speaking)からオフィス内移動(walking)へと遷移した場合、特徴量に対応するログは1つ減少しているが、新たな行動が出現している状態である。しかし、単純にログの数の差分だけで判定した場合、ノイズありと誤認識されてしまう可能性がある。   For example, when transitioning from in-meeting (still, speaking) to in-office walking (walking), the log corresponding to the feature value is reduced by one, but a new action is appearing. However, if it is determined simply by the difference in the number of logs, it may be erroneously recognized as having noise.

したがって、式(3)のように、ログ変化数を減少数と増加数に分け、増加数に係数k(>1)を乗算する。これにより、新しい行動を大きく評価できるようになり、ノイズありとする誤認識の発生を抑制している。   Therefore, as in equation (3), the number of log changes is divided into the number of decreases and the number of increases, and the number of increases is multiplied by the coefficient k (> 1). As a result, new actions can be greatly evaluated, and the occurrence of false recognition as having noise is suppressed.

図13はノイズ判定テーブルの一例を示す図である。ノイズ判定テーブルTb3は、項目として人間依存ログの変化、環境依存ログの変化、行動シーン切り替わりおよび判定結果を有する。なお、ユーザの行動が特定の物理範囲内で行われることを行動シーンと定義する。   FIG. 13 is a diagram showing an example of the noise determination table. The noise determination table Tb3 has, as items, changes in human dependent logs, changes in environment dependent logs, action scene switching, and determination results. In addition, that a user's action is performed in a specific physical range is defined as an action scene.

各欄について説明すると、(人間依存ログの変化、環境依存ログの変化)=(変化なし、増加)の場合、特徴量補正部13は、行動シーンの切り替わりはなしと判定する。よって、特徴量補正部13は、ノイズ判定結果はノイズありと判定する。この場合の例として、周囲の人の移動が挙げられる。   Describing each column, if (change in human dependent log, change in environment dependent log) = (no change, increase), the feature amount correction unit 13 determines that the action scene is not switched. Therefore, the feature amount correction unit 13 determines that the noise determination result is noise. An example of this case is the movement of surrounding people.

(人間依存ログの変化、環境依存ログの変化)=(変化なし、減少)の場合、特徴量補正部13は、行動シーンの切り替わりはなしと判定する。よって、特徴量補正部13は、判定結果はノイズありと判定する。一例として、周囲の人の移動が挙げられる。   When (change in human dependent log, change in environment dependent log) = (no change, decrease), the feature amount correction unit 13 determines that the action scene is not switched. Therefore, the feature amount correction unit 13 determines that the determination result is noise. One example is the movement of surrounding people.

(人間依存ログの変化、環境依存ログの変化)=(増加、増加)の場合、特徴量補正部13は、行動シーンの切り替わりはありと判定する。よって、特徴量補正部13は、ノイズ判定結果はノイズなしと判定する。一例として、オフィス内移動(会議から別会議室の移動)が挙げられる。   In the case of (change in human dependent log, change in environment dependent log) = (increase, increase), the feature amount correction unit 13 determines that there is a switch of action scenes. Therefore, the feature amount correction unit 13 determines that the noise determination result is no noise. An example is intra-office movement (movement from a meeting to another meeting room).

(人間依存ログの変化、環境依存ログの変化)=(増加、変化なし)の場合、特徴量補正部13は、行動シーンの切り替わりはなしと判定する。よって、特徴量補正部13は、判定結果はノイズありと判定する。一例として、会議での資料説明が挙げられる。   When (change in human dependent log, change in environment dependent log) = (increase, no change), the feature amount correction unit 13 determines that the action scene is not switched. Therefore, the feature amount correction unit 13 determines that the determination result is noise. One example is the material explanation at the meeting.

(人間依存ログの変化、環境依存ログの変化)=(増加、減少)の場合、特徴量補正部13は、行動シーンの切り替わりはありと判定する。よって、特徴量補正部13は、判定結果はノイズなしと判定する。一例として、オフィス内移動(会議から別会議室の移動)が挙げられる。   In the case of (change in human dependent log, change in environment dependent log) = (increase, decrease), the feature amount correction unit 13 determines that the action scene is switched. Therefore, the feature amount correction unit 13 determines that the determination result is no noise. An example is intra-office movement (movement from a meeting to another meeting room).

(人間依存ログの変化、環境依存ログの変化)=(減少、増加)の場合、特徴量補正部13は、行動シーンの切り替わりはなしと判定する。よって、特徴量補正部13は、判定結果はノイズありと判定する。一例として、出張時移動が挙げられる。   In the case of (change in human dependent log, change in environment dependent log) = (decrease, increase), the feature amount correction unit 13 determines that the action scene is not switched. Therefore, the feature amount correction unit 13 determines that the determination result is noise. One example is movement during business trips.

(人間依存ログの変化、環境依存ログの変化)=(減少、変化なし)の場合、特徴量補正部13は、行動シーンの切り替わりはなしと判定する。よって、特徴量補正部13は、判定結果はノイズありと判定する。一例として、出張時移動が挙げられる。   In the case of (change in human dependent log, change in environment dependent log) = (decrease, no change), the feature quantity correction unit 13 determines that the action scene is not switched. Therefore, the feature amount correction unit 13 determines that the determination result is noise. One example is movement during business trips.

(人間依存ログの変化、環境依存ログの変化)=(減少、減少)の場合、特徴量補正部13は、行動シーンの切り替わりはなしと判定する。よって、特徴量補正部13は、判定結果はノイズありと判定する。一例として、出張時移動が挙げられる。   In the case of (change in human dependent log, change in environment dependent log) = (decrease, decrease), the feature quantity correction unit 13 determines that the action scene is not switched. Therefore, the feature amount correction unit 13 determines that the determination result is noise. One example is movement during business trips.

上記のように、特徴量補正部13は、人間依存ログおよび環境依存ログの変化量から行動シーンの切り替わりを判定し、この判定結果からノイズ判定を行う。
図14は特徴量補正後の状態を示す図である。上記から特徴量Aから特徴量Bへの遷移において、特徴量Bはノイズにより発生したものと判定される。したがって、特徴量補正部13は、時刻t2の特徴量Bを時刻t1の特徴量Aに置き換える。
As described above, the feature quantity correction unit 13 determines the switching of the action scene from the change amount of the human dependency log and the environment dependency log, and performs the noise determination from the determination result.
FIG. 14 is a diagram showing the state after the feature amount correction. From the above, in the transition from the feature amount A to the feature amount B, it is determined that the feature amount B is generated due to noise. Therefore, the feature quantity correction unit 13 replaces the feature quantity B at time t2 with the feature quantity A at time t1.

また、特徴量Aから特徴量Cへの遷移において、特徴量Cはノイズにより発生したものでなく新たな行動が出現したものと判定される。したがって、特徴量補正部13は、時刻t4の特徴量Cはそのまま残す。   Further, in the transition from the feature amount A to the feature amount C, it is determined that the feature amount C is not generated due to noise but that a new action has appeared. Therefore, the feature amount correction unit 13 leaves the feature amount C at time t4 as it is.

<フローチャート>
図15はサーバの動作を示すフローチャートである。
〔ステップS31〕特徴量生成部12は、定期的にログを受信する。
<Flow chart>
FIG. 15 is a flowchart showing the operation of the server.
[Step S31] The feature quantity generation unit 12 periodically receives a log.

〔ステップS32〕特徴量生成部12は、受信したログから特徴量を生成する。
〔ステップS33〕特徴量補正部13は、特徴量の出現時間の前後において、前時刻の特徴量(特徴量fv1とする)と、後時刻の特徴量(特徴量fv2とする)とが異なるか否かを判定する。異なる場合はステップS34へ処理が進み、一致する場合はステップS31へ処理が戻る。
[Step S32] The feature quantity generation unit 12 generates a feature quantity from the received log.
[Step S33] The feature quantity correction unit 13 determines whether the feature quantity at the previous time (referred to as feature quantity fv1) differs from the feature quantity at subsequent time (referred to as feature quantity fv2) before and after the appearance time of the feature quantity It is determined whether or not. If they differ, the process proceeds to step S34. If they match, the process returns to step S31.

〔ステップS34〕特徴量補正部13は、特徴量fv1、fv2に含まれるログを参照し、人間依存ログか環境依存ログかに分類する。
〔ステップS35〕特徴量補正部13は、前時刻の特徴量fv1に含まれる人間依存ログと、後時刻の特徴量fv2に含まれる人間依存ログとのログ変化数を算出する。また、特徴量補正部13は、前時刻の特徴量fv1に含まれる環境依存ログと、後時刻の特徴量fv2に含まれる環境依存ログとのログ変化数を算出する。
[Step S34] The feature quantity correction unit 13 refers to the logs included in the feature quantities fv1 and fv2 and classifies them into human dependent logs or environment dependent logs.
[Step S35] The feature quantity correction unit 13 calculates the number of log changes of the human dependency log included in the feature quantity fv1 of the previous time and the human dependency log included in the feature quantity fv2 of the subsequent time. In addition, the feature quantity correction unit 13 calculates the number of log changes of the environment dependent log included in the feature quantity fv1 of the previous time and the environment dependent log included in the feature quantity fv2 of the later time.

〔ステップS36〕特徴量補正部13は、算出したログ変化数から変化量を求め、人間依存ログと環境依存ログの増減傾向を求める。そして、特徴量補正部13は、ノイズ判定テーブルTb3にもとづいて、求めた増減傾向からノイズ判定結果を求める。ノイズ判定結果がノイズありの場合は、ステップS37へ処理が進み、ノイズ判定結果がノイズなしの場合はステップS38へ処理が進む。   [Step S36] The feature amount correction unit 13 obtains the amount of change from the calculated number of log changes, and obtains the increase / decrease tendency of the human dependent log and the environment dependent log. Then, the feature amount correction unit 13 obtains a noise determination result from the obtained increase / decrease tendency based on the noise determination table Tb3. If the noise determination result indicates noise, the process proceeds to step S37. If the noise determination result indicates no noise, the process proceeds to step S38.

〔ステップS37〕特徴量補正部13は、特徴量fv2はノイズにより発生したものと判定し、後時刻の特徴量fv2を前時刻の特徴量fv1に置き換える。
〔ステップS38〕特徴量補正部13は、特徴量fv2はノイズにより発生したものでなく新たな行動が出現したものと判定し、後時刻の特徴量fv2はそのまま残す。
[Step S37] The feature amount correction unit 13 determines that the feature amount fv2 is generated due to noise, and replaces the feature amount fv2 of the later time with the feature amount fv1 of the previous time.
[Step S38] The feature amount correction unit 13 determines that the feature amount fv2 is not generated due to noise but that a new action has appeared, and leaves the feature amount fv2 of the later time as it is.

〔ステップS39〕特徴量グループ処理部14は、補正後の特徴量をグルーピングする。
以上説明したように、サーバ10では、ログを特徴量に変換し、時間の前後で連続しない特徴量について、性質に応じて分類したログの変化量から特徴量の連続性の適否の判定を行い、不適正な特徴量は1つ前の特徴量と同一であるものとみなして置き換えを行う。
[Step S39] The feature amount group processing unit 14 groups the corrected feature amounts.
As described above, in the server 10, the log is converted to the feature amount, and for the feature amounts not continuous before and after the time, the suitability of the continuity of the feature amounts is judged from the change amount of the log classified according to the property. Inappropriate feature quantities are regarded as being identical to the previous feature quantity and replacement is performed.

これにより、サーバ10は、誤認識した行動情報だけを訂正可能とするので、粗い粒度のログを利用して行動分析する場合であっても、行動分析の精度の向上を図ることが可能になる。   Thereby, since the server 10 can correct only the erroneously recognized action information, it is possible to improve the accuracy of the action analysis even when the action analysis is performed using the coarse granularity log .

上記で説明した本発明の分析装置1およびサーバ10の処理機能は、コンピュータによって実現することができる。この場合、分析装置1およびサーバ10が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。   The processing functions of the analyzer 1 and the server 10 of the present invention described above can be realized by a computer. In this case, a program is provided in which processing contents of functions to be possessed by the analyzer 1 and the server 10 are described. The above processing functions are realized on the computer by executing the program on the computer.

処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリ等がある。磁気記憶装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープ等がある。光ディスクには、CD−ROM/RW等がある。光磁気記録媒体には、MO(Magneto Optical disk)等がある。   The program in which the processing content is described can be recorded on a computer readable recording medium. Examples of the computer-readable recording medium include a magnetic storage device, an optical disc, a magneto-optical recording medium, a semiconductor memory, and the like. The magnetic storage device includes a hard disk drive (HDD), a flexible disk (FD), a magnetic tape and the like. The optical disc is, for example, a CD-ROM / RW. Magneto-optical recording media include MO (Magneto Optical disk) and the like.

プログラムを流通させる場合、例えば、そのプログラムが記録されたCD−ROM等の可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When the program is distributed, for example, a portable recording medium such as a CD-ROM in which the program is recorded is sold. Alternatively, the program may be stored in the storage device of the server computer, and the program may be transferred from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。   The computer executing the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing in accordance with the program.

また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送される毎に、逐次、受け取ったプログラムに従った処理を実行することもできる。また、上記の処理機能の少なくとも一部を、DSP、ASIC、PLD等の電子回路で実現することもできる。   The computer can also execute processing in accordance with the received program each time the program is transferred from the server computer connected via the network. In addition, at least a part of the above processing functions can be realized by an electronic circuit such as a DSP, an ASIC, or a PLD.

以上、実施の形態を例示したが、実施の形態で示した各部の構成は同様の機能を有する他のものに置換することができる。また、他の任意の構成物や工程が付加されてもよい。さらに、前述した実施の形態のうちの任意の2以上の構成(特徴)を組み合わせたものであってもよい。   As mentioned above, although embodiment was illustrated, the structure of each part shown by embodiment can be substituted to the other thing which has the same function. Also, any other components or steps may be added. Furthermore, any two or more configurations (features) of the above-described embodiments may be combined.

1 分析装置
1a 制御部
1b 記憶部
A、B、C 特徴情報
d1a、d1b、d1c 第1の行動情報
d2a、d2b、d2c 第2の行動情報
α、β 非連続特徴情報の組
1 analyzer 1a control unit 1b storage unit A, B, C feature information d1a, d1b, d1c first action information d2a, d2b, d2c second action information α, β non-consecutive feature information set

Claims (9)

ユーザの行動をセンシングした行動情報から単位時間毎の行動状態を表す特徴情報を時系列に生成し、
単位時間の前の特徴情報に対して後の特徴情報が非連続な非連続特徴情報がある場合、前記非連続特徴情報に含まれる前記行動情報を、性質が互いに異なる第1の行動情報と第2の行動情報に分類し、
前記第1の行動情報と前記第2の行動情報の双方の増減傾向から前記特徴情報の連続性の適否を判定し、判定結果にもとづいて、前記特徴情報の連続性の補正を行う制御部、
を有する分析装置。
The feature information representing the action state for each unit time is generated in time series from the action information in which the action of the user is sensed,
When there is non-continuous non-continuous feature information in which non-continuous feature information after the unit time is non-continuous with respect to the feature information before the unit time, the action information included in the non-continuous feature information Classified into 2 action information,
A control unit that determines the appropriateness of the continuity of the feature information from the increase and decrease tendency of both the first action information and the second action information, and corrects the continuity of the feature information based on the determination result,
Analyzer with.
前記制御部は、
前記非連続特徴情報に、前時刻における第1の特徴情報と、後時刻における第2の特徴情報とが含まれる場合、
前記特徴情報の連続性を不適正と判定した場合、前記第2の特徴情報を前記第1の特徴情報に置き換えて、前記非連続特徴情報を連続特徴情報に補正し、
前記特徴情報の連続性を適正と判定した場合、前記第2の特徴情報の前記第1の特徴情報への置き換えはせずに、前記非連続特徴情報の状態を維持する、
請求項1記載の分析装置。
The control unit
When the non-continuous feature information includes the first feature information at the previous time and the second feature information at the later time,
When it is determined that the continuity of the feature information is inappropriate, the second feature information is replaced with the first feature information, and the non-continuous feature information is corrected to continuous feature information.
When it is determined that the continuity of the feature information is appropriate, the state of the non-continuous feature information is maintained without replacing the second feature information with the first feature information.
The analyzer according to claim 1.
前記第1の行動情報は、ユーザが能動的に行った動作に応じて値が変化する性質を持つ人間依存型の前記行動情報であり、前記第2の行動情報は、前記ユーザの周囲の環境に応じて値が変化する性質を持つ環境依存型の前記行動情報である請求項1記載の分析装置。   The first action information is human-dependent action information having a property of changing a value according to an action actively performed by the user, and the second action information is an environment around the user. The analyzer according to claim 1, wherein the behavior information is environment-dependent and has a property of changing value according to. 前記制御部は、
前記第1の特徴情報に含まれる前記第1の行動情報の数と、前記第2の特徴情報に含まれる前記第1の行動情報の数とに対する、第1の減少数と第1の増加数を求めて第1の変化量を算出し、
前記第1の特徴情報に含まれる前記第2の行動情報の数と、前記第2の特徴情報に含まれる前記第2の行動情報の数とに対する、第2の減少数と第2の増加数を求めて第2の変化量を算出する、
請求項2記載の分析装置。
The control unit
A first decrease number and a first increase number with respect to the number of the first action information included in the first feature information and the number of the first action information included in the second feature information To calculate the first change amount,
A second decrease number and a second increase number with respect to the number of the second action information included in the first feature information and the number of the second action information included in the second feature information To calculate the second change amount,
The analyzer according to claim 2.
前記制御部は、重み付けした前記第1の増加数に前記第1の減少数を加算して前記第1の変化量を算出し、重み付けした前記第2の増加数に前記第2の減少数を加算して前記第2の変化量を算出する請求項4記載の分析装置。   The control unit calculates the first change amount by adding the first decrease number to the weighted first increase number, and calculates the second decrease number to the weighted second increase number. The analyzer according to claim 4, wherein the second change amount is calculated by addition. 前記制御部は、
前記第1の変化量にもとづき前記第1の行動情報の第1の増減傾向を検出し、前記第2の変化量にもとづき前記第2の行動情報の第2の増減傾向を検出し、
前記第1の増減傾向が変化なし、かつ前記第2の増減傾向が増加の場合と、前記第1の増減傾向が変化なし、かつ前記第2の増減傾向が減少の場合と、前記第1の増減傾向が増加、かつ前記第2の増減傾向が変化なしの場合と、前記第1の増減傾向が減少、かつ前記第2の増減傾向が増加の場合と、前記第1の増減傾向が減少、かつ前記第2の増減傾向が変化なしの場合と、前記第1の増減傾向が減少、かつ前記第2の増減傾向が減少の場合とにおいて、前記特徴情報の連続性を不適正と判定する、
請求項4記載の分析装置。
The control unit
A first increase / decrease tendency of the first action information is detected based on the first change amount, and a second increase / decrease tendency of the second action information is detected based on the second change amount.
When the first increase / decrease tendency is not changed, and when the second increase / decrease tendency is increased, when the first increase / decrease tendency is not changed and when the second increase / decrease tendency is decreased, the first The increase / decrease tendency increases, and the second increase / decrease tendency does not change, the first increase / decrease tendency decreases, and the second increase / decrease tendency increases, and the first increase / decrease tendency decreases. The continuity of the feature information is determined to be inappropriate between the case where the second increase / decrease tendency is not changed and the case where the first increase / decrease tendency is decreased and the second increase / decrease tendency is decreased.
The analyzer according to claim 4.
前記制御部は、
前記第1の変化量にもとづき前記第1の行動情報の第1の増減傾向を検出し、前記第2の変化量にもとづき前記第2の行動情報の第2の増減傾向を検出し、
前記第1の増減傾向が増加、かつ前記第2の増減傾向が増加の場合と、前記第1の増減傾向が増加、かつ前記第2の増減傾向が減少の場合とにおいて、前記特徴情報の連続性を適正と判定する、
請求項4記載の分析装置。
The control unit
A first increase / decrease tendency of the first action information is detected based on the first change amount, and a second increase / decrease tendency of the second action information is detected based on the second change amount.
In the case where the first increase / decrease trend is increased and the second increase / decrease trend is increased, and in the case where the first increase / decrease trend is increased and the second increase / decrease trend is decreased, the characteristic information is continuous Determine the appropriateness of the nature,
The analyzer according to claim 4.
コンピュータが、
ユーザの行動をセンシングした行動情報から単位時間毎の行動状態を表す特徴情報を時系列に生成し、
単位時間の前の特徴情報に対して後の特徴情報が非連続な非連続特徴情報がある場合、前記非連続特徴情報に含まれる前記行動情報を、性質が互いに異なる第1の行動情報と第2の行動情報に分類し、
前記第1の行動情報と前記第2の行動情報の双方の増減傾向から前記特徴情報の連続性の適否を判定し、判定結果にもとづいて、前記特徴情報の連続性の補正を行う、
制御を行う分析方法。
The computer is
The feature information representing the action state for each unit time is generated in time series from the action information in which the action of the user is sensed,
When there is non-continuous non-continuous feature information in which non-continuous feature information after the unit time is non-continuous with respect to the feature information before the unit time, the action information included in the non-continuous feature information Classified into 2 action information,
The propriety of the continuity of the feature information is determined from the increase / decrease tendency of both the first action information and the second action information, and the continuity of the feature information is corrected based on the determination result.
Analysis method to control.
コンピュータに、
ユーザの行動をセンシングした行動情報から単位時間毎の行動状態を表す特徴情報を時系列に生成し、
単位時間の前の特徴情報に対して後の特徴情報が非連続な非連続特徴情報がある場合、前記非連続特徴情報に含まれる前記行動情報を、性質が互いに異なる第1の行動情報と第2の行動情報に分類し、
前記第1の行動情報と前記第2の行動情報の双方の増減傾向から前記特徴情報の連続性の適否を判定し、判定結果にもとづいて、前記特徴情報の連続性の補正を行う、
制御を実行させるプログラム。
On the computer
The feature information representing the action state for each unit time is generated in time series from the action information in which the action of the user is sensed,
When there is non-continuous non-continuous feature information in which non-continuous feature information after the unit time is non-continuous with respect to the feature information before the unit time, the action information included in the non-continuous feature information Classified into 2 action information,
The propriety of the continuity of the feature information is determined from the increase / decrease tendency of both the first action information and the second action information, and the continuity of the feature information is corrected based on the determination result.
A program that performs control.
JP2017216988A 2017-11-10 2017-11-10 Analysis device, analysis method and program Active JP7121251B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017216988A JP7121251B2 (en) 2017-11-10 2017-11-10 Analysis device, analysis method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017216988A JP7121251B2 (en) 2017-11-10 2017-11-10 Analysis device, analysis method and program

Publications (2)

Publication Number Publication Date
JP2019087179A true JP2019087179A (en) 2019-06-06
JP7121251B2 JP7121251B2 (en) 2022-08-18

Family

ID=66764280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017216988A Active JP7121251B2 (en) 2017-11-10 2017-11-10 Analysis device, analysis method and program

Country Status (1)

Country Link
JP (1) JP7121251B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112444249A (en) * 2019-09-04 2021-03-05 奇点无限有限公司 Integrated sensing system and analysis method and use method thereof
WO2021192399A1 (en) * 2020-03-25 2021-09-30 株式会社日立製作所 Behavior recognition server, behavior recognition system, and behavior recognition method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010032579A1 (en) * 2008-09-19 2010-03-25 株式会社日立製作所 Method and system for generating history of behavior
JP2014174943A (en) * 2013-03-13 2014-09-22 Yahoo Japan Corp Time series data analysis device, time series data analysis method and program
JP2014236775A (en) * 2013-06-06 2014-12-18 セイコーエプソン株式会社 Organism information measuring device and organism information measurement method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010032579A1 (en) * 2008-09-19 2010-03-25 株式会社日立製作所 Method and system for generating history of behavior
JP2014174943A (en) * 2013-03-13 2014-09-22 Yahoo Japan Corp Time series data analysis device, time series data analysis method and program
JP2014236775A (en) * 2013-06-06 2014-12-18 セイコーエプソン株式会社 Organism information measuring device and organism information measurement method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112444249A (en) * 2019-09-04 2021-03-05 奇点无限有限公司 Integrated sensing system and analysis method and use method thereof
WO2021192399A1 (en) * 2020-03-25 2021-09-30 株式会社日立製作所 Behavior recognition server, behavior recognition system, and behavior recognition method
CN114402575A (en) * 2020-03-25 2022-04-26 株式会社日立制作所 Action recognition server, action recognition system and action recognition method
CN114402575B (en) * 2020-03-25 2023-12-12 株式会社日立制作所 Action recognition server, action recognition system, and action recognition method
JP7436257B2 (en) 2020-03-25 2024-02-21 株式会社日立製作所 Behavior recognition server, behavior recognition system, and behavior recognition method

Also Published As

Publication number Publication date
JP7121251B2 (en) 2022-08-18

Similar Documents

Publication Publication Date Title
US11631015B2 (en) Machine learning techniques for internet protocol address to domain name resolution systems
US20180132068A1 (en) Portable resource management systems and methods
EP2915319B1 (en) Managing a context model in a mobile device by assigning context labels for data clusters
KR101573993B1 (en) Method and apparatus for segmenting context information
US20150244750A1 (en) Generating consolidated social content for a user of a social networking system
US20130103348A1 (en) Methods and apparatuses for controlling invocation of a sensor
Vu et al. Characterizing and modeling people movement from mobile phone sensing traces
EP2904822A1 (en) User behavior modeling for intelligent mobile companions
US20160275533A1 (en) Segment Membership Determination for Content Provisioning
US20160335556A1 (en) Prediction device, terminal, prediction method, and non-transitory computer readable storage medium
JP7121251B2 (en) Analysis device, analysis method and program
US20200084116A1 (en) User-configurable delivery of informational events
CN109933610A (en) Data processing method, device, computer equipment and storage medium
Yücel et al. Modeling the impact of interaction on pedestrian group motion
Cardone et al. Activity recognition for smart city scenarios: Google play services vs. MoST facilities
WO2014189848A2 (en) Filtering of content to display using an opportunity engine that identifies other users&#39; ability to interact in real time
CN112673367A (en) Electronic device and method for predicting user intention
JP7405518B2 (en) Generation device, generation method and generation program
CN110612503B (en) Intelligent context sub-sampling device system
WO2021042368A1 (en) Power consumption control and scheme generation method, device, system, and storage medium
US10725529B2 (en) Target based power management
US8954364B2 (en) Hierarchical contexts to drive live sensor applications
US11403324B2 (en) Method for real-time cohort creation based on entity attributes derived from partially observable location data
Komuro et al. Relationship between worker interruptibility and work transitions detected by smartphone
Choujaa et al. Activity recognition from mobile phone data: State of the art, prospects and open problems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200807

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200825

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R150 Certificate of patent or registration of utility model

Ref document number: 7121251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150