JP2020170382A - Estimation processing device and estimation model construction device - Google Patents

Estimation processing device and estimation model construction device Download PDF

Info

Publication number
JP2020170382A
JP2020170382A JP2019071862A JP2019071862A JP2020170382A JP 2020170382 A JP2020170382 A JP 2020170382A JP 2019071862 A JP2019071862 A JP 2019071862A JP 2019071862 A JP2019071862 A JP 2019071862A JP 2020170382 A JP2020170382 A JP 2020170382A
Authority
JP
Japan
Prior art keywords
estimation
attention function
feature amount
estimation model
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019071862A
Other languages
Japanese (ja)
Other versions
JP7297236B2 (en
Inventor
尚志 濱谷
Hisashi Hamaya
尚志 濱谷
桂一 落合
Keiichi Ochiai
桂一 落合
山本 直樹
Naoki Yamamoto
直樹 山本
佑介 深澤
Yusuke Fukazawa
佑介 深澤
木本 勝敏
Katsutoshi Kimoto
勝敏 木本
貴記 前田
Takaki Maeda
貴記 前田
悠理 寺澤
Yuri Terasawa
悠理 寺澤
宰 沖村
Tsukasa Okimura
宰 沖村
順 太田
Jun Ota
順 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Keio University
University of Tokyo NUC
Original Assignee
NTT Docomo Inc
Keio University
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc, Keio University, University of Tokyo NUC filed Critical NTT Docomo Inc
Priority to JP2019071862A priority Critical patent/JP7297236B2/en
Publication of JP2020170382A publication Critical patent/JP2020170382A/en
Application granted granted Critical
Publication of JP7297236B2 publication Critical patent/JP7297236B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an estimation processing device and estimation model construction device, capable of collecting and determining the information which can measure an attention function passively.SOLUTION: An estimation model execution device 100 includes an attention function estimation section 103 for estimating user's attention function using feature quantity generated from a sensor value of each sensor (a motion sensor) of a communication terminal 200 which is an information processor held by a user. The feature quantity is generated in the communication terminal 200 or the estimation model execution device 100.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザの注意機能を推定するための推定処理装置及び推定モデル構築装置に関する。 The present invention relates to an estimation processing device and an estimation model construction device for estimating a user's attention function.

注意機能の低下は、労働生産性の低下につながるため国際的な問題となっている。そこで、人の注意機能を定量的に計ることが考えられている。例えば、PVT・Go-NoGoなどの認知機能テストを実施することが考えられているが、本テストの実施には数分必要であり、かつ経時的な変化を捉えるためには一日に複数回試験を実施する必要があった。そのため、ユーザの負担が大きい。したがって、自動で注意機能の高低を判断するシステムが有用である。 Decreased attention function has become an international problem because it leads to a decrease in labor productivity. Therefore, it is considered to quantitatively measure the attention function of a person. For example, it is considered to carry out cognitive function tests such as PVT and Go-NoGo, but it takes several minutes to carry out this test, and multiple times a day to capture changes over time. It was necessary to carry out the test. Therefore, the burden on the user is large. Therefore, a system that automatically determines the level of attention function is useful.

非特許文献1には、スマートフォンの画面点灯回数・点灯時間や睡眠時間などの特徴量に基づいて、機械学習モデルにより人の注意機能(PVT試験の応答速度)を推定することが記載されている。 Non-Patent Document 1 describes that a human attention function (response speed of PVT test) is estimated by a machine learning model based on features such as the number of times the screen is lit, the lighting time, and the sleeping time of a smartphone. ..

Cognitive Rhythms: Unobtrusive and Continuous Sensing of AlertnessUsing a Mobile PhoneSaeedAbdullah, Elizabeth Murnane, Mark Matthews, Matthew Kay, Julie Kientz, GeriGay, Tanzeem Choudhury, Proceedings of the 2016 ACM International JointConference on Pervasive and Ubiquitous Computing. ACM, 2016.[平成30年2月6日検索]<http://pac.cs.cornell.edu/pubs/Ubicomp2016_CognitiveRhythms.pdf>Cognitive Rhythms: Unobtrusive and Continuous Sensing of AlertnessUsing a Mobile PhoneSaeedAbdullah, Elizabeth Murnane, Mark Matthews, Matthew Kay, Julie Kientz, GeriGay, Tanzeem Choudhury, Proceedings of the 2016 ACM International JointConference on Pervasive and Ubiquitous Computing. Searched on February 6, 2014] <http://pac.cs.cornell.edu/pubs/Ubicomp2016_CognitiveRhythms.pdf>

しかしながら、画面の点灯といったスマートフォンの使い方に関する特徴量は、スマートフォンを利用しないと得られないため、実環境での労働中やタスクに集中している状況(スマートフォンを利用できない状況)では、特徴量が得られないことが想定される。 However, the features related to how to use the smartphone, such as lighting the screen, cannot be obtained without using the smartphone, so the features are not available during work in the actual environment or when the task is concentrated (the situation where the smartphone cannot be used). It is assumed that it cannot be obtained.

そこで、本発明は、ユーザがスマートフォンなどの端末を使用していない場合においても、受動的に注意機能を測定することができる情報を収集して判断することのできる推定処理装置及び推定モデル構築装置を提供することを目的とする。 Therefore, the present invention is an estimation processing device and an estimation model construction device capable of collecting and judging information capable of passively measuring the attention function even when the user is not using a terminal such as a smartphone. The purpose is to provide.

上述の課題を解決するために、本発明の推定処理装置は、ユーザが所持している情報処理装置の動きセンサのセンサ値に基づいて生成された特徴量を用いてユーザの注意機能を推定する注意機能推定部、を備える。 In order to solve the above-mentioned problems, the estimation processing device of the present invention estimates the user's attention function using the feature amount generated based on the sensor value of the motion sensor of the information processing device possessed by the user. It is equipped with an attention function estimation unit.

この発明によれば、ユーザの操作を検出することなく、ユーザが所持している通信端末の動きからユーザの注意機能を推定することができる。ユーザの操作を必要としないことから、ユーザに意識させることなくその注意機能を推定できる。なお、「ユーザが通信端末を所持している」とは、ユーザが通信端末を手に持ったり身に付けたりするなどにより通信端末を保持する態様に限らず、通信端末が、ユーザの任意に操作可能な状態、例えば、ユーザの手の届く所定の場所に置かれる場合を含む。 According to the present invention, the attention function of the user can be estimated from the movement of the communication terminal possessed by the user without detecting the operation of the user. Since no user operation is required, the attention function can be estimated without making the user aware of it. Note that "the user possesses the communication terminal" is not limited to the mode in which the user holds the communication terminal by holding or wearing the communication terminal, and the communication terminal can be arbitrarily selected by the user. It includes a state in which it can be operated, for example, when it is placed in a predetermined place within the reach of a user.

本発明によると、ユーザの操作を検出することなく、ユーザが所持している通信端末の動きからユーザの注意機能を推定することができる。 According to the present invention, the attention function of the user can be estimated from the movement of the communication terminal possessed by the user without detecting the operation of the user.

本実施形態の推定モデル実行装置100および通信端末200の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the estimation model execution apparatus 100 and the communication terminal 200 of this embodiment. 注意機能スコア推定モデルを生成するときの生成処理を示す模式図である。It is a schematic diagram which shows the generation process at the time of generating the attention function score estimation model. ユーザIDごとに、日付と、注意機能スコアと、各センサ値のセンサ値ログなどの特徴量とを対応付けたテーブルである。It is a table in which the date, the attention function score, and the feature amount such as the sensor value log of each sensor value are associated with each user ID. 通信端末ログ収集部101が収集した各センサ値のセンサ値テーブルを示す図である。It is a figure which shows the sensor value table of each sensor value collected by the communication terminal log collecting unit 101. 他の例におけるセンサ値テーブルを示す図である。It is a figure which shows the sensor value table in another example. 画面on/off履歴テーブルおよびイヤホン接続履歴テーブルの具体例を示す。A specific example of the screen on / off history table and the earphone connection history table is shown. 測位履歴テーブルおよび滞留点テーブルの具体例を示す。Specific examples of the positioning history table and the retention point table are shown. アプリ起動履歴テーブルおよびアプリ情報テーブル101bの具体例を示す。A specific example of the application activation history table and the application information table 101b is shown. 注意機能スコア推定モデルの構築処理を示すフローチャートである。It is a flowchart which shows the construction process of attention function score estimation model. 推定モデル実行装置100が推定モデルを利用したユーザの注意機能の推定処理を行うフローチャートである。It is a flowchart in which the estimation model execution device 100 performs the estimation process of the user's attention function using the estimation model. アプリ起動ログから特徴量を計算する処理を示すフローチャートである。It is a flowchart which shows the process of calculating a feature amount from an application start log. 通信端末200の画面onからアプリ起動までの操作を示す端末ログの一例を示すための画面履歴の変遷を示す図である。It is a figure which shows the transition of the screen history for showing an example of the terminal log which shows the operation from the screen on of a communication terminal 200 to start of an application. 操作ログを記憶する操作ログテーブルの具体例である。This is a specific example of an operation log table that stores operation logs. 操作ログから特徴量を計算するときの処理を示すフローチャートである。It is a flowchart which shows the process when the feature amount is calculated from an operation log. 除外リストを生成するための管理テーブルおよびその除外リストの例を示す図である。It is a figure which shows the example of the management table for generating an exclusion list and the exclusion list. 本開示の一実施の形態に係る推定モデル実行装置100および通信端末200のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the estimation model execution apparatus 100 and the communication terminal 200 which concerns on one Embodiment of this disclosure.

添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。 An embodiment of the present invention will be described with reference to the accompanying drawings. When possible, the same parts are designated by the same reference numerals and duplicate description is omitted.

図1は、本実施形態の推定モデル実行装置100および通信端末200の機能構成を示すブロック図である。図1に示されるとおり、推定モデル実行装置100は、通信端末に備えられている各動きセンサの動作ログを取得することができる。推定モデル実行装置100は、通信端末ログ収集部101(センサ値取得部、プログラム管理部)、ログテーブル101a(プログラム管理部)、アプリ情報テーブル101b、利用特徴量計算部102(特徴量変換部)、注意機能推定部103(注意機能推定部)、推定結果表示部104(注意機能提示部)、推定モデル構築部105(推定モデル構築部)、推定モデル記憶部106、除外リスト107、および除外リスト生成部108を含んで構成されている。また、通信端末200は、加速度センサ201、角速度センサ202、傾きセンサ203、画面on/offセンサ204、アプリ利用センサ205、GPS206、通信部207、制御部208、プログラム209を含んで構成されている。以下、各構成について説明する。これら構成は一例であり、必ずしも全てが必須の構成ではない。例えば、除外リスト107および除外リスト生成部108は無くてもよい。 FIG. 1 is a block diagram showing a functional configuration of the estimation model execution device 100 and the communication terminal 200 of the present embodiment. As shown in FIG. 1, the estimation model execution device 100 can acquire the operation log of each motion sensor provided in the communication terminal. The estimation model execution device 100 includes a communication terminal log collection unit 101 (sensor value acquisition unit, program management unit), a log table 101a (program management unit), an application information table 101b, and a feature amount calculation unit 102 (feature amount conversion unit). , Attention function estimation unit 103 (attention function estimation unit), estimation result display unit 104 (attention function presentation unit), estimation model construction unit 105 (estimation model construction unit), estimation model storage unit 106, exclusion list 107, and exclusion list. It is configured to include a generation unit 108. Further, the communication terminal 200 includes an acceleration sensor 201, an angular velocity sensor 202, a tilt sensor 203, a screen on / off sensor 204, an application use sensor 205, GPS 206, a communication unit 207, a control unit 208, and a program 209. .. Each configuration will be described below. These configurations are examples, and not all are essential configurations. For example, the exclusion list 107 and the exclusion list generation unit 108 may be omitted.

通信端末ログ収集部101は、通信端末200に備えられている加速度センサ201、角速度センサ202、傾きセンサ203、および画面on/offセンサ204などのセンサ値、並びにアプリ利用センサ205のプログラム起動状態、画面オンオフおよび通信端末200の位置情報などの端末ログ情報を収集する部分である。なお、センサ値として、そのほかに、WIFIのアクセスポイント数、WIFIのアクセス率などを収集する。この場合、通信端末200の通信部が動きセンサに相当する。通信端末ログ収集部101は、有線または無線により、通信端末200と通信接続することができる。 The communication terminal log collection unit 101 includes sensor values such as an acceleration sensor 201, an angular speed sensor 202, an inclination sensor 203, and a screen on / off sensor 204 provided in the communication terminal 200, and a program activation state of the application use sensor 205. This is a part for collecting terminal log information such as screen on / off and position information of the communication terminal 200. In addition, as the sensor value, the number of WIFI access points, the WIFI access rate, and the like are collected. In this case, the communication unit of the communication terminal 200 corresponds to a motion sensor. The communication terminal log collecting unit 101 can communicate with the communication terminal 200 by wire or wirelessly.

ログテーブル101aは、加速度センサ、角速度センサなどの各センサ値を記憶するセンサ値テーブル、位置情報テーブル、アプリ起動履歴テーブル、および端末ログテーブルを含む。通信端末ログ収集部101は、収集した各センサ値、端末ログ情報(測位情報、アプリ起動情報、画面オンオフ)を、上記それぞれのテーブルに振り分けて記憶する。 The log table 101a includes a sensor value table for storing each sensor value such as an acceleration sensor and an angular velocity sensor, a position information table, an application activation history table, and a terminal log table. The communication terminal log collecting unit 101 distributes and stores each collected sensor value and terminal log information (positioning information, application activation information, screen on / off) in each of the above tables.

アプリ情報テーブル101bは、アプリケーションのパッケージ名、カテゴリ番号、およびタグを対応付けて記憶するテーブルである。パッケージ名は、アプリケーションを特定するためのIDであり、アプリケーションIDである。カテゴリ番号は、アプリケーションのカテゴリを示す番号である。カテゴリ番号は、例えば、ソーシャル・交通・仕事最適化などのカテゴリを示す番号である。タグは、付加的な情報であり、本実施形態においては、CALL(電話)、SMSなどの通信アプリであることを示す情報が付加されている。 The application information table 101b is a table that stores the application package name, category number, and tag in association with each other. The package name is an ID for identifying the application, and is an application ID. The category number is a number indicating the category of the application. The category number is a number indicating a category such as social / transportation / work optimization. The tag is additional information, and in the present embodiment, information indicating that the tag is a communication application such as CALL (telephone) or SMS is added.

利用特徴量計算部102は、ログテーブル101aにおける各センサ(加速度センサ201、角速度センサ202、傾きセンサ203、画面on/offセンサ204、アプリ利用センサ205、ほか通信状況(WIFIのアクセス状態)を検出するセンサなど)のセンサ値および端末ログ情報に基づいて特徴量を計算する部分である。例えば、特徴量は、センサ値の平均値、標準偏差、最大値、最小値、最大最小差、軸ペアの相関係数、総移動距離、画面オン回数、アプリ起動回数、時間帯WIFI接続オン率、観測WIFIアクセスポント数である。そのほか、加速度センサであれば、3軸のうち2軸の値系列のPearson相関係数、または3軸の二乗和の平方根(信号パワー)などを特徴量として算出する。ほか、角速度、傾き、加速度(重力成分除去)についても同様に算出してもよい。 The usage feature amount calculation unit 102 detects each sensor (acceleration sensor 201, angular velocity sensor 202, tilt sensor 203, screen on / off sensor 204, application usage sensor 205, and other communication status (WIFI access status) in the log table 101a. This is the part that calculates the feature amount based on the sensor value of the sensor and the terminal log information. For example, the feature amount is the average value of sensor values, standard deviation, maximum value, minimum value, maximum minimum difference, correlation coefficient of axis pair, total movement distance, number of screen ons, number of application startups, time zone WIFI connection on rate. , The number of observed WIFI access points. In addition, in the case of an acceleration sensor, the Pearson correlation coefficient of the value series of two of the three axes or the square root (signal power) of the sum of squares of the three axes is calculated as a feature amount. In addition, the angular velocity, inclination, and acceleration (removal of gravitational component) may be calculated in the same manner.

この利用特徴量計算部102は、ユーザIDおよび日付を指定して、所定の時間帯ごとのセンサ値および端末ログ情報を各テーブルから取得することで、特徴量を計算することができる。例えば、利用特徴量計算部102は、毎時(1時間ごと)における加速度センサのセンサ値の平均値、6時間ごとの加速度センサのセンサ値の平均値、終日(24時間ごと)の加速度センサのセンサ値の平均値を算出する。 The feature amount calculation unit 102 can calculate the feature amount by designating the user ID and the date and acquiring the sensor value and the terminal log information for each predetermined time zone from each table. For example, the utilization feature amount calculation unit 102 uses the average value of the sensor values of the acceleration sensor every hour (every hour), the average value of the sensor values of the acceleration sensor every 6 hours, and the sensor of the acceleration sensor all day (every 24 hours). Calculate the average value of the values.

注意機能推定部103は、利用特徴量と、推定モデル記憶部106に記憶される推定モデルと、に基づいて、通信端末200を所持しているユーザの注意機能を推定する部分である。本実施形態における「注意機能」は、ユーザの集中力注意力、またはそれらに類するユーザの状態を意味するものである。推定モデルは、あらかじめ利用特徴量と、Go−NoGo試験結果とに基づいて学習されたモデルである。モデル構築処理については後述する。 The attention function estimation unit 103 is a part that estimates the attention function of the user who owns the communication terminal 200 based on the usage feature amount and the estimation model stored in the estimation model storage unit 106. The "attention function" in the present embodiment means the user's concentration and attention, or a similar state of the user. The estimated model is a model learned in advance based on the feature quantity used and the Go-NoGo test result. The model construction process will be described later.

本実施形態においては、注意機能推定部103は、センサ値を、推定モデルに入力することで注意機能スコアを推定することが重要である。本実施形態におけるセンサ値は、通信端末200において受動的に得られたセンサ値であり、ユーザが必ずしも操作などをすることなく得られるセンサ値である。このようなセンサ値を用いることで、ユーザが端末操作をしていなくても、ユーザの注意機能を推定することができる。 In the present embodiment, it is important that the attention function estimation unit 103 estimates the attention function score by inputting the sensor value into the estimation model. The sensor value in the present embodiment is a sensor value passively obtained in the communication terminal 200, and is a sensor value obtained without necessarily performing an operation by the user. By using such a sensor value, the user's attention function can be estimated even if the user does not operate the terminal.

推定結果表示部104は、通信端末200を所持しているユーザの注意機能を表示する部分である。なお、表示に限らず、ユーザの注意機能を提示する機能であればよい。また、推定結果表示部104は、表示にかえて、ユーザの注意機能を示した情報を、通信端末200に提示(通知)する機能としてもよい。 The estimation result display unit 104 is a part that displays the attention function of the user who owns the communication terminal 200. The function is not limited to the display, and may be a function that presents the user's attention function. Further, the estimation result display unit 104 may have a function of presenting (notifying) information indicating the user's attention function to the communication terminal 200 instead of displaying the display.

推定モデル構築部105は、所定時間単位の通信端末200のセンサ値、端末ログ情報(アプリ起動履歴、画面オンオフログ、位置情報など)に基づいた特徴量を説明変数とし、および当該所定時間単位に対応付ける形で、当該通信端末200が、当該通信端末200をユーザから取得したGo−NoGo試験の結果を教師信号として、機械学習を行うことにより、推定モデルを構築する。 The estimation model construction unit 105 uses the sensor value of the communication terminal 200 in a predetermined time unit and the feature amount based on the terminal log information (app start history, screen on / off log, position information, etc.) as explanatory variables, and sets the feature amount in the predetermined time unit. In the associative form, the communication terminal 200 constructs an estimation model by performing machine learning using the result of the Go-NoGo test obtained from the user for the communication terminal 200 as a teacher signal.

例えば、推定モデル構築部105は、センサ値、端末ログ情報(アプリ起動履歴、画面オンオフ、位置測位など)のうち、所定時間単位に区別された情報に基づいて計算された特徴量を、利用特徴量計算部102から取得する。一方、推定モデル構築部105は、ユーザの注意機能の指標として、ユーザによるGo−NoGo試験結果を取得する。この試験結果は、上述の所定時間帯のセンサ値および端末ログ情報に基づいた特徴量に、時間帯を合わせて行われた情報としてもよいが、必ずしもこれに限るものではない。例えば、当日0−6時の特徴量を、当日12時に行った注意機能スコアと紐付けてもよい。 For example, the estimation model construction unit 105 uses the feature amount calculated based on the information distinguished in a predetermined time unit from the sensor value and the terminal log information (app start history, screen on / off, positioning, etc.). Obtained from the quantity calculation unit 102. On the other hand, the estimation model construction unit 105 acquires the Go-NoGo test result by the user as an index of the user's attention function. This test result may be information performed by matching the time zone with the feature amount based on the sensor value and the terminal log information in the predetermined time zone described above, but the test result is not necessarily limited to this. For example, the feature amount from 0 to 6 o'clock on the day may be associated with the attention function score performed at 12:00 on the day.

例えば、推定モデル構築部105は、6時間単位の特徴量を得るとともに、ユーザは6時間ごとにGo−NoGo試験を受けてその結果を推定モデル構築部105は、取得する。 For example, the estimation model construction unit 105 obtains the feature quantity in units of 6 hours, and the user takes a Go-NoGo test every 6 hours, and the estimation model construction unit 105 acquires the result.

そして、推定モデル構築部105は、特徴量を説明変数として、Go−NoGo試験結果を教師信号とした学習処理を行う。機械学習の手法としては、既存の手法を適用する。例えば、SVM(Support Vector Machine)、Random Forest、K近傍法、ニューラルネットワークなどを利用することができる。 Then, the estimation model construction unit 105 performs learning processing using the feature amount as an explanatory variable and the Go-NoGo test result as a teacher signal. As a machine learning method, an existing method is applied. For example, SVM (Support Vector Machine), Random Forest, K-nearest neighbor method, neural network and the like can be used.

図2を用いて、その構築処理について説明する。図2は、各センサのセンサ値、端末ログ情報およびGo−NoGo試験結果に基づいて注意機能スコア推定モデルを生成するときの生成処理を示す模式図である。入力S11は、通信端末200の各センサのセンサ値、アプリ起動履歴、端末ログおよび位置測位履歴(GPS)のログ情報を示す。これらセンサ値等のログ情報に基づいて、特徴量の計算がされて、出力S12に示される特徴量が計算される。 The construction process will be described with reference to FIG. FIG. 2 is a schematic diagram showing a generation process when generating an attention function score estimation model based on the sensor value of each sensor, terminal log information, and Go-NoGo test result. The input S11 indicates the sensor value of each sensor of the communication terminal 200, the application activation history, the terminal log, and the log information of the positioning history (GPS). Based on the log information such as these sensor values, the feature amount is calculated, and the feature amount shown in the output S12 is calculated.

一方で、入力S13は、Go−NoGo試験アプリにおいてユーザが試験を受けていることを示す。Go−NoGo試験は、ユーザが通信端末200などの端末を操作し、Go−NoGo試験のためのアプリケーションを起動することで、行われる。試験結果は、そのアプリケーションを操作することにより、得られる情報である。その試験結果に基づいてスコア化処理を行うことで、出力S14が得られる。ここでは、Go−NoGo試験の正解率、Efficiency、Go反応時間の平均値、NoGo成功率などが、注意機能スコアとして、算出される。なお、Efficiencyとは、実際に計測したNoGo成功率と、その時のGo反応速度から算出した想定NoGo成功率の差を示している。 On the other hand, the input S13 indicates that the user is taking the test in the Go-NoGo test application. The Go-NoGo test is performed by a user operating a terminal such as a communication terminal 200 and activating an application for the Go-NoGo test. The test result is the information obtained by operating the application. The output S14 is obtained by performing the scoring process based on the test result. Here, the correct answer rate, Efficiency, average value of Go reaction time, NoGo success rate, etc. of the Go-NoGo test are calculated as attention function scores. The Efficiency indicates the difference between the actually measured NoGo success rate and the assumed NoGo success rate calculated from the Go reaction speed at that time.

そして、推定モデル構築部105は、出力S12で示される特徴量を説明変数とし、注意機能スコアを目的変数として注意機能スコア推定モデルの学習処理を行い、注意機能スコア推定モデルを構築することができる。 Then, the estimation model construction unit 105 can construct the attention function score estimation model by performing the learning process of the attention function score estimation model using the feature amount shown in the output S12 as the explanatory variable and the attention function score as the objective variable. ..

図3は、ユーザIDごとに、日付と、注意機能スコア(図2の出力S14参照)と、各センサ値のセンサ値および端末ログ情報(アプリ起動履歴、画面オンオフなど)の特徴量(図2の出力S12参照)とを対応付けたテーブルである。注意機能スコアは、図2におけるS14で示されるGo−NoGo正解率等のうちいずれかまたは複数の情報で示される。例えば、この注意機能スコアとして、Go−NoGo正解率を用いる。 FIG. 3 shows the date, the attention function score (see output S14 in FIG. 2), the sensor value of each sensor value, and the feature amount of the terminal log information (application startup history, screen on / off, etc.) for each user ID (FIG. 2). It is a table associated with the output (see S12) of. The attention function score is indicated by one or more of the Go-NoGo accuracy rate and the like shown in S14 in FIG. For example, the Go-NoGo correct answer rate is used as this attention function score.

推定モデル構築部105は、利用特徴量計算部102により計算された特徴量と、Go−NoGo試験結果に基づいて得られた注意機能スコアとに基づいて、図3に示されるテーブルを生成し、推定モデルの構築処理を行うことができる。なお、推定モデル構築部105は、ユーザごとに注意機能スコア推定モデルを生成するために、ユーザごとに、特徴量を抽出して、ユーザごとに構築する。なお、ユーザごとに推定モデルを構築しない場合には、全データを用いて推定モデルを構築してもよい。 The estimation model construction unit 105 generates the table shown in FIG. 3 based on the feature amount calculated by the utilization feature amount calculation unit 102 and the attention function score obtained based on the Go-NoGo test result. It is possible to perform the construction process of the estimation model. The estimation model building unit 105 extracts the feature amount for each user and builds it for each user in order to generate the attention function score estimation model for each user. If the estimation model is not constructed for each user, the estimation model may be constructed using all the data.

除外リスト生成部108は、アプリ起動履歴テーブルに基づいて、注意機能推定に使用しないアプリを示す除外リスト107を生成する部分である。詳細は後述する。 The exclusion list generation unit 108 is a part that generates an exclusion list 107 indicating an application that is not used for attention function estimation based on the application activation history table. Details will be described later.

つぎに、通信端末200の機能ブロックについて説明する。加速度センサ201は、通信端末200に対して与えられた加速度を検出するセンサである。 Next, the functional block of the communication terminal 200 will be described. The acceleration sensor 201 is a sensor that detects the acceleration given to the communication terminal 200.

角速度センサ202は、通信端末200に対して与えられた角速度を検出するセンサである。 The angular velocity sensor 202 is a sensor that detects an angular velocity given to the communication terminal 200.

傾きセンサ203は、通信端末200がどの姿勢であるか、その傾きを検出するセンサである。 The tilt sensor 203 is a sensor that detects the posture of the communication terminal 200 and its tilt.

画面on/offセンサ204は、通信端末200の表示部(図示せず)がon/offの何れの状態であるかを検出するセンサである。例えば、画面on/offセンサ204は、表示部がスリープ状態であり、何も表示されていないか、またはホーム画面などの情報が表示されているかを検出する。 The screen on / off sensor 204 is a sensor that detects whether the display unit (not shown) of the communication terminal 200 is on / off. For example, the screen on / off sensor 204 detects whether the display unit is in the sleep state and nothing is displayed or information such as the home screen is displayed.

アプリ利用センサ205は、どのアプリケーションがユーザに利用されているか検出するセンサである。 The application usage sensor 205 is a sensor that detects which application is being used by the user.

GPS206は、通信端末200の位置情報を測位するための測位部である。 The GPS 206 is a positioning unit for positioning the position information of the communication terminal 200.

通信部207は、推定モデル実行装置100、そのほかネットワークと通信接続するための部分である。 The communication unit 207 is a part for communicating with the estimation model execution device 100 and other networks.

制御部208は、通信端末200を制御するための部分である。 The control unit 208 is a part for controlling the communication terminal 200.

プログラム209は、通信機能、そのほか所定の機能を通信端末200が実行するためのプログラムである。 The program 209 is a program for the communication terminal 200 to execute a communication function and other predetermined functions.

図4は、推定モデル実行装置100において、通信端末ログ収集部101が収集した各センサ値のセンサ値テーブルを示す図である。これらセンサ値は、上述した通信端末200の各センサにより取得された情報に基づく情報である。 FIG. 4 is a diagram showing a sensor value table of each sensor value collected by the communication terminal log collecting unit 101 in the estimation model execution device 100. These sensor values are information based on the information acquired by each sensor of the communication terminal 200 described above.

図4(a)は、加速度センサテーブル(図示せず)の具体例を示す。図4(b)は、角速度センサ、傾きセンサ、加速度センサ(重力成分除去後)に基づいてセンサ値のテーブルである。 FIG. 4A shows a specific example of the acceleration sensor table (not shown). FIG. 4B is a table of sensor values based on the angular velocity sensor, the tilt sensor, and the acceleration sensor (after removing the gravity component).

なお、本実施形態では、さらに通信端末200は、気圧センサ、バッテリログセンサ、照度センサなどを備え、推定モデル実行装置100は、それら情報を動きセンサのセンサ値として収集して、センサ値テーブルに記憶してもよい。図5(a)〜図5(c)に、その具体例を示す。 In the present embodiment, the communication terminal 200 further includes a pressure sensor, a battery log sensor, an illuminance sensor, and the like, and the estimation model execution device 100 collects such information as sensor values of the motion sensor and puts them in the sensor value table. You may remember. Specific examples thereof are shown in FIGS. 5 (a) to 5 (c).

図6は、画面on/off履歴テーブル(図6(a))、およびイヤホン接続履歴テーブル(図6(b))の具体例を示す。これらテーブルを総称して、図1においては、端末ログテーブルとしている。そのほか、端末ログテーブルは、後述する操作ログテーブル(図13参照)を記憶してもよい。なお、本実施形態の通信端末200は、イヤホン接続センサを備えることを明記していないが、このようなセンサを備えてもよい。 FIG. 6 shows a specific example of the screen on / off history table (FIG. 6 (a)) and the earphone connection history table (FIG. 6 (b)). These tables are collectively referred to as a terminal log table in FIG. In addition, the terminal log table may store an operation log table (see FIG. 13) described later. Although it is not specified that the communication terminal 200 of the present embodiment includes an earphone connection sensor, such a sensor may be provided.

図7は、測位履歴テーブルおよび滞留点テーブルの具体例を示す。これらテーブルを総称して、図1においては、位置情報テーブルとしている。測位履歴テーブルは、GPS206で得られた位置情報を記憶している。滞留点テーブルは、通信端末200の位置に基づいて、そのユーザがどのエリアに頻繁に滞在しているかを、クラスタリングしたことにより得られた情報である。図では、このテーブルは、滞留エリアのIDを示す滞留点ID、滞留点クラスタID、滞留点に滞在した滞在開始日時、およびその終了日時、緯度経度を対応付けている。 FIG. 7 shows specific examples of the positioning history table and the retention point table. These tables are collectively referred to as a position information table in FIG. The positioning history table stores the position information obtained by GPS 206. The retention point table is information obtained by clustering which area the user frequently stays in based on the position of the communication terminal 200. In the figure, this table associates a retention point ID indicating the ID of the retention area, a retention point cluster ID, a stay start date and time of staying at the retention point, an end date and time thereof, and latitude and longitude.

図8は、アプリ起動履歴テーブルおよびアプリ情報テーブル101bの具体例を示す。アプリ情報テーブル101bに記憶されているアプリ情報は、ログ情報ではないため、収集対象ではなく、事前に用意されることになる。アプリ起動履歴テーブルは、起動日時と、そのパッケージ名(アプリケーションID)を対応付けている。アプリ情報テーブルは、パッケージ名、アプリケーションのカテゴリを示すカテゴリ番号、通信機能を示すタグを対応付けている。タグは後から付加される情報であり、ここでは、通信機能を示す情報として付加されている。 FIG. 8 shows a specific example of the application activation history table and the application information table 101b. Since the application information stored in the application information table 101b is not log information, it is not a collection target and is prepared in advance. The application startup history table associates the startup date and time with the package name (application ID). The application information table is associated with a package name, a category number indicating an application category, and a tag indicating a communication function. The tag is information to be added later, and here, it is added as information indicating a communication function.

つぎに、推定モデル実行装置100の動作について説明する。図9は、注意機能スコア推定モデルの構築処理を示すフローチャートである。通信端末ログ収集部101は、一または複数のユーザが所持している一または複数の通信端末200からセンサ値、および端末ログ情報を収集する(S101)。利用特徴量計算部102は、センサ値および端末ログ情報に基づいて特徴量を計算する(S102)。推定モデル構築部105は、通信端末200の特徴量を説明変数として入力する(S103)。 Next, the operation of the estimation model execution device 100 will be described. FIG. 9 is a flowchart showing the construction process of the attention function score estimation model. The communication terminal log collecting unit 101 collects sensor values and terminal log information from one or more communication terminals 200 owned by one or more users (S101). The feature amount calculation unit 102 calculates the feature amount based on the sensor value and the terminal log information (S102). The estimation model construction unit 105 inputs the feature amount of the communication terminal 200 as an explanatory variable (S103).

一方で、各ユーザはGo−NoGoアプリに基づいた試験を受け、推定モデル構築部105は、その試験結果を取得する(S105)。そして、推定モデル構築部105は、Go−NoGo試験結果に基づいた注意機能の指標を目的変数として入力する(S106)。 On the other hand, each user takes a test based on the Go-NoGo application, and the estimation model construction unit 105 acquires the test result (S105). Then, the estimation model construction unit 105 inputs an index of the attention function based on the Go-NoGo test result as an objective variable (S106).

そして、推定モデル構築部105は、注意機能スコア推定モデルの構築処理を行い(S104)、当該注意機能スコア推定モデルを推定モデル記憶部106に記憶する(S107)。 Then, the estimation model construction unit 105 performs a construction process of the attention function score estimation model (S104), and stores the attention function score estimation model in the estimation model storage unit 106 (S107).

この処理により、注意機能スコア推定モデルを構築することができる。 By this process, the attention function score estimation model can be constructed.

図10は、推定モデル実行装置100が推定モデルを利用したユーザの注意機能の推定処理を行うフローチャートである。通信端末ログ収集部101は、一の通信端末200からセンサ値およびログ情報を収集して、各テーブルに記憶する(S201)。利用特徴量計算部102は、指定した時間単位でセンサ値および端末ログ情報を取得し、それらセンサ値および端末ログ情報に基づいて特徴量を計算する(S202)。注意機能推定部103は、計算した特徴量を注意機能スコア推定モデルに適用し(S203)、注意機能スコアを推定する(S204)。これにより、一の通信端末200を所持しているユーザの注意機能を推定することができる。 FIG. 10 is a flowchart in which the estimation model execution device 100 performs estimation processing of the user's attention function using the estimation model. The communication terminal log collecting unit 101 collects sensor values and log information from one communication terminal 200 and stores them in each table (S201). The feature amount calculation unit 102 acquires the sensor value and the terminal log information in the designated time unit, and calculates the feature amount based on the sensor value and the terminal log information (S202). The attention function estimation unit 103 applies the calculated feature amount to the attention function score estimation model (S203), and estimates the attention function score (S204). Thereby, the attention function of the user who possesses one communication terminal 200 can be estimated.

つぎに、アプリ起動ログから生成する特徴量の計算方法について説明する。図11は、その特徴量を計算する処理を示すフローチャートである。この特徴量生成処理は、注意機能スコア推定時および注意機能スコア推定モデル構築時において、実行される。 Next, the calculation method of the feature amount generated from the application startup log will be described. FIG. 11 is a flowchart showing a process of calculating the feature amount. This feature amount generation process is executed at the time of estimating the attention function score and at the time of constructing the attention function score estimation model.

利用特徴量計算部102は、所定の日付・所定期間の計算対象となるユーザの通信端末200のアプリ起動ログをログテーブル101aから取得する(S301)。 The usage feature amount calculation unit 102 acquires the application activation log of the user's communication terminal 200 to be calculated on a predetermined date and a predetermined period from the log table 101a (S301).

利用特徴量計算部102は、アプリ情報テーブル101bを参照して、カテゴリ番号ごとにアプリ起動ログを抽出する(S302)。 The usage feature amount calculation unit 102 refers to the application information table 101b and extracts the application startup log for each category number (S302).

そして、利用特徴量計算部102は、カテゴリ番号ごとに除外リストに記述されているアプリに該当するか否かをチェックし、さらに、アプリ起動ログに付加されるタグがCALL(通話機能)またはSMS(Short Message System)に該当するか否かをチェックする(S304〜S305)。 Then, the usage feature amount calculation unit 102 checks whether or not it corresponds to the application described in the exclusion list for each category number, and further, the tag added to the application startup log is CALL (call function) or SMS. It is checked whether or not it corresponds to (Short Message System) (S304 to S305).

そして、利用特徴量計算部102は、タグがCALLまたはSMSに該当するアプリについては、起動時間が閾値以下の利用を除外し(S306)、当該アプリの起動回数、起動時間、合計・起動時間平均を計算する(S307)。 Then, the usage feature amount calculation unit 102 excludes the use of the application whose tag corresponds to CALL or SMS from the use of the application whose activation time is equal to or less than the threshold value (S306), and the number of activations, activation time, total / activation time average of the application. Is calculated (S307).

また、利用特徴量計算部102は、CALLまたはSMS以外のアプリについては、起動回数、起動時間、合計・起動時間平均を計算する(S308)。 Further, the usage feature amount calculation unit 102 calculates the number of activations, the activation time, and the total / average activation time for applications other than CALL or SMS (S308).

利用特徴量計算部102は、これら計算した結果を特徴量とし(S309)、未処理のカテゴリ番号があるか否かをチェックして、未処理のカテゴリ番号がなくなるまで全てのアプリケーションに対して繰り返し処理する(S303)。 The usage feature amount calculation unit 102 uses these calculated results as feature amounts (S309), checks whether or not there is an unprocessed category number, and repeats for all applications until there is no unprocessed category number. Process (S303).

上記処理においては、利用特徴量計算部102は、アプリ起動ログを、例えば毎時、6時間単位、および終日単位など複数の時間単位で取得する。また、利用特徴量計算部102は、図7に示されるアプリ起動履歴テーブルおよびアプリ情報テーブル101bに基づいて、パッケージ名からカテゴリIDを抽出し、カテゴリIDごとに起動時間等を計算する。なお、アプリ情報テーブルにCALL(通話)のタグがついているアプリについては、そのタグ単位(CALL単位)に、発信数、着信数、合計数、通話時間合計(発信・着信・応答)、平均通話時間(発信・着信・応答)を計算してもよい。なお、前処理として5秒未満の履歴を除去してもよい。 In the above process, the usage feature amount calculation unit 102 acquires the application activation log in a plurality of time units such as hourly, 6-hour units, and all-day units. Further, the usage feature amount calculation unit 102 extracts the category ID from the package name based on the application activation history table and the application information table 101b shown in FIG. 7, and calculates the activation time and the like for each category ID. For apps that have a CALL (call) tag in the app information table, the number of outgoing calls, the number of incoming calls, the total number, the total call time (outgoing / incoming / answering), and the average call are in the tag unit (CALL unit). The time (outgoing / incoming / answering) may be calculated. As a preprocessing, the history of less than 5 seconds may be removed.

同様に、SMSのタグについては、そのタグ単位でSMSの起動数、合計起動時間、平均起動時間を計算してもよい。なお、前処理として3秒未満の履歴を除去してもよい。 Similarly, for SMS tags, the number of SMS activations, total activation time, and average activation time may be calculated for each tag. As a preprocessing, the history of less than 3 seconds may be removed.

つぎに、アプリ操作に基づいた端末ログ情報からの特徴量の生成処理について説明する。図12は、通信端末200の画面onからアプリ起動までの操作を示す操作ログの一例を示すための画面履歴の変遷を示す図である。 Next, the process of generating the feature amount from the terminal log information based on the application operation will be described. FIG. 12 is a diagram showing the transition of the screen history for showing an example of the operation log showing the operation from the screen on of the communication terminal 200 to the activation of the application.

画面G1は、時間t1の通信端末200の待機状態からスクリーンonイベント(ユーザが画面onの操作をした)が発生した後の画面である。 The screen G1 is a screen after a screen on event (a user operates the screen on) occurs from the standby state of the communication terminal 200 at time t1.

画面G2は、その後のロック解除のための操作受付状態を示す画面である。 The screen G2 is a screen showing an operation acceptance status for subsequent unlocking.

画面G3は、時間t2にアンロックイベント(パスワード入力完了)が完了した後のホーム画面を示す。時間Ton_unlockは、画面が表示され、ロックが解除されるまでの時間である。時間Ton_unlock=時間t2−時間t1である。 The screen G3 shows the home screen after the unlock event (password input completion) is completed at time t2. Time Ton_unlock is the time until the screen is displayed and the lock is released. Time Ton_unlock = time t2-time t1.

画面G4は、ユーザが時間t3にアプリのアイコンをタップし、その起動したアプリの画面を示す。時間Ths_tapは、ロック解除からアプリ起動までのユーザが操作した時間を示し、時間Ths_tap=時間t3−時間t2である。 The screen G4 shows the screen of the launched application when the user taps the application icon at time t3. The time Ths_tap indicates the time operated by the user from the unlocking to the start of the application, and the time Ths_tap = time t3-time t2.

時間Ton_unlockおよび時間Ths_tapは、操作ログに基づいた特徴量となる。 The time Ton_unlock and the time Ths_tap are features based on the operation log.

このように通信端末200の画面のon/offおよびアプリ起動ログを用いて、画面onからアプリ起動までの時間を計算し、起動時間を集計することで、ユーザ操作における効率性を計算することができる。すなわち、ユーザが効率的に操作できる場合には、ユーザには注意機能が発揮されていると判断することができる。 In this way, using the on / off of the screen of the communication terminal 200 and the application startup log, the time from the screen on to the application startup can be calculated, and the startup time can be totaled to calculate the efficiency in user operation. it can. That is, if the user can operate efficiently, it can be determined that the user is exerting the attention function.

図13は、上記の操作ログを記憶する操作ログテーブル(端末ログテーブル)の具体例である。図13に示されるとおり、ユーザID(UID)ごとに、時間、イベント、Valueが記述されている。イベントは上述したように、ユーザの操作イベントを示す。Valueは、アプリケーションを示す。 FIG. 13 is a specific example of an operation log table (terminal log table) that stores the above operation log. As shown in FIG. 13, a time, an event, and a value are described for each user ID (UID). As described above, the event indicates a user operation event. Value refers to an application.

イベントごとに時間が付されており、この時間に基づいて、時間Ton_unlockおよび時間Ths_tapを算出することができる。 A time is attached to each event, and the time Ton_unlock and the time Ths_tap can be calculated based on this time.

図14は、推定モデル実行装置100における、操作ログから特徴量を計算するときの処理を示すフローチャートである。 FIG. 14 is a flowchart showing the processing when the feature amount is calculated from the operation log in the estimation model execution device 100.

利用特徴量計算部102は、所定期間の計算対象ユーザの操作ログを操作ログテーブルから取得する(S401)。そして、利用特徴量計算部102は、Screen OnとApp Launchのペアを抽出する(S402)。 The usage feature amount calculation unit 102 acquires the operation log of the calculation target user for a predetermined period from the operation log table (S401). Then, the usage feature amount calculation unit 102 extracts a pair of Screen On and App Launch (S402).

利用特徴量計算部102は、抽出したScreen OnとApp Launchの全ペアのTimeStamp(時間)から所要時間を計算する(S403)。 The usage feature amount calculation unit 102 calculates the required time from the TimeStamp (time) of all the extracted Screen On and App Launch pairs (S403).

利用特徴量計算部102は、所要時間の平均値を計算し(S404)、平均値に基づいて効率性スコアを計算する(S405)。効率性スコアは以下の式のいずれかXに平均値を代入することで計算することができる。 The feature amount calculation unit 102 calculates the average value of the required time (S404), and calculates the efficiency score based on the average value (S405). The efficiency score can be calculated by substituting the average value for X in any of the following equations.

Y=AX+B
Y=exp(AX+B)
Y=log(AX+B)
また、これに限らず、Xに対してYが単調増加する式であればよい。また、AおよびBは、予め任意に設定した値とするが、これに限らず、ユーザにアンケートを行い、効率性を5段階で評価してもらい、機械学習により係数を設定してもよい。このアンケートは、例えば、ユーザ自身がスマートフォンなどの端末操作の効率性評価を入力できるチェック表に基づく方法が考えられる。
Y = AX + B
Y = exp (AX + B)
Y = log (AX + B)
Further, the present invention is not limited to this, and any formula may be used as long as Y monotonically increases with respect to X. Further, A and B are arbitrarily set values in advance, but the present invention is not limited to this, and the user may be asked to conduct a questionnaire to evaluate the efficiency in five stages, and the coefficient may be set by machine learning. For this questionnaire, for example, a method based on a checklist in which the user himself / herself can input an efficiency evaluation of terminal operation such as a smartphone can be considered.

なお、この効率性スコアを特徴量としてもよいし、その効率性スコアの元情報となる時間Ton_unlockおよび時間Ths_tapの平均値を特徴量としてもよい。 The efficiency score may be used as a feature amount, or the average value of time Ton_unlock and time Ths_tap, which are the source information of the efficiency score, may be used as a feature amount.

つぎに、図11において説明した除外リストの生成について説明する。除外リストは、ホーム画面、ランチャーなどユーザが意図して起動したものではないアプリを除外するための、アプリリストである。これを利用することにより、ユーザが操作しようとしたアプリ履歴を生成することができる。 Next, the generation of the exclusion list described with reference to FIG. 11 will be described. The exclusion list is an application list for excluding applications such as the home screen and launcher that are not intentionally started by the user. By using this, it is possible to generate the application history that the user tried to operate.

図15(a)は、アプリ(カテゴリ番号ごとに集計)ごとの一日の平均起動回数、起動された日数、TF(Term Frequency)、IDF(Inverse DocumentFrequency)、TF・IDFを対応付けた除外リストのための管理テーブルを示す。ここでは、TFは、1日における各アプリの平均起動回数を示し、IDFは、各アプリにおけるLog(集計単位の日数/起動された日数+1)を示す。集計単位の日数は、アプリの重要度を判断するための情報である。例えば、その集計単位を30日とすると、Log(30/起動日数+1)となる。その日数は任意に設定される。なお、TFは、平均起動回数に限らず、1日における使用頻度を示す情報であればよい。例えば、平均起動時間、所定期間における総起動回数などでもよい。また、IDFは、集計単位の日数において、どの程度アプリが使用されたかを示す式であればよく、上記の式に限定されるものではない。 FIG. 15A is an exclusion list associated with the average number of startups per day, the number of days activated, TF (Term Frequency), IDF (Inverse Document Frequency), and TF / IDF for each application (aggregated by category number). Shows the management table for. Here, TF indicates the average number of times each application is started in one day, and IDF indicates Log (number of days in aggregation unit / number of days activated + 1) in each application. The number of days in the aggregation unit is information for judging the importance of the application. For example, assuming that the aggregation unit is 30 days, it becomes Log (30 / number of start days + 1). The number of days is set arbitrarily. The TF is not limited to the average number of activations, and may be any information indicating the frequency of use in one day. For example, the average startup time, the total number of startups in a predetermined period, or the like may be used. Further, the IDF may be a formula indicating how much the application has been used in the number of days of the aggregation unit, and is not limited to the above formula.

カテゴリ番号ごとにTF・IDFスコアを計算することで、頻繁に使われるが、毎日使われるものではないアプリに重みをつけることで、重要なアプリを判断可能にするものである。 By calculating the TF / IDF score for each category number, it is possible to determine important apps by weighting apps that are frequently used but not used every day.

図15(a)の管理テーブルを例にとると、除外リスト生成部108が、アプリ起動履歴テーブルに基づいて、TF・IDFを求め、そのTF・IDFが閾値以下であるカテゴリ番号のアプリを除外リストに登録する。図15(b)は、除外リストの具体例であり、除外がtrueとなっているカテゴリ番号のアプリが除外リストとして定義されている。なお、閾値は事前に定めた数値でよいが、全アプリに対するTF・IDFの平均値または中央値をとった数値としてもよい。 Taking the management table of FIG. 15A as an example, the exclusion list generation unit 108 obtains TF / IDF based on the application activation history table, and excludes applications having category numbers whose TF / IDF is equal to or less than the threshold value. Register in the list. FIG. 15B is a specific example of the exclusion list, and the application of the category number in which the exclusion is true is defined as the exclusion list. The threshold value may be a predetermined numerical value, but may be a numerical value obtained by taking the average value or the median value of TF / IDF for all applications.

つぎに、本実施形態の推定モデル実行装置100の作用効果について説明する。この推定モデル実行装置100は、ユーザの注意機能を推定する推定処理装置であって、ユーザが所持している情報処理装置である通信端末200の各センサ(動きセンサ)のセンサ値に基づいて生成された特徴量を用いてユーザの注意機能を推定する注意機能推定部103を備える。 Next, the operation and effect of the estimation model execution device 100 of the present embodiment will be described. The estimation model execution device 100 is an estimation processing device that estimates the user's attention function, and is generated based on the sensor values of each sensor (motion sensor) of the communication terminal 200, which is an information processing device possessed by the user. The attention function estimation unit 103 for estimating the user's attention function using the obtained feature amount is provided.

上述実施形態では、推定モデル実行装置100は、通信端末200から送信されたセンサ値(または特徴量)を取得する通信端末ログ収集部101と、取得したセンサ値を特徴量に変換する利用特徴量計算部102と、備え、推定モデル実行装置100が特徴量を生成しているが、これに限るものではない。通信端末200において、利用特徴量計算部102相当の構成を備え、自ら取得したセンサ値から特徴量を生成し、推定モデル実行装置100は、それを受信してもよい。以降の説明においても同様である。 In the above-described embodiment, the estimation model execution device 100 has a communication terminal log collecting unit 101 that acquires a sensor value (or a feature amount) transmitted from the communication terminal 200, and a utilization feature amount that converts the acquired sensor value into a feature amount. The calculation unit 102 and the estimation model execution device 100 are provided, but the feature amount is generated, but the feature amount is not limited to this. The communication terminal 200 may have a configuration equivalent to the usage feature amount calculation unit 102, generate a feature amount from the sensor value acquired by itself, and the estimation model execution device 100 may receive the feature amount. The same applies to the following description.

この構成により、通信端末200の各センサのセンサ値からユーザの注意機能を推定することができる。したがって、ユーザの操作を検出することなく、ユーザが所持している通信端末200の動きからユーザの注意機能を推定することができる。ユーザの操作を必要としないことから、ユーザに意識させることなくその注意機能を推定できる。 With this configuration, the user's attention function can be estimated from the sensor value of each sensor of the communication terminal 200. Therefore, the attention function of the user can be estimated from the movement of the communication terminal 200 possessed by the user without detecting the operation of the user. Since no user operation is required, the attention function can be estimated without making the user aware of it.

また、推定モデル実行装置100は、複数のユーザのそれぞれのセンサ値および注意機能の指標(例えば、Go−NoGo試験の試験結果)を用いて構築された注意機能スコア推定モデルを用いてユーザの注意機能を判断する。 Further, the estimation model execution device 100 uses the attention function score estimation model constructed by using the respective sensor values of the plurality of users and the index of the attention function (for example, the test result of the Go-NoGo test), and the user's attention. Judge the function.

この注意機能スコア推定モデルは、自ら推定モデル構築部105を用いて構築されてもよいし、他のサーバ(推定モデル構築部105を相当の機能を有する)において構築されたモデルを用いてもよい。 This attention function score estimation model may be constructed by itself using the estimation model construction unit 105, or may use a model constructed by another server (the estimation model construction unit 105 has a considerable function). ..

この構成により、学習モデルを用いてユーザの注意機能を推定することができる。よって、簡易な処理でその推定処理を実現できる。 With this configuration, the user's attention function can be estimated using the learning model. Therefore, the estimation process can be realized by a simple process.

また、推定モデル実行装置100において、利用特徴量計算部102は、通信端末ログ収集部101により取得されたセンサ値から所定の時間単位に区分した特徴量を生成する。 Further, in the estimation model execution device 100, the utilization feature amount calculation unit 102 generates a feature amount divided into predetermined time units from the sensor values acquired by the communication terminal log collection unit 101.

この構成により、所定時間単位でユーザの注意機能の推定を行うことができる。所定時間単位を細かい時間単位および荒い時間単位の両方とすることで、ユーザの注意機能推定を精度よく行うことが可能である。 With this configuration, the user's attention function can be estimated in predetermined time units. By setting the predetermined time unit as both a fine time unit and a rough time unit, it is possible to accurately estimate the user's attention function.

また、通信端末ログ収集部101は、通信端末200に搭載される一つまたは複数の動きセンサのログを取得する。特に複数の動きセンサを用いることで、様々な特徴量を得ることが可能となり、ユーザの注意機能推定を精度よく行うことが可能である。 Further, the communication terminal log collecting unit 101 acquires the logs of one or more motion sensors mounted on the communication terminal 200. In particular, by using a plurality of motion sensors, it is possible to obtain various feature quantities, and it is possible to accurately estimate the user's attention function.

また、本実施形態の推定モデル実行装置100は、通信端末200で実行可能なーまたは複数のプログラムの起動状態を、操作ログ(アプリ起動ログを含む)として取得するプログラム管理部をさらに備える。このプログラム管理部は、通信端末ログ収集部101および端末ログテーブルで実現できる。利用特徴量計算部102は、動きセンサのセンサ値に加えて、この操作ログを特徴量に変換する。プログラムの起動状態は、プログラムが動作している起動時間または所定の状態からプログラムを起動するまでの起動開始時間を示す。 Further, the estimation model execution device 100 of the present embodiment further includes a program management unit that acquires the activation state of a plurality of programs that can be executed by the communication terminal 200 as an operation log (including an application activation log). This program management unit can be realized by the communication terminal log collecting unit 101 and the terminal log table. The feature amount calculation unit 102 converts this operation log into a feature amount in addition to the sensor value of the motion sensor. The start state of the program indicates the start time in which the program is operating or the start time from a predetermined state to the start of the program.

この構成により、動きセンサのみならず、ユーザのアプリケーションに対する起動操作などに基づいて、注意機能推定を可能とする。したがって、その推定精度を向上させることができる。 With this configuration, it is possible to estimate the attention function based not only on the motion sensor but also on the activation operation of the user's application. Therefore, the estimation accuracy can be improved.

また、利用特徴量計算部102は、プログラムのうち、所定の方法で定められたカテゴリに分類されるプログラムについての使用ログは、特徴量計算の対象から除外する。ここでは、除外リスト107に記述されているカテゴリのプログラムが除外される。 Further, the usage feature amount calculation unit 102 excludes the usage log of the program classified into the category defined by the predetermined method from the feature amount calculation target. Here, the programs of the categories described in the exclusion list 107 are excluded.

この構成により、ユーザの注意機能推定に影響を及ぼさないプログラムに対する使用ログを除外することで、その推定精度を向上させる。 This configuration improves the estimation accuracy by excluding usage logs for programs that do not affect the user's attention function estimation.

例えば、除外方法として、TF−IDFに基づいて、除外対象となるカテゴリを決定する。本実施形態においては、TFとしてアプリケーションごとに一日の平均起動回数、IDFとして、各アプリにおけるLog(集計単位の日数/起動された日数+1)とする。ただし、TFとして、アプリケーションの起動の頻度を表す指標、IDFとして、アプリケーションが異なる日または人単位で共通して使われている度合いを表す指標というものであれば、上記に限定するものではない。 For example, as an exclusion method, a category to be excluded is determined based on TF-IDF. In the present embodiment, the TF is the average number of startups per application for each application, and the IDF is the Log in each application (number of days in aggregation unit / number of days activated + 1). However, the TF is not limited to the above as long as it is an index showing the frequency of application startup and the IDF is an index showing the degree to which the application is commonly used on different days or on a person-by-person basis.

また、プログラムの起動状態は、所定の状態から前記プログラムを起動するまでの起動開始時間を含む。また、プログラムの起動状態は、起動された一または複数のプログラムのうち、通信に用いられるプログラムの起動回数、起動時間、および通信時間を含む。 Further, the start-up state of the program includes a start-up start time from a predetermined state to start-up of the program. Further, the start state of the program includes the start count, start time, and communication time of the program used for communication among one or more started programs.

ユーザの注意機能は、ユーザ操作の機敏さ、またはユーザが通話をしようとしている頻度に応じて決まるため、その推定精度を向上させることができる。 Since the user's attention function is determined according to the agility of the user's operation or the frequency with which the user is trying to make a call, the estimation accuracy can be improved.

なお、推定モデル実行装置100は、通信端末200からセンサ値等を取得する構成としているが、これに限るものではない。通信端末200が推定モデル実行装置100の主要機能(推定モデル記憶部106および注意機能推定部103)を有し、通信端末200が、推定モデルを利用した推定処理を行ってもよい。この場合、推定モデルは、推定モデル実行装置100またはそのほかモデル構築装置(図示せず)から取得してもよいし、通信端末200が自ら推定モデルの構築をしてもよい。 The estimation model execution device 100 is configured to acquire sensor values and the like from the communication terminal 200, but is not limited to this. The communication terminal 200 may have the main functions of the estimation model execution device 100 (estimation model storage unit 106 and attention function estimation unit 103), and the communication terminal 200 may perform estimation processing using the estimation model. In this case, the estimation model may be acquired from the estimation model execution device 100 or other model construction device (not shown), or the communication terminal 200 may construct the estimation model by itself.

上述推定モデル実行装置100は、推定モデル構築装置として機能してもよい。推定モデル構築装置として機能する場合、推定モデル実行装置100は、少なくとも推定モデル構築部105および推定モデル記憶部106を備える。注意機能推定処理を実行するための構成要件は除外されてもよい。 The estimation model execution device 100 may function as an estimation model construction device. When functioning as an estimation model construction device, the estimation model execution device 100 includes at least an estimation model construction unit 105 and an estimation model storage unit 106. Attention The configuration requirements for executing the function estimation process may be excluded.

上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。 The block diagram used in the description of the above embodiment shows a block of functional units. These functional blocks (components) are realized by any combination of at least one of hardware and software. Further, the method of realizing each functional block is not particularly limited. That is, each functional block may be realized by using one physically or logically connected device, or directly or indirectly (for example, two or more physically or logically separated devices). , Wired, wireless, etc.) and may be realized using these plurality of devices. The functional block may be realized by combining the software with the one device or the plurality of devices.

機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, search, confirmation, reception, transmission, output, access, solution, selection, selection, establishment, comparison, assumption, expectation, and assumption. There are broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc., but only these. I can't. For example, a functional block (constituent unit) for functioning transmission is called a transmitting unit or a transmitter. As described above, the method of realizing each of them is not particularly limited.

例えば、本開示の一実施の形態における推定モデル実行装置100および通信端末200などは、本開示の推定モデル実行方法および推定モデル構築方法の処理を行うコンピュータとして機能してもよい。図16は、本開示の一実施の形態に係る推定モデル実行装置100および通信端末200のハードウェア構成の一例を示す図である。上述の推定モデル実行装置100および通信端末200は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。 For example, the estimation model execution device 100 and the communication terminal 200 according to the embodiment of the present disclosure may function as a computer that processes the estimation model execution method and the estimation model construction method of the present disclosure. FIG. 16 is a diagram showing an example of the hardware configuration of the estimation model execution device 100 and the communication terminal 200 according to the embodiment of the present disclosure. The estimation model execution device 100 and the communication terminal 200 described above are physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like. May be good.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。推定モデル実行装置100および通信端末200のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 In the following description, the word "device" can be read as a circuit, a device, a unit, or the like. The hardware configuration of the estimation model execution device 100 and the communication terminal 200 may be configured to include one or more of the devices shown in the figure, or may be configured not to include some of the devices.

推定モデル実行装置100および通信端末200における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。 For each function of the estimation model execution device 100 and the communication terminal 200, the processor 1001 performs an operation by loading predetermined software (program) on hardware such as the processor 1001 and the memory 1002, and the communication device 1004 performs communication. It is realized by controlling or controlling at least one of reading and writing of data in the memory 1002 and the storage 1003.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。例えば、上述の利用特徴量計算部102、注意機能推定部103、推定モデル構築部105などは、プロセッサ1001によって実現されてもよい。 Processor 1001 operates, for example, an operating system to control the entire computer. The processor 1001 may be configured by a central processing unit (CPU) including an interface with a peripheral device, a control device, an arithmetic unit, a register, and the like. For example, the above-mentioned utilization feature amount calculation unit 102, attention function estimation unit 103, estimation model construction unit 105, and the like may be realized by the processor 1001.

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、利用特徴量計算部102などは、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 Further, the processor 1001 reads a program (program code), a software module, data, and the like from at least one of the storage 1003 and the communication device 1004 into the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described in the above-described embodiment is used. For example, the feature amount calculation unit 102 and the like may be realized by a control program stored in the memory 1002 and operating in the processor 1001, and may be realized in the same manner for other functional blocks. Although it has been explained that the various processes described above are executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. Processor 1001 may be implemented by one or more chips. The program may be transmitted from the network via a telecommunication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る推定モデル実行方法および推定モデル構築方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one such as a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). May be done. The memory 1002 may be referred to as a register, a cache, a main memory (main storage device), or the like. The memory 1002 can store a program (program code), a software module, or the like that can be executed to execute the estimation model execution method and the estimation model construction method according to the embodiment of the present disclosure.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。 The storage 1003 is a computer-readable recording medium, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, a magneto-optical disk (for example, a compact disk, a digital versatile disk, a Blu-ray). It may consist of at least one (registered trademark) disk), smart card, flash memory (eg, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like. The storage 1003 may be referred to as an auxiliary storage device. The storage medium described above may be, for example, a database, server or other suitable medium containing at least one of memory 1002 and storage 1003.

通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置1004は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。例えば、上述の通信端末ログ収集部101は、通信装置1004によって実現されてもよい。また、送受信機能が物理的に、または論理的に分離された実装がなされてもよい。 The communication device 1004 is hardware (transmission / reception device) for communicating between computers via at least one of a wired network and a wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like. Communication device 1004 includes, for example, a high frequency switch, a duplexer, a filter, a frequency synthesizer, and the like in order to realize at least one of frequency division duplex (FDD) and time division duplex (TDD). It may be composed of. For example, the communication terminal log collecting unit 101 described above may be realized by the communication device 1004. Further, the transmission / reception function may be physically or logically separated.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that receives an input from the outside. The output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that outputs to the outside. The input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).

また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。 Further, each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information. The bus 1007 may be configured by using a single bus, or may be configured by using a different bus for each device.

また、推定モデル実行装置100および通信端末200は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。 Further, the estimation model execution device 100 and the communication terminal 200 include a microprocessor, a digital signal processor (DSP: Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), an FPGA (Field Programmable Gate Array), and the like. It may be configured to include the hardware of the above, and a part or all of each functional block may be realized by the hardware. For example, processor 1001 may be implemented using at least one of these hardware.

情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。 Notification of information is not limited to the embodiments / embodiments described in the present disclosure, and may be performed by other methods. For example, information notification includes physical layer signaling (for example, DCI (Downlink Control Information), UCI (Uplink Control Information)), upper layer signaling (for example, RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, etc. It may be carried out by notification information (MIB (Master Information Block), SIB (System Information Block)), other signals, or a combination thereof. Further, the RRC signaling may be referred to as an RRC message, and may be, for example, an RRC Connection Setup message, an RRC Connection Reconfiguration message, or the like.

本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、NR(new Radio)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE−Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。 Each aspect / embodiment described in the present disclosure includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G (4th generation mobile communication system), and 5G (5th generation mobile communication). system), FRA (Future Radio Access), NR (new Radio), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi (registered trademark)) )), IEEE 802.16 (WiMAX®), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth®, and other systems that utilize and extend based on these. It may be applied to at least one of the next generation systems. Further, a plurality of systems may be applied in combination (for example, a combination of at least one of LTE and LTE-A and 5G).

本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The order of the processing procedures, sequences, flowcharts, and the like of each aspect / embodiment described in the present disclosure may be changed as long as there is no contradiction. For example, the methods described in the present disclosure present elements of various steps using exemplary order, and are not limited to the particular order presented.

情報等は、上位レイヤ(又は下位レイヤ)から下位レイヤ(又は上位レイヤ)へ出力され得る、複数のネットワークノードを介して入出力されてもよい。 Information and the like may be input / output via a plurality of network nodes that can be output from the upper layer (or lower layer) to the lower layer (or upper layer).

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input / output information and the like may be stored in a specific location (for example, memory), or may be managed using a management table. Input / output information and the like can be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by 1 bit (0 or 1), by a boolean value (Boolean: true or false), or by comparing numerical values (for example, a predetermined value). It may be done by comparison with the value).

本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect / embodiment described in the present disclosure may be used alone, in combination, or switched with execution. Further, the notification of predetermined information (for example, the notification of "being X") is not limited to the explicit notification, but is performed implicitly (for example, the notification of the predetermined information is not performed). May be good.

以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。 Although the present disclosure has been described in detail above, it is clear to those skilled in the art that the present disclosure is not limited to the embodiments described in the present disclosure. The present disclosure may be implemented as an amendment or modification without departing from the purpose and scope of the present disclosure, which is determined by the description of the scope of claims. Therefore, the description of the present disclosure is for the purpose of exemplary explanation and does not have any restrictive meaning to the present disclosure.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software is an instruction, instruction set, code, code segment, program code, program, subprogram, software module, whether called software, firmware, middleware, microcode, hardware description language, or another name. , Applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, features, etc. should be broadly interpreted to mean.

また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。 Further, software, instructions, information and the like may be transmitted and received via a transmission medium. For example, a website, where the software uses at least one of wired technology (coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL), etc.) and wireless technology (infrared, microwave, etc.). When transmitted from a server, or other remote source, at least one of these wired and wireless technologies is included within the definition of transmission medium.

本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described in the present disclosure may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may be voltage, current, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.

なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。例えば、チャネル及びシンボルの少なくとも一方は信号(シグナリング)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC:Component Carrier)は、キャリア周波数、セル、周波数キャリアなどと呼ばれてもよい。 The terms described in the present disclosure and the terms necessary for understanding the present disclosure may be replaced with terms having the same or similar meanings. For example, at least one of a channel and a symbol may be a signal (signaling). Also, the signal may be a message. Further, the component carrier (CC: Component Carrier) may be referred to as a carrier frequency, a cell, a frequency carrier, or the like.

本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" used in this disclosure are used interchangeably.

また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースはインデックスによって指示されるものであってもよい。 Further, the information, parameters, etc. described in the present disclosure may be expressed using absolute values, relative values from predetermined values, or using other corresponding information. It may be represented. For example, the radio resource may be one indicated by an index.

上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。 The names used for the above parameters are not limited in any respect. Further, mathematical formulas and the like using these parameters may differ from those explicitly disclosed in this disclosure. Since the various channels (eg, PUCCH, PDCCH, etc.) and information elements can be identified by any suitable name, the various names assigned to these various channels and information elements are in any respect limited names. is not.

本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 The terms "determining" and "determining" used in this disclosure may include a wide variety of actions. "Judgment" and "decision" are, for example, judgment (judging), calculation (calculating), calculation (computing), processing (processing), derivation (deriving), investigating (investigating), search (looking up, search, inquiry). It may include (eg, searching in a table, database or another data structure), ascertaining as "judgment" or "decision". Also, "judgment" and "decision" are receiving (for example, receiving information), transmitting (for example, transmitting information), input (input), output (output), and access. (Accessing) (for example, accessing data in memory) may be regarded as "judgment" or "decision". In addition, "judgment" and "decision" mean that "resolving", "selecting", "choosing", "establishing", "comparing", etc. are regarded as "judgment" and "decision". Can include. That is, "judgment" and "decision" may include that some action is regarded as "judgment" and "decision". Further, "judgment (decision)" may be read as "assuming", "expecting", "considering" and the like.

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or connection between two or more elements, and each other. It can include the presence of one or more intermediate elements between two "connected" or "combined" elements. The connection or connection between the elements may be physical, logical, or a combination thereof. For example, "connection" may be read as "access". As used in the present disclosure, the two elements use at least one of one or more wires, cables and printed electrical connections, and, as some non-limiting and non-comprehensive examples, the radio frequency domain. Can be considered to be "connected" or "coupled" to each other using electromagnetic energies having wavelengths in the microwave and light (both visible and invisible) regions.

本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 The phrase "based on" as used in this disclosure does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".

本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 When "include", "including" and variations thereof are used in the present disclosure, these terms are as comprehensive as the term "comprising". Is intended. Furthermore, the term "or" used in the present disclosure is intended not to be an exclusive OR.

本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In the present disclosure, if articles are added by translation, for example, a, an and the in English, the disclosure may include the nouns following these articles in the plural.

本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。 In the present disclosure, the term "A and B are different" may mean "A and B are different from each other". The term may mean that "A and B are different from C". Terms such as "separate" and "combined" may be interpreted in the same way as "different".

100…推定モデル実行装置、101…通信端末ログ収集部、101a…ログテーブル、101b…アプリ情報テーブル、102…利用特徴量計算部、103…注意機能推定部、104…推定結果表示部、105…推定モデル構築部、106…推定モデル記憶部、107…除外リスト、108…除外リスト生成部、200…通信端末、201…加速度センサ、202…角速度センサ、203…傾きセンサ、204…画面on/offセンサ、205…アプリ利用センサ、207…通信部、208…制御部、209…プログラム。 100 ... estimation model execution device, 101 ... communication terminal log collection unit, 101a ... log table, 101b ... application information table, 102 ... usage feature amount calculation unit, 103 ... attention function estimation unit, 104 ... estimation result display unit, 105 ... Estimated model construction unit, 106 ... Estimated model storage unit, 107 ... Exclusion list, 108 ... Exclusion list generation unit, 200 ... Communication terminal, 201 ... Acceleration sensor, 202 ... Angle speed sensor, 203 ... Tilt sensor, 204 ... Screen on / off Sensor, 205 ... App usage sensor, 207 ... Communication unit, 208 ... Control unit, 209 ... Program.

Claims (12)

ユーザが所持している情報処理装置の動きセンサのセンサ値に基づいて生成された特徴量を用いてユーザの注意機能を推定する注意機能推定部、
を備える推定処理装置。
Attention function estimation unit that estimates the user's attention function using the feature amount generated based on the sensor value of the motion sensor of the information processing device possessed by the user.
An estimation processing device comprising.
前記注意機能推定部は、
複数のユーザのそれぞれのセンサ値および注意機能の指標を用いて構築された推定モデルを用いてユーザの注意機能を判断する、
請求項1に記載の推定処理装置。
The attention function estimation unit
Judgment of a user's attention function using an estimation model constructed using the respective sensor values of multiple users and the index of attention function.
The estimation processing device according to claim 1.
前記複数のユーザのそれぞれのセンサ値および注意機能の指標を用いて、前記推定モデルを構築する推定モデル構築部をさらに備える、
請求項2に記載の推定処理装置。
An estimation model construction unit for constructing the estimation model is further provided by using the respective sensor values of the plurality of users and the index of the attention function.
The estimation processing device according to claim 2.
前記注意機能推定部は、前記センサ値から所定の時間単位に区分して生成された特徴量を用いて推定する、
請求項1〜3のいずれか一項に記載の推定処理装置。
The attention function estimation unit estimates using the feature amount generated by dividing the sensor value into predetermined time units.
The estimation processing apparatus according to any one of claims 1 to 3.
前記特徴量は、前記情報処理装置に搭載される一つまたは複数の動きセンサのログに基づいて生成される、
請求項1〜4のいずれか一項に記載の推定処理装置。
The feature amount is generated based on the logs of one or a plurality of motion sensors mounted on the information processing device.
The estimation processing device according to any one of claims 1 to 4.
前記特徴量は、前記情報処理装置で実行可能なーまたは複数のプログラムの起動状態から取得された使用ログに基づいて、生成され、
前記プログラムの起動状態は、前記プログラムが動作している起動時間または所定の状態から前記プログラムを起動するまでの起動開始時間を示す、
請求項1〜5のいずれか一項に記載の推定処理装置。
The feature amount is generated based on the usage log acquired from the start state of the information processing apparatus or a plurality of programs.
The start state of the program indicates the start time during which the program is operating or the start time from a predetermined state until the program is started.
The estimation processing device according to any one of claims 1 to 5.
前記特徴量は、前記プログラムのうち、所定の方法で定められたカテゴリに分類されるプログラムについての使用ログは除外されて生成される、請求項6に記載の推定処理装置。 The estimation processing device according to claim 6, wherein the feature amount is generated by excluding usage logs for programs classified into a category defined by a predetermined method among the programs. 前記所定の方法として、前記プログラムのカテゴリごとに算出されたTF−IDFに基づいて、除外対象となるカテゴリを決定する、請求項7に記載の推定処理装置。 The estimation processing apparatus according to claim 7, wherein as the predetermined method, a category to be excluded is determined based on TF-IDF calculated for each category of the program. 前記プログラムの起動状態は、所定の状態から前記プログラムを起動するまでの起動開始時間を含む、請求項6〜8の何れか一項に記載の推定処理装置。 The estimation processing device according to any one of claims 6 to 8, wherein the activation state of the program includes an activation start time from a predetermined state to activation of the program. 前記プログラムの起動状態は、起動された一または複数のプログラムのうち、通信に用いられるプログラムの起動回数、起動時間、および通信時間を含む、
請求項6〜9のいずれか一項に記載の推定処理装置。
The start state of the program includes the start count, start time, and communication time of the program used for communication among one or more started programs.
The estimation processing apparatus according to any one of claims 6 to 9.
推定した注意機能を提示する注意機能提示部をさらに備える、請求項1〜10のいずれか一項に記載の推定処理装置。 The estimation processing device according to any one of claims 1 to 10, further comprising an attention function presenting unit that presents an estimated attention function. 一又は複数のユーザが所持している一又は複数の情報処理装置の動きセンサのセンサ値に基づいて生成された一又は複数の特徴量と、前記一又は複数のユーザの注意機能の指標とを取得し、
前記特徴量を説明変数として前記注意機能の指標を教師データとした機械学習によって、ユーザの注意機能を推定する推定モデルを構築する推定モデル構築装置。



One or more feature quantities generated based on the sensor values of the motion sensors of one or more information processing devices possessed by one or more users, and the index of the attention function of the one or more users. Acquired,
An estimation model construction device that constructs an estimation model that estimates a user's attention function by machine learning using the feature amount as an explanatory variable and the index of the attention function as teacher data.



JP2019071862A 2019-04-04 2019-04-04 Estimation processing device and estimation model construction device Active JP7297236B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019071862A JP7297236B2 (en) 2019-04-04 2019-04-04 Estimation processing device and estimation model construction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019071862A JP7297236B2 (en) 2019-04-04 2019-04-04 Estimation processing device and estimation model construction device

Publications (2)

Publication Number Publication Date
JP2020170382A true JP2020170382A (en) 2020-10-15
JP7297236B2 JP7297236B2 (en) 2023-06-26

Family

ID=72746737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019071862A Active JP7297236B2 (en) 2019-04-04 2019-04-04 Estimation processing device and estimation model construction device

Country Status (1)

Country Link
JP (1) JP7297236B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211574A (en) * 2008-03-06 2009-09-17 Hitachi Ltd Server and sensor network system for measuring quality of activity
JP2014230717A (en) * 2013-05-30 2014-12-11 トヨタ自動車株式会社 Concentration level estimation device
JP2016062381A (en) * 2014-09-19 2016-04-25 富士ゼロックス株式会社 Information processing apparatus and program
JP2018181004A (en) * 2017-04-14 2018-11-15 株式会社Nttドコモ Teacher data generation device
JP2019004924A (en) * 2017-06-20 2019-01-17 株式会社東芝 System and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211574A (en) * 2008-03-06 2009-09-17 Hitachi Ltd Server and sensor network system for measuring quality of activity
JP2014230717A (en) * 2013-05-30 2014-12-11 トヨタ自動車株式会社 Concentration level estimation device
JP2016062381A (en) * 2014-09-19 2016-04-25 富士ゼロックス株式会社 Information processing apparatus and program
JP2018181004A (en) * 2017-04-14 2018-11-15 株式会社Nttドコモ Teacher data generation device
JP2019004924A (en) * 2017-06-20 2019-01-17 株式会社東芝 System and method

Also Published As

Publication number Publication date
JP7297236B2 (en) 2023-06-26

Similar Documents

Publication Publication Date Title
US11086290B2 (en) Electronic apparatus for monitoring state of machine tool and control method thereof
AU2015355747B2 (en) Device for performing communication and method thereof
CN108228270B (en) Starting resource loading method and device
US9870406B2 (en) User recommendation method and system in SNS community, and computer storage medium
CN106055300B (en) Method for controlling sound output and electronic device thereof
EP3291618B1 (en) Method for recognizing location and electronic device implementing the same
US10491548B2 (en) Techniques to configure bot flow
CN108605205B (en) Apparatus and method for determining position of electronic device
KR102656490B1 (en) Electronic device and method for determining positions
CN108702295A (en) The electronic equipment and its operating method being authenticated based on biological data
CN108702421A (en) For controlling using the electronic equipment and method with component
CN110326276B (en) Electronic device and computer-readable recording medium
US10089168B2 (en) Self-healing charging device
EP3219132A2 (en) User authentication confidence based on multiple devices
CN111491552A (en) Sensor channels grouped by context for healthcare monitoring
CN108632858A (en) Method for providing shared service and its electronic equipment of support
JP2018041189A (en) Communication terminal, server device, store recommendation method, and program
US20140274007A1 (en) System and Method for Enhancing the Probability of a Successful Communication Event Between the Users of Mobile Devices within an Intended Period of Time
EP3198702B1 (en) Self-healing charging device
US20190317662A1 (en) Information providing method and electronic device supporting same
JP2020170382A (en) Estimation processing device and estimation model construction device
JP2020095293A (en) Human relationship estimation device
WO2019216046A1 (en) Information processing device
JP2020166703A (en) Risk estimating apparatus
JP6705038B1 (en) Action support device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190524

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230606

R150 Certificate of patent or registration of utility model

Ref document number: 7297236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150