JP7297236B2 - Estimation processing device and estimation model construction device - Google Patents

Estimation processing device and estimation model construction device Download PDF

Info

Publication number
JP7297236B2
JP7297236B2 JP2019071862A JP2019071862A JP7297236B2 JP 7297236 B2 JP7297236 B2 JP 7297236B2 JP 2019071862 A JP2019071862 A JP 2019071862A JP 2019071862 A JP2019071862 A JP 2019071862A JP 7297236 B2 JP7297236 B2 JP 7297236B2
Authority
JP
Japan
Prior art keywords
activation
estimation
attention function
estimation model
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019071862A
Other languages
Japanese (ja)
Other versions
JP2020170382A (en
Inventor
尚志 濱谷
桂一 落合
直樹 山本
佑介 深澤
勝敏 木本
貴記 前田
悠理 寺澤
宰 沖村
順 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Keio University
University of Tokyo NUC
Original Assignee
NTT Docomo Inc
Keio University
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc, Keio University, University of Tokyo NUC filed Critical NTT Docomo Inc
Priority to JP2019071862A priority Critical patent/JP7297236B2/en
Publication of JP2020170382A publication Critical patent/JP2020170382A/en
Application granted granted Critical
Publication of JP7297236B2 publication Critical patent/JP7297236B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、ユーザの注意機能を推定するための推定処理装置及び推定モデル構築装置に関する。 The present invention relates to an estimation processing device and an estimation model building device for estimating user's attention function.

注意機能の低下は、労働生産性の低下につながるため国際的な問題となっている。そこで、人の注意機能を定量的に計ることが考えられている。例えば、PVT・Go-NoGoなどの認知機能テストを実施することが考えられているが、本テストの実施には数分必要であり、かつ経時的な変化を捉えるためには一日に複数回試験を実施する必要があった。そのため、ユーザの負担が大きい。したがって、自動で注意機能の高低を判断するシステムが有用である。 A decline in attentional function has become an international problem because it leads to a decline in labor productivity. Therefore, it is considered to quantitatively measure human attention function. For example, it is considered to conduct cognitive function tests such as PVT and Go-NoGo, but this test requires several minutes, and in order to capture changes over time, it is necessary to perform multiple tests a day. It was necessary to conduct a test. Therefore, the burden on the user is heavy. Therefore, a system that automatically judges whether the attentional function is high or low would be useful.

非特許文献1には、スマートフォンの画面点灯回数・点灯時間や睡眠時間などの特徴量に基づいて、機械学習モデルにより人の注意機能(PVT試験の応答速度)を推定することが記載されている。 Non-Patent Document 1 describes estimating human attention function (response speed of PVT test) using a machine learning model based on feature values such as the number of times the smartphone screen is lit, lighting time, and sleep time. .

Cognitive Rhythms: Unobtrusive and Continuous Sensing of AlertnessUsing a Mobile PhoneSaeedAbdullah, Elizabeth Murnane, Mark Matthews, Matthew Kay, Julie Kientz, GeriGay, Tanzeem Choudhury, Proceedings of the 2016 ACM International JointConference on Pervasive and Ubiquitous Computing. ACM, 2016.[平成30年2月6日検索]<http://pac.cs.cornell.edu/pubs/Ubicomp2016_CognitiveRhythms.pdf>Cognitive Rhythms: Unobtrusive and Continuous Sensing of AlertnessUsing a Mobile PhoneSaeedAbdullah, Elizabeth Murnane, Mark Matthews, Matthew Kay, Julie Kientz, GeriGay, Tanzeem Choudhury, Proceedings of the 2016 ACM International Joint Conference on Pervasive and Ubiquitous Computing. Retrieved February 6, 2016] <http://pac.cs.cornell.edu/pubs/Ubicomp2016_CognitiveRhythms.pdf>

しかしながら、画面の点灯といったスマートフォンの使い方に関する特徴量は、スマートフォンを利用しないと得られないため、実環境での労働中やタスクに集中している状況(スマートフォンを利用できない状況)では、特徴量が得られないことが想定される。 However, feature values related to how to use a smartphone, such as the lighting of the screen, cannot be obtained without using a smartphone. It is assumed that it will not be obtained.

そこで、本発明は、ユーザがスマートフォンなどの端末を使用していない場合においても、受動的に注意機能を測定することができる情報を収集して判断することのできる推定処理装置及び推定モデル構築装置を提供することを目的とする。 Therefore, the present invention provides an estimation processing device and an estimation model construction device that can collect and judge information that can passively measure the attention function even when the user is not using a terminal such as a smartphone. intended to provide

上述の課題を解決するために、本発明の推定処理装置は、ユーザが所持している情報処理装置の動きセンサのセンサ値に基づいて生成された特徴量を用いてユーザの注意機能を推定する注意機能推定部、を備える。 In order to solve the above-described problems, an estimation processing device of the present invention estimates a user's attention function using feature values generated based on sensor values of a motion sensor of an information processing device owned by the user. an attentional function estimator.

この発明によれば、ユーザの操作を検出することなく、ユーザが所持している通信端末の動きからユーザの注意機能を推定することができる。ユーザの操作を必要としないことから、ユーザに意識させることなくその注意機能を推定できる。なお、「ユーザが通信端末を所持している」とは、ユーザが通信端末を手に持ったり身に付けたりするなどにより通信端末を保持する態様に限らず、通信端末が、ユーザの任意に操作可能な状態、例えば、ユーザの手の届く所定の場所に置かれる場合を含む。 According to this invention, it is possible to estimate the attention function of the user from the movement of the communication terminal held by the user without detecting the operation of the user. Since the user's operation is not required, the attention function can be estimated without making the user aware of it. Note that "a user possesses a communication terminal" is not limited to a form in which the user holds the communication terminal by holding it in his/her hand or on his/her body. It includes a state in which it is operable, for example, a state in which it is placed in a predetermined place within reach of the user.

本発明によると、ユーザの操作を検出することなく、ユーザが所持している通信端末の動きからユーザの注意機能を推定することができる。 According to the present invention, the attention function of the user can be estimated from the movement of the communication terminal held by the user without detecting the user's operation.

本実施形態の推定モデル実行装置100および通信端末200の機能構成を示すブロック図である。2 is a block diagram showing functional configurations of an estimation model execution device 100 and a communication terminal 200 of this embodiment; FIG. 注意機能スコア推定モデルを生成するときの生成処理を示す模式図である。FIG. 4 is a schematic diagram showing generation processing when generating an attention function score estimation model; ユーザIDごとに、日付と、注意機能スコアと、各センサ値のセンサ値ログなどの特徴量とを対応付けたテーブルである。It is a table that associates dates, attention function scores, and feature quantities such as sensor value logs of each sensor value for each user ID. 通信端末ログ収集部101が収集した各センサ値のセンサ値テーブルを示す図である。4 is a diagram showing a sensor value table of each sensor value collected by the communication terminal log collection unit 101; FIG. 他の例におけるセンサ値テーブルを示す図である。It is a figure which shows the sensor value table in another example. 画面on/off履歴テーブルおよびイヤホン接続履歴テーブルの具体例を示す。Specific examples of a screen on/off history table and an earphone connection history table are shown. 測位履歴テーブルおよび滞留点テーブルの具体例を示す。Specific examples of a positioning history table and a stay point table are shown. アプリ起動履歴テーブルおよびアプリ情報テーブル101bの具体例を示す。Specific examples of an application activation history table and an application information table 101b are shown. 注意機能スコア推定モデルの構築処理を示すフローチャートである。FIG. 11 is a flow chart showing a process of constructing an attention function score estimation model; FIG. 推定モデル実行装置100が推定モデルを利用したユーザの注意機能の推定処理を行うフローチャートである。FIG. 10 is a flow chart in which the estimation model execution device 100 performs a process of estimating a user's attention function using an estimation model; FIG. アプリ起動ログから特徴量を計算する処理を示すフローチャートである。9 is a flowchart showing processing for calculating a feature amount from an application activation log; 通信端末200の画面onからアプリ起動までの操作を示す端末ログの一例を示すための画面履歴の変遷を示す図である。FIG. 10 is a diagram showing changes in screen history for showing an example of a terminal log showing operations from turning on the screen of the communication terminal 200 to starting an application; 操作ログを記憶する操作ログテーブルの具体例である。It is a specific example of an operation log table that stores operation logs. 操作ログから特徴量を計算するときの処理を示すフローチャートである。9 is a flow chart showing processing when calculating a feature amount from an operation log; 除外リストを生成するための管理テーブルおよびその除外リストの例を示す図である。FIG. 10 is a diagram showing an example of a management table for generating an exclusion list and its exclusion list; 本開示の一実施の形態に係る推定モデル実行装置100および通信端末200のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of hardware configurations of estimation model execution device 100 and communication terminal 200 according to an embodiment of the present disclosure; FIG.

添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。 Embodiments of the present invention will be described with reference to the accompanying drawings. Where possible, the same parts are denoted by the same reference numerals, and duplicate descriptions are omitted.

図1は、本実施形態の推定モデル実行装置100および通信端末200の機能構成を示すブロック図である。図1に示されるとおり、推定モデル実行装置100は、通信端末に備えられている各動きセンサの動作ログを取得することができる。推定モデル実行装置100は、通信端末ログ収集部101(センサ値取得部、プログラム管理部)、ログテーブル101a(プログラム管理部)、アプリ情報テーブル101b、利用特徴量計算部102(特徴量変換部)、注意機能推定部103(注意機能推定部)、推定結果表示部104(注意機能提示部)、推定モデル構築部105(推定モデル構築部)、推定モデル記憶部106、除外リスト107、および除外リスト生成部108を含んで構成されている。また、通信端末200は、加速度センサ201、角速度センサ202、傾きセンサ203、画面on/offセンサ204、アプリ利用センサ205、GPS206、通信部207、制御部208、プログラム209を含んで構成されている。以下、各構成について説明する。これら構成は一例であり、必ずしも全てが必須の構成ではない。例えば、除外リスト107および除外リスト生成部108は無くてもよい。 FIG. 1 is a block diagram showing functional configurations of an estimation model execution device 100 and a communication terminal 200 of this embodiment. As shown in FIG. 1, the estimation model execution device 100 can acquire the operation log of each motion sensor provided in the communication terminal. The estimation model execution device 100 includes a communication terminal log collection unit 101 (sensor value acquisition unit, program management unit), a log table 101a (program management unit), an application information table 101b, and a usage feature amount calculation unit 102 (feature amount conversion unit). , attention function estimation unit 103 (attention function estimation unit), estimation result display unit 104 (attention function presentation unit), estimation model construction unit 105 (estimation model construction unit), estimation model storage unit 106, exclusion list 107, and exclusion list It is configured including a generation unit 108 . Further, the communication terminal 200 includes an acceleration sensor 201, an angular velocity sensor 202, an inclination sensor 203, a screen on/off sensor 204, an application use sensor 205, a GPS 206, a communication section 207, a control section 208, and a program 209. . Each configuration will be described below. These configurations are examples, and not all of them are essential configurations. For example, the exclusion list 107 and the exclusion list generator 108 may be omitted.

通信端末ログ収集部101は、通信端末200に備えられている加速度センサ201、角速度センサ202、傾きセンサ203、および画面on/offセンサ204などのセンサ値、並びにアプリ利用センサ205のプログラム起動状態、画面オンオフおよび通信端末200の位置情報などの端末ログ情報を収集する部分である。なお、センサ値として、そのほかに、WIFIのアクセスポイント数、WIFIのアクセス率などを収集する。この場合、通信端末200の通信部が動きセンサに相当する。通信端末ログ収集部101は、有線または無線により、通信端末200と通信接続することができる。 The communication terminal log collection unit 101 collects sensor values such as the acceleration sensor 201, the angular velocity sensor 202, the tilt sensor 203, and the screen on/off sensor 204 provided in the communication terminal 200, the program activation state of the application use sensor 205, This is a part that collects terminal log information such as screen on/off and position information of the communication terminal 200 . As sensor values, the number of WIFI access points, WIFI access rate, and the like are also collected. In this case, the communication unit of communication terminal 200 corresponds to the motion sensor. The communication terminal log collection unit 101 can communicate with the communication terminal 200 by wire or wirelessly.

ログテーブル101aは、加速度センサ、角速度センサなどの各センサ値を記憶するセンサ値テーブル、位置情報テーブル、アプリ起動履歴テーブル、および端末ログテーブルを含む。通信端末ログ収集部101は、収集した各センサ値、端末ログ情報(測位情報、アプリ起動情報、画面オンオフ)を、上記それぞれのテーブルに振り分けて記憶する。 The log table 101a includes a sensor value table that stores sensor values such as an acceleration sensor and an angular velocity sensor, a position information table, an application activation history table, and a terminal log table. The communication terminal log collection unit 101 sorts and stores the collected sensor values and terminal log information (positioning information, application activation information, screen on/off) into the respective tables.

アプリ情報テーブル101bは、アプリケーションのパッケージ名、カテゴリ番号、およびタグを対応付けて記憶するテーブルである。パッケージ名は、アプリケーションを特定するためのIDであり、アプリケーションIDである。カテゴリ番号は、アプリケーションのカテゴリを示す番号である。カテゴリ番号は、例えば、ソーシャル・交通・仕事最適化などのカテゴリを示す番号である。タグは、付加的な情報であり、本実施形態においては、CALL(電話)、SMSなどの通信アプリであることを示す情報が付加されている。 The application information table 101b is a table that associates and stores package names, category numbers, and tags of applications. A package name is an ID for specifying an application and is an application ID. The category number is a number indicating the category of the application. The category number is, for example, a number indicating a category such as social/transportation/work optimization. A tag is additional information, and in this embodiment, information indicating that it is a communication application such as CALL (telephone) or SMS is added.

利用特徴量計算部102は、ログテーブル101aにおける各センサ(加速度センサ201、角速度センサ202、傾きセンサ203、画面on/offセンサ204、アプリ利用センサ205、ほか通信状況(WIFIのアクセス状態)を検出するセンサなど)のセンサ値および端末ログ情報に基づいて特徴量を計算する部分である。例えば、特徴量は、センサ値の平均値、標準偏差、最大値、最小値、最大最小差、軸ペアの相関係数、総移動距離、画面オン回数、アプリ起動回数、時間帯WIFI接続オン率、観測WIFIアクセスポント数である。そのほか、加速度センサであれば、3軸のうち2軸の値系列のPearson相関係数、または3軸の二乗和の平方根(信号パワー)などを特徴量として算出する。ほか、角速度、傾き、加速度(重力成分除去)についても同様に算出してもよい。 The usage feature amount calculation unit 102 detects each sensor (acceleration sensor 201, angular velocity sensor 202, tilt sensor 203, screen on/off sensor 204, application usage sensor 205, and other communication status (WIFI access status) in the log table 101a. It is a part that calculates feature amounts based on sensor values and terminal log information. For example, the feature values are the average value of sensor values, standard deviation, maximum value, minimum value, maximum/minimum difference, correlation coefficient of axis pair, total moving distance, number of times screen is turned on, number of times application is started, time period WIFI connection turn-on rate. , is the number of observed WIFI access points. In addition, in the case of an acceleration sensor, the Pearson correlation coefficient of the value series of two of the three axes or the square root of the sum of squares of the three axes (signal power) is calculated as a feature amount. In addition, angular velocity, tilt, and acceleration (gravitational component removed) may also be calculated in the same manner.

この利用特徴量計算部102は、ユーザIDおよび日付を指定して、所定の時間帯ごとのセンサ値および端末ログ情報を各テーブルから取得することで、特徴量を計算することができる。例えば、利用特徴量計算部102は、毎時(1時間ごと)における加速度センサのセンサ値の平均値、6時間ごとの加速度センサのセンサ値の平均値、終日(24時間ごと)の加速度センサのセンサ値の平均値を算出する。 The usage feature quantity calculation unit 102 can calculate the feature quantity by designating the user ID and the date and acquiring the sensor values and terminal log information for each predetermined time period from each table. For example, the utilization feature amount calculation unit 102 calculates the average sensor value of the acceleration sensor every hour (every hour), the average sensor value of the acceleration sensor every 6 hours, the sensor value of the acceleration sensor all day (every 24 hours) Calculate the average of the values.

注意機能推定部103は、利用特徴量と、推定モデル記憶部106に記憶される推定モデルと、に基づいて、通信端末200を所持しているユーザの注意機能を推定する部分である。本実施形態における「注意機能」は、ユーザの集中力注意力、またはそれらに類するユーザの状態を意味するものである。推定モデルは、あらかじめ利用特徴量と、Go-NoGo試験結果とに基づいて学習されたモデルである。モデル構築処理については後述する。 The attention function estimation unit 103 is a part that estimates the attention function of the user possessing the communication terminal 200 based on the usage feature amount and the estimation model stored in the estimation model storage unit 106 . The "attention function" in this embodiment means the user's concentration and attention, or a similar state of the user. The estimation model is a model learned in advance based on the usage feature amount and the Go-NoGo test results. The model construction processing will be described later.

本実施形態においては、注意機能推定部103は、センサ値を、推定モデルに入力することで注意機能スコアを推定することが重要である。本実施形態におけるセンサ値は、通信端末200において受動的に得られたセンサ値であり、ユーザが必ずしも操作などをすることなく得られるセンサ値である。このようなセンサ値を用いることで、ユーザが端末操作をしていなくても、ユーザの注意機能を推定することができる。 In this embodiment, it is important that the attentional function estimation unit 103 estimates the attentional function score by inputting the sensor values into the estimation model. A sensor value in the present embodiment is a sensor value passively obtained in the communication terminal 200, and is a sensor value obtained without necessarily being operated by the user. By using such sensor values, the attention function of the user can be estimated even if the user does not operate the terminal.

推定結果表示部104は、通信端末200を所持しているユーザの注意機能を表示する部分である。なお、表示に限らず、ユーザの注意機能を提示する機能であればよい。また、推定結果表示部104は、表示にかえて、ユーザの注意機能を示した情報を、通信端末200に提示(通知)する機能としてもよい。 The estimation result display section 104 is a section that displays the attention function of the user who owns the communication terminal 200 . It should be noted that the present invention is not limited to the display, and may be any function as long as it presents a user's attention function. In addition, the estimation result display unit 104 may have a function of presenting (notifying) the communication terminal 200 with information indicating the user's attention function instead of the display.

推定モデル構築部105は、所定時間単位の通信端末200のセンサ値、端末ログ情報(アプリ起動履歴、画面オンオフログ、位置情報など)に基づいた特徴量を説明変数とし、および当該所定時間単位に対応付ける形で、当該通信端末200が、当該通信端末200をユーザから取得したGo-NoGo試験の結果を教師信号として、機械学習を行うことにより、推定モデルを構築する。 The estimation model construction unit 105 uses the feature amount based on the sensor value of the communication terminal 200 and the terminal log information (application activation history, screen on/off log, position information, etc.) for a predetermined time unit as an explanatory variable, and for the predetermined time unit In the form of correspondence, the communication terminal 200 builds an estimation model by performing machine learning using the result of the Go-NoGo test obtained from the user of the communication terminal 200 as a teacher signal.

例えば、推定モデル構築部105は、センサ値、端末ログ情報(アプリ起動履歴、画面オンオフ、位置測位など)のうち、所定時間単位に区別された情報に基づいて計算された特徴量を、利用特徴量計算部102から取得する。一方、推定モデル構築部105は、ユーザの注意機能の指標として、ユーザによるGo-NoGo試験結果を取得する。この試験結果は、上述の所定時間帯のセンサ値および端末ログ情報に基づいた特徴量に、時間帯を合わせて行われた情報としてもよいが、必ずしもこれに限るものではない。例えば、当日0-6時の特徴量を、当日12時に行った注意機能スコアと紐付けてもよい。 For example, the estimation model building unit 105 uses the feature amount calculated based on the information sorted by predetermined time units from among the sensor values and the terminal log information (application activation history, screen on/off, position measurement, etc.) as the usage feature. Acquired from the amount calculation unit 102 . On the other hand, the estimation model construction unit 105 acquires the user's Go-NoGo test result as an index of the user's attention function. This test result may be information obtained by matching the time period with the feature values based on the sensor values and the terminal log information in the predetermined time period, but it is not necessarily limited to this. For example, the feature value from 0:00 to 6:00 on the day may be associated with the attention function score obtained at 12:00 on the day.

例えば、推定モデル構築部105は、6時間単位の特徴量を得るとともに、ユーザは6時間ごとにGo-NoGo試験を受けてその結果を推定モデル構築部105は、取得する。 For example, the estimation model construction unit 105 obtains the feature amount in units of 6 hours, and the user takes a Go-NoGo test every 6 hours, and the estimation model construction unit 105 acquires the result.

そして、推定モデル構築部105は、特徴量を説明変数として、Go-NoGo試験結果を教師信号とした学習処理を行う。機械学習の手法としては、既存の手法を適用する。例えば、SVM(Support Vector Machine)、Random Forest、K近傍法、ニューラルネットワークなどを利用することができる。 Then, the estimation model construction unit 105 performs learning processing using the feature amount as an explanatory variable and the Go-NoGo test result as a teacher signal. Existing methods are applied as machine learning methods. For example, SVM (Support Vector Machine), Random Forest, K nearest neighbor method, neural network, etc. can be used.

図2を用いて、その構築処理について説明する。図2は、各センサのセンサ値、端末ログ情報およびGo-NoGo試験結果に基づいて注意機能スコア推定モデルを生成するときの生成処理を示す模式図である。入力S11は、通信端末200の各センサのセンサ値、アプリ起動履歴、端末ログおよび位置測位履歴(GPS)のログ情報を示す。これらセンサ値等のログ情報に基づいて、特徴量の計算がされて、出力S12に示される特徴量が計算される。 The construction processing will be described with reference to FIG. FIG. 2 is a schematic diagram showing generation processing when generating an attention function score estimation model based on sensor values of each sensor, terminal log information, and Go-NoGo test results. The input S11 indicates the log information of the sensor value of each sensor of the communication terminal 200, the application activation history, the terminal log, and the positioning history (GPS). Based on the log information such as these sensor values, the feature amount is calculated and the feature amount shown in the output S12 is calculated.

一方で、入力S13は、Go-NoGo試験アプリにおいてユーザが試験を受けていることを示す。Go-NoGo試験は、ユーザが通信端末200などの端末を操作し、Go-NoGo試験のためのアプリケーションを起動することで、行われる。試験結果は、そのアプリケーションを操作することにより、得られる情報である。その試験結果に基づいてスコア化処理を行うことで、出力S14が得られる。ここでは、Go-NoGo試験の正解率、Efficiency、Go反応時間の平均値、NoGo成功率などが、注意機能スコアとして、算出される。なお、Efficiencyとは、実際に計測したNoGo成功率と、その時のGo反応速度から算出した想定NoGo成功率の差を示している。 Input S13, on the other hand, indicates that the user is taking a test in the Go-NoGo test app. The Go-NoGo test is performed by the user operating a terminal such as communication terminal 200 and activating an application for the Go-NoGo test. A test result is information obtained by operating the application. An output S14 is obtained by performing a scoring process based on the test results. Here, the correct answer rate, efficiency, average Go reaction time, NoGo success rate, etc. of the Go-NoGo test are calculated as the attention function score. Efficiency indicates the difference between the actually measured NoGo success rate and the assumed NoGo success rate calculated from the Go reaction speed at that time.

そして、推定モデル構築部105は、出力S12で示される特徴量を説明変数とし、注意機能スコアを目的変数として注意機能スコア推定モデルの学習処理を行い、注意機能スコア推定モデルを構築することができる。 Then, the estimation model construction unit 105 can construct an attention function score estimation model by performing learning processing of the attention function score estimation model using the feature quantity indicated by the output S12 as an explanatory variable and the attention function score as an objective variable. .

図3は、ユーザIDごとに、日付と、注意機能スコア(図2の出力S14参照)と、各センサ値のセンサ値および端末ログ情報(アプリ起動履歴、画面オンオフなど)の特徴量(図2の出力S12参照)とを対応付けたテーブルである。注意機能スコアは、図2におけるS14で示されるGo-NoGo正解率等のうちいずれかまたは複数の情報で示される。例えば、この注意機能スコアとして、Go-NoGo正解率を用いる。 FIG. 3 shows, for each user ID, the date, the attention function score (see output S14 in FIG. 2), the sensor value of each sensor value, and the feature amount of terminal log information (application activation history, screen on/off, etc.) (Fig. 2 (see output S12 of ). The attention function score is indicated by one or a plurality of pieces of information such as the Go-No-Go accuracy rate shown in S14 in FIG. For example, the Go-NoGo accuracy rate is used as this attention function score.

推定モデル構築部105は、利用特徴量計算部102により計算された特徴量と、Go-NoGo試験結果に基づいて得られた注意機能スコアとに基づいて、図3に示されるテーブルを生成し、推定モデルの構築処理を行うことができる。なお、推定モデル構築部105は、ユーザごとに注意機能スコア推定モデルを生成するために、ユーザごとに、特徴量を抽出して、ユーザごとに構築する。なお、ユーザごとに推定モデルを構築しない場合には、全データを用いて推定モデルを構築してもよい。 The estimation model construction unit 105 generates the table shown in FIG. 3 based on the feature amount calculated by the usage feature amount calculation unit 102 and the attention function score obtained based on the Go-NoGo test result, An estimation model building process can be performed. In order to generate an attention function score estimation model for each user, the estimation model construction unit 105 extracts feature amounts for each user and constructs them for each user. In addition, when the estimation model is not constructed for each user, the estimation model may be constructed using all the data.

除外リスト生成部108は、アプリ起動履歴テーブルに基づいて、注意機能推定に使用しないアプリを示す除外リスト107を生成する部分である。詳細は後述する。 The exclusion list generation unit 108 is a part that generates an exclusion list 107 indicating applications that are not used for attention function estimation, based on the application activation history table. Details will be described later.

つぎに、通信端末200の機能ブロックについて説明する。加速度センサ201は、通信端末200に対して与えられた加速度を検出するセンサである。 Next, functional blocks of communication terminal 200 will be described. Acceleration sensor 201 is a sensor that detects acceleration applied to communication terminal 200 .

角速度センサ202は、通信端末200に対して与えられた角速度を検出するセンサである。 Angular velocity sensor 202 is a sensor that detects an angular velocity applied to communication terminal 200 .

傾きセンサ203は、通信端末200がどの姿勢であるか、その傾きを検出するセンサである。 The tilt sensor 203 is a sensor that detects the tilt of the communication terminal 200 to determine which posture it is in. FIG.

画面on/offセンサ204は、通信端末200の表示部(図示せず)がon/offの何れの状態であるかを検出するセンサである。例えば、画面on/offセンサ204は、表示部がスリープ状態であり、何も表示されていないか、またはホーム画面などの情報が表示されているかを検出する。 The screen on/off sensor 204 is a sensor that detects whether the display unit (not shown) of the communication terminal 200 is on or off. For example, the screen on/off sensor 204 detects whether the display unit is in a sleep state and nothing is displayed, or information such as a home screen is displayed.

アプリ利用センサ205は、どのアプリケーションがユーザに利用されているか検出するセンサである。 The application usage sensor 205 is a sensor that detects which application is being used by the user.

GPS206は、通信端末200の位置情報を測位するための測位部である。 GPS 206 is a positioning unit for positioning the position information of communication terminal 200 .

通信部207は、推定モデル実行装置100、そのほかネットワークと通信接続するための部分である。 The communication unit 207 is a part for communication connection with the estimation model execution device 100 and other networks.

制御部208は、通信端末200を制御するための部分である。 Control section 208 is a section for controlling communication terminal 200 .

プログラム209は、通信機能、そのほか所定の機能を通信端末200が実行するためのプログラムである。 The program 209 is a program for the communication terminal 200 to execute the communication function and other predetermined functions.

図4は、推定モデル実行装置100において、通信端末ログ収集部101が収集した各センサ値のセンサ値テーブルを示す図である。これらセンサ値は、上述した通信端末200の各センサにより取得された情報に基づく情報である。 FIG. 4 is a diagram showing a sensor value table of each sensor value collected by the communication terminal log collection unit 101 in the estimation model execution device 100. As shown in FIG. These sensor values are information based on information acquired by each sensor of the communication terminal 200 described above.

図4(a)は、加速度センサテーブル(図示せず)の具体例を示す。図4(b)は、角速度センサ、傾きセンサ、加速度センサ(重力成分除去後)に基づいてセンサ値のテーブルである。 FIG. 4(a) shows a specific example of an acceleration sensor table (not shown). FIG. 4B is a table of sensor values based on the angular velocity sensor, tilt sensor, and acceleration sensor (after removing the gravity component).

なお、本実施形態では、さらに通信端末200は、気圧センサ、バッテリログセンサ、照度センサなどを備え、推定モデル実行装置100は、それら情報を動きセンサのセンサ値として収集して、センサ値テーブルに記憶してもよい。図5(a)~図5(c)に、その具体例を示す。 In this embodiment, the communication terminal 200 further includes an air pressure sensor, a battery log sensor, an illuminance sensor, etc., and the estimation model execution device 100 collects these information as sensor values of the motion sensor and stores them in the sensor value table. You can remember. Specific examples are shown in FIGS. 5(a) to 5(c).

図6は、画面on/off履歴テーブル(図6(a))、およびイヤホン接続履歴テーブル(図6(b))の具体例を示す。これらテーブルを総称して、図1においては、端末ログテーブルとしている。そのほか、端末ログテーブルは、後述する操作ログテーブル(図13参照)を記憶してもよい。なお、本実施形態の通信端末200は、イヤホン接続センサを備えることを明記していないが、このようなセンサを備えてもよい。 FIG. 6 shows specific examples of a screen on/off history table (FIG. 6A) and an earphone connection history table (FIG. 6B). These tables are collectively referred to as a terminal log table in FIG. In addition, the terminal log table may store an operation log table (see FIG. 13), which will be described later. Although communication terminal 200 of the present embodiment does not explicitly include an earphone connection sensor, it may include such a sensor.

図7は、測位履歴テーブルおよび滞留点テーブルの具体例を示す。これらテーブルを総称して、図1においては、位置情報テーブルとしている。測位履歴テーブルは、GPS206で得られた位置情報を記憶している。滞留点テーブルは、通信端末200の位置に基づいて、そのユーザがどのエリアに頻繁に滞在しているかを、クラスタリングしたことにより得られた情報である。図では、このテーブルは、滞留エリアのIDを示す滞留点ID、滞留点クラスタID、滞留点に滞在した滞在開始日時、およびその終了日時、緯度経度を対応付けている。 FIG. 7 shows specific examples of the positioning history table and the staying point table. These tables are collectively referred to as a position information table in FIG. The positioning history table stores position information obtained by GPS 206 . The stay point table is information obtained by clustering which areas the user frequently stays in based on the position of communication terminal 200 . In the figure, this table associates a stay point ID indicating a stay area ID, a stay point cluster ID, a start date and time of stay at a stay point, an end date and time, and latitude and longitude.

図8は、アプリ起動履歴テーブルおよびアプリ情報テーブル101bの具体例を示す。アプリ情報テーブル101bに記憶されているアプリ情報は、ログ情報ではないため、収集対象ではなく、事前に用意されることになる。アプリ起動履歴テーブルは、起動日時と、そのパッケージ名(アプリケーションID)を対応付けている。アプリ情報テーブルは、パッケージ名、アプリケーションのカテゴリを示すカテゴリ番号、通信機能を示すタグを対応付けている。タグは後から付加される情報であり、ここでは、通信機能を示す情報として付加されている。 FIG. 8 shows specific examples of the application activation history table and the application information table 101b. Since the application information stored in the application information table 101b is not log information, it is not collected and is prepared in advance. The application launch history table associates launch dates and times with their package names (application IDs). The application information table associates package names, category numbers indicating application categories, and tags indicating communication functions. A tag is information added later, and is added here as information indicating a communication function.

つぎに、推定モデル実行装置100の動作について説明する。図9は、注意機能スコア推定モデルの構築処理を示すフローチャートである。通信端末ログ収集部101は、一または複数のユーザが所持している一または複数の通信端末200からセンサ値、および端末ログ情報を収集する(S101)。利用特徴量計算部102は、センサ値および端末ログ情報に基づいて特徴量を計算する(S102)。推定モデル構築部105は、通信端末200の特徴量を説明変数として入力する(S103)。 Next, the operation of estimation model execution device 100 will be described. FIG. 9 is a flowchart showing a process of constructing an attention function score estimation model. The communication terminal log collection unit 101 collects sensor values and terminal log information from one or more communication terminals 200 possessed by one or more users (S101). The used feature quantity calculation unit 102 calculates a feature quantity based on the sensor values and the terminal log information (S102). The estimation model construction unit 105 inputs the feature amount of the communication terminal 200 as an explanatory variable (S103).

一方で、各ユーザはGo-NoGoアプリに基づいた試験を受け、推定モデル構築部105は、その試験結果を取得する(S105)。そして、推定モデル構築部105は、Go-NoGo試験結果に基づいた注意機能の指標を目的変数として入力する(S106)。 On the other hand, each user takes a test based on the Go-NoGo application, and the estimation model construction unit 105 acquires the test result (S105). Then, the estimation model construction unit 105 inputs the index of the attention function based on the Go-NoGo test result as the objective variable (S106).

そして、推定モデル構築部105は、注意機能スコア推定モデルの構築処理を行い(S104)、当該注意機能スコア推定モデルを推定モデル記憶部106に記憶する(S107)。 Then, the estimated model construction unit 105 performs attention function score estimation model construction processing (S104), and stores the attention function score estimation model in the estimation model storage unit 106 (S107).

この処理により、注意機能スコア推定モデルを構築することができる。 By this processing, an attention function score estimation model can be constructed.

図10は、推定モデル実行装置100が推定モデルを利用したユーザの注意機能の推定処理を行うフローチャートである。通信端末ログ収集部101は、一の通信端末200からセンサ値およびログ情報を収集して、各テーブルに記憶する(S201)。利用特徴量計算部102は、指定した時間単位でセンサ値および端末ログ情報を取得し、それらセンサ値および端末ログ情報に基づいて特徴量を計算する(S202)。注意機能推定部103は、計算した特徴量を注意機能スコア推定モデルに適用し(S203)、注意機能スコアを推定する(S204)。これにより、一の通信端末200を所持しているユーザの注意機能を推定することができる。 FIG. 10 is a flow chart in which estimation model execution device 100 performs estimation processing of a user's attention function using an estimation model. The communication terminal log collection unit 101 collects sensor values and log information from one communication terminal 200 and stores them in each table (S201). The utilization feature amount calculation unit 102 acquires the sensor values and the terminal log information in the designated time unit, and calculates the feature amount based on the sensor values and the terminal log information (S202). The attention function estimation unit 103 applies the calculated feature amount to the attention function score estimation model (S203), and estimates the attention function score (S204). This makes it possible to estimate the attention function of the user who owns one communication terminal 200 .

つぎに、アプリ起動ログから生成する特徴量の計算方法について説明する。図11は、その特徴量を計算する処理を示すフローチャートである。この特徴量生成処理は、注意機能スコア推定時および注意機能スコア推定モデル構築時において、実行される。 Next, a method of calculating a feature amount generated from an application activation log will be described. FIG. 11 is a flow chart showing processing for calculating the feature amount. This feature amount generation processing is executed when estimating the attentional function score and constructing an attentional function score estimation model.

利用特徴量計算部102は、所定の日付・所定期間の計算対象となるユーザの通信端末200のアプリ起動ログをログテーブル101aから取得する(S301)。 The usage feature amount calculation unit 102 acquires the application activation log of the communication terminal 200 of the user to be calculated for a predetermined date and a predetermined period from the log table 101a (S301).

利用特徴量計算部102は、アプリ情報テーブル101bを参照して、カテゴリ番号ごとにアプリ起動ログを抽出する(S302)。 The usage feature amount calculation unit 102 refers to the application information table 101b and extracts an application activation log for each category number (S302).

そして、利用特徴量計算部102は、カテゴリ番号ごとに除外リストに記述されているアプリに該当するか否かをチェックし、さらに、アプリ起動ログに付加されるタグがCALL(通話機能)またはSMS(Short Message System)に該当するか否かをチェックする(S304~S305)。 Then, the usage feature amount calculation unit 102 checks whether or not each category number corresponds to an application described in the exclusion list, and furthermore, the tag added to the application activation log is CALL (call function) or SMS. (S304-S305).

そして、利用特徴量計算部102は、タグがCALLまたはSMSに該当するアプリについては、起動時間が閾値以下の利用を除外し(S306)、当該アプリの起動回数、起動時間、合計・起動時間平均を計算する(S307)。 Then, the usage feature amount calculation unit 102 excludes the usage of an application whose tag is CALL or SMS and whose activation time is equal to or less than a threshold value (S306), is calculated (S307).

また、利用特徴量計算部102は、CALLまたはSMS以外のアプリについては、起動回数、起動時間、合計・起動時間平均を計算する(S308)。 In addition, the usage feature amount calculation unit 102 calculates the number of times of activation, the activation time, and the total/average of the activation time for applications other than CALL or SMS (S308).

利用特徴量計算部102は、これら計算した結果を特徴量とし(S309)、未処理のカテゴリ番号があるか否かをチェックして、未処理のカテゴリ番号がなくなるまで全てのアプリケーションに対して繰り返し処理する(S303)。 The utilization feature amount calculation unit 102 uses these calculated results as feature amounts (S309), checks whether or not there is an unprocessed category number, and repeats for all applications until there is no unprocessed category number. process (S303).

上記処理においては、利用特徴量計算部102は、アプリ起動ログを、例えば毎時、6時間単位、および終日単位など複数の時間単位で取得する。また、利用特徴量計算部102は、図7に示されるアプリ起動履歴テーブルおよびアプリ情報テーブル101bに基づいて、パッケージ名からカテゴリIDを抽出し、カテゴリIDごとに起動時間等を計算する。なお、アプリ情報テーブルにCALL(通話)のタグがついているアプリについては、そのタグ単位(CALL単位)に、発信数、着信数、合計数、通話時間合計(発信・着信・応答)、平均通話時間(発信・着信・応答)を計算してもよい。なお、前処理として5秒未満の履歴を除去してもよい。 In the above processing, the usage feature amount calculation unit 102 acquires the application activation log in a plurality of time units such as every hour, every 6 hours, and every day. Further, the utilization feature amount calculation unit 102 extracts the category ID from the package name based on the application activation history table and the application information table 101b shown in FIG. 7, and calculates the activation time and the like for each category ID. For apps with a CALL (call) tag in the app information table, the number of outgoing calls, the number of incoming calls, the total number, the total call time (outgoing/incoming/answering), and the average call Time (outgoing/incoming/response) may be calculated. In addition, the history of less than 5 seconds may be removed as preprocessing.

同様に、SMSのタグについては、そのタグ単位でSMSの起動数、合計起動時間、平均起動時間を計算してもよい。なお、前処理として3秒未満の履歴を除去してもよい。 Similarly, for SMS tags, the number of SMS activations, the total activation time, and the average activation time may be calculated for each tag. In addition, the history of less than 3 seconds may be removed as preprocessing.

つぎに、アプリ操作に基づいた端末ログ情報からの特徴量の生成処理について説明する。図12は、通信端末200の画面onからアプリ起動までの操作を示す操作ログの一例を示すための画面履歴の変遷を示す図である。 Next, a feature amount generation process from terminal log information based on application operations will be described. FIG. 12 is a diagram showing changes in screen history for showing an example of an operation log showing operations from turning on the screen of communication terminal 200 to starting an application.

画面G1は、時間t1の通信端末200の待機状態からスクリーンonイベント(ユーザが画面onの操作をした)が発生した後の画面である。 Screen G1 is a screen after a screen-on event (the user performs an operation to turn on the screen) has occurred from the standby state of communication terminal 200 at time t1.

画面G2は、その後のロック解除のための操作受付状態を示す画面である。 The screen G2 is a screen showing a state of receiving an operation for unlocking after that.

画面G3は、時間t2にアンロックイベント(パスワード入力完了)が完了した後のホーム画面を示す。時間Ton_unlockは、画面が表示され、ロックが解除されるまでの時間である。時間Ton_unlock=時間t2-時間t1である。 Screen G3 shows the home screen after the unlock event (completion of password input) is completed at time t2. The time Ton_unlock is the time from when the screen is displayed until the screen is unlocked. Time Ton_unlock=Time t2-Time t1.

画面G4は、ユーザが時間t3にアプリのアイコンをタップし、その起動したアプリの画面を示す。時間Ths_tapは、ロック解除からアプリ起動までのユーザが操作した時間を示し、時間Ths_tap=時間t3-時間t2である。 Screen G4 shows the screen of the application that the user tapped on the application icon at time t3 and started. Time Ths_tap indicates the time during which the user has operated from unlocking to application activation, and time Ths_tap=time t3−time t2.

時間Ton_unlockおよび時間Ths_tapは、操作ログに基づいた特徴量となる。 Time Ton_unlock and time Ths_tap are feature amounts based on the operation log.

このように通信端末200の画面のon/offおよびアプリ起動ログを用いて、画面onからアプリ起動までの時間を計算し、起動時間を集計することで、ユーザ操作における効率性を計算することができる。すなわち、ユーザが効率的に操作できる場合には、ユーザには注意機能が発揮されていると判断することができる。 In this way, by using the on/off of the screen of the communication terminal 200 and the application activation log, the time from the screen on to the application activation is calculated, and the activation time is totaled, thereby calculating the efficiency of the user operation. can. In other words, if the user can operate efficiently, it can be determined that the user has a warning function.

図13は、上記の操作ログを記憶する操作ログテーブル(端末ログテーブル)の具体例である。図13に示されるとおり、ユーザID(UID)ごとに、時間、イベント、Valueが記述されている。イベントは上述したように、ユーザの操作イベントを示す。Valueは、アプリケーションを示す。 FIG. 13 is a specific example of an operation log table (terminal log table) that stores the above operation logs. As shown in FIG. 13, time, event, and value are described for each user ID (UID). The event indicates a user operation event, as described above. Value indicates an application.

イベントごとに時間が付されており、この時間に基づいて、時間Ton_unlockおよび時間Ths_tapを算出することができる。 A time is attached to each event, and the time Ton_unlock and the time Ths_tap can be calculated based on this time.

図14は、推定モデル実行装置100における、操作ログから特徴量を計算するときの処理を示すフローチャートである。 FIG. 14 is a flow chart showing processing when calculating a feature amount from an operation log in the estimation model execution device 100. As shown in FIG.

利用特徴量計算部102は、所定期間の計算対象ユーザの操作ログを操作ログテーブルから取得する(S401)。そして、利用特徴量計算部102は、Screen OnとApp Launchのペアを抽出する(S402)。 The usage feature amount calculation unit 102 acquires the operation log of the calculation target user for a predetermined period from the operation log table (S401). Then, the usage feature quantity calculation unit 102 extracts a pair of Screen On and App Launch (S402).

利用特徴量計算部102は、抽出したScreen OnとApp Launchの全ペアのTimeStamp(時間)から所要時間を計算する(S403)。 The usage feature amount calculation unit 102 calculates the required time from the TimeStamp (time) of all the extracted pairs of Screen On and App Launch (S403).

利用特徴量計算部102は、所要時間の平均値を計算し(S404)、平均値に基づいて効率性スコアを計算する(S405)。効率性スコアは以下の式のいずれかXに平均値を代入することで計算することができる。 The usage feature amount calculation unit 102 calculates the average value of the required time (S404), and calculates the efficiency score based on the average value (S405). The efficiency score can be calculated by substituting the average value for X in any of the following formulas.

Y=AX+B
Y=exp(AX+B)
Y=log(AX+B)
また、これに限らず、Xに対してYが単調増加する式であればよい。また、AおよびBは、予め任意に設定した値とするが、これに限らず、ユーザにアンケートを行い、効率性を5段階で評価してもらい、機械学習により係数を設定してもよい。このアンケートは、例えば、ユーザ自身がスマートフォンなどの端末操作の効率性評価を入力できるチェック表に基づく方法が考えられる。
Y=AX+B
Y=exp(AX+B)
Y=log(AX+B)
Also, the formula is not limited to this, and any formula in which Y monotonically increases with respect to X may be used. Also, although A and B are arbitrarily set values in advance, they are not limited to this, and a questionnaire may be given to users to evaluate efficiency on a scale of 5, and coefficients may be set by machine learning. For this questionnaire, for example, a method based on a check table in which the user himself/herself can input the efficiency evaluation of terminal operation such as a smartphone can be considered.

なお、この効率性スコアを特徴量としてもよいし、その効率性スコアの元情報となる時間Ton_unlockおよび時間Ths_tapの平均値を特徴量としてもよい。 Note that this efficiency score may be used as a feature amount, or the average value of the time Ton_unlock and the time Ths_tap, which are the source information of the efficiency score, may be used as a feature amount.

つぎに、図11において説明した除外リストの生成について説明する。除外リストは、ホーム画面、ランチャーなどユーザが意図して起動したものではないアプリを除外するための、アプリリストである。これを利用することにより、ユーザが操作しようとしたアプリ履歴を生成することができる。 Next, generation of the exclusion list explained in FIG. 11 will be explained. The exclusion list is an application list for excluding applications, such as home screens and launchers, that were not started by the user intentionally. By using this, it is possible to generate a history of applications that the user has attempted to operate.

図15(a)は、アプリ(カテゴリ番号ごとに集計)ごとの一日の平均起動回数、起動された日数、TF(Term Frequency)、IDF(Inverse DocumentFrequency)、TF・IDFを対応付けた除外リストのための管理テーブルを示す。ここでは、TFは、1日における各アプリの平均起動回数を示し、IDFは、各アプリにおけるLog(集計単位の日数/起動された日数+1)を示す。集計単位の日数は、アプリの重要度を判断するための情報である。例えば、その集計単位を30日とすると、Log(30/起動日数+1)となる。その日数は任意に設定される。なお、TFは、平均起動回数に限らず、1日における使用頻度を示す情報であればよい。例えば、平均起動時間、所定期間における総起動回数などでもよい。また、IDFは、集計単位の日数において、どの程度アプリが使用されたかを示す式であればよく、上記の式に限定されるものではない。 FIG. 15(a) shows an exclusion list that associates the average number of daily activations, number of days of activation, TF (Term Frequency), IDF (Inverse Document Frequency), and TF/IDF for each application (aggregated by category number). shows a management table for Here, TF indicates the average number of activations of each application in one day, and IDF indicates Log (number of days in aggregation unit/number of days of activation+1) in each application. The number of days in aggregation units is information for determining the degree of importance of the application. For example, if the aggregation unit is 30 days, it will be Log(30/startup days+1). The number of days is set arbitrarily. Note that the TF is not limited to the average number of activations, and may be information indicating the frequency of use in a day. For example, the average activation time, the total number of activations in a predetermined period, or the like may be used. Also, the IDF is not limited to the above formula, as long as it is a formula that indicates how much the application is used in the number of days in the aggregate unit.

カテゴリ番号ごとにTF・IDFスコアを計算することで、頻繁に使われるが、毎日使われるものではないアプリに重みをつけることで、重要なアプリを判断可能にするものである。 By calculating the TF/IDF score for each category number, it is possible to judge important applications by weighting applications that are frequently used but not used every day.

図15(a)の管理テーブルを例にとると、除外リスト生成部108が、アプリ起動履歴テーブルに基づいて、TF・IDFを求め、そのTF・IDFが閾値以下であるカテゴリ番号のアプリを除外リストに登録する。図15(b)は、除外リストの具体例であり、除外がtrueとなっているカテゴリ番号のアプリが除外リストとして定義されている。なお、閾値は事前に定めた数値でよいが、全アプリに対するTF・IDFの平均値または中央値をとった数値としてもよい。 Taking the management table of FIG. 15(a) as an example, the exclusion list generation unit 108 obtains TF/IDF based on the application activation history table, and excludes applications with category numbers whose TF/IDF is equal to or less than the threshold. Subscribe to the list. FIG. 15(b) is a specific example of the exclusion list, in which applications with category numbers for which exclusion is set to true are defined as the exclusion list. The threshold may be a predetermined numerical value, but may be a numerical value obtained by taking the average value or the median value of TF/IDF for all applications.

つぎに、本実施形態の推定モデル実行装置100の作用効果について説明する。この推定モデル実行装置100は、ユーザの注意機能を推定する推定処理装置であって、ユーザが所持している情報処理装置である通信端末200の各センサ(動きセンサ)のセンサ値に基づいて生成された特徴量を用いてユーザの注意機能を推定する注意機能推定部103を備える。 Next, the effects of the estimation model execution device 100 of this embodiment will be described. This estimation model execution device 100 is an estimation processing device for estimating the attention function of the user, and is generated based on the sensor values of each sensor (motion sensor) of the communication terminal 200, which is the information processing device possessed by the user. An attention function estimating unit 103 is provided for estimating the user's attention function using the obtained feature amount.

上述実施形態では、推定モデル実行装置100は、通信端末200から送信されたセンサ値(または特徴量)を取得する通信端末ログ収集部101と、取得したセンサ値を特徴量に変換する利用特徴量計算部102と、備え、推定モデル実行装置100が特徴量を生成しているが、これに限るものではない。通信端末200において、利用特徴量計算部102相当の構成を備え、自ら取得したセンサ値から特徴量を生成し、推定モデル実行装置100は、それを受信してもよい。以降の説明においても同様である。 In the above-described embodiment, the estimation model execution device 100 includes the communication terminal log collection unit 101 that acquires sensor values (or feature amounts) transmitted from the communication terminal 200, and the use feature amount that converts the acquired sensor values into feature amounts. Although the calculation unit 102 and the estimation model execution device 100 generate feature quantities, the present invention is not limited to this. The communication terminal 200 may have a configuration equivalent to the usage feature quantity calculation unit 102, generate a feature quantity from the sensor values acquired by itself, and the estimation model execution device 100 may receive it. The same applies to the following description.

この構成により、通信端末200の各センサのセンサ値からユーザの注意機能を推定することができる。したがって、ユーザの操作を検出することなく、ユーザが所持している通信端末200の動きからユーザの注意機能を推定することができる。ユーザの操作を必要としないことから、ユーザに意識させることなくその注意機能を推定できる。 With this configuration, the attention function of the user can be estimated from the sensor values of the sensors of communication terminal 200 . Therefore, the attention function of the user can be estimated from the movement of the communication terminal 200 held by the user without detecting the user's operation. Since the user's operation is not required, the attention function can be estimated without making the user aware of it.

また、推定モデル実行装置100は、複数のユーザのそれぞれのセンサ値および注意機能の指標(例えば、Go-NoGo試験の試験結果)を用いて構築された注意機能スコア推定モデルを用いてユーザの注意機能を判断する。 In addition, the estimation model execution device 100 uses an attention function score estimation model constructed using sensor values and attention function indices (for example, Go-NoGo test results) of each of a plurality of users. Judge the function.

この注意機能スコア推定モデルは、自ら推定モデル構築部105を用いて構築されてもよいし、他のサーバ(推定モデル構築部105を相当の機能を有する)において構築されたモデルを用いてもよい。 This attention function score estimation model may be built by itself using the estimation model building unit 105, or may use a model built in another server (which has a function corresponding to the estimation model building unit 105). .

この構成により、学習モデルを用いてユーザの注意機能を推定することができる。よって、簡易な処理でその推定処理を実現できる。 With this configuration, the user's attention function can be estimated using the learning model. Therefore, the estimation process can be realized with a simple process.

また、推定モデル実行装置100において、利用特徴量計算部102は、通信端末ログ収集部101により取得されたセンサ値から所定の時間単位に区分した特徴量を生成する。 Further, in the estimation model execution device 100, the usage feature amount calculation unit 102 generates feature amounts by dividing the sensor values acquired by the communication terminal log collection unit 101 into predetermined time units.

この構成により、所定時間単位でユーザの注意機能の推定を行うことができる。所定時間単位を細かい時間単位および荒い時間単位の両方とすることで、ユーザの注意機能推定を精度よく行うことが可能である。 With this configuration, it is possible to estimate the attention function of the user on a predetermined time basis. By setting both the fine time unit and the rough time unit as the predetermined time unit, it is possible to accurately estimate the attention function of the user.

また、通信端末ログ収集部101は、通信端末200に搭載される一つまたは複数の動きセンサのログを取得する。特に複数の動きセンサを用いることで、様々な特徴量を得ることが可能となり、ユーザの注意機能推定を精度よく行うことが可能である。 Communication terminal log collection unit 101 also acquires logs of one or more motion sensors installed in communication terminal 200 . In particular, by using a plurality of motion sensors, it is possible to obtain various feature amounts, and it is possible to accurately estimate the attention function of the user.

また、本実施形態の推定モデル実行装置100は、通信端末200で実行可能なーまたは複数のプログラムの起動状態を、操作ログ(アプリ起動ログを含む)として取得するプログラム管理部をさらに備える。このプログラム管理部は、通信端末ログ収集部101および端末ログテーブルで実現できる。利用特徴量計算部102は、動きセンサのセンサ値に加えて、この操作ログを特徴量に変換する。プログラムの起動状態は、プログラムが動作している起動時間または所定の状態からプログラムを起動するまでの起動開始時間を示す。 In addition, the estimation model execution device 100 of the present embodiment further includes a program management unit that acquires the activation status of one or more programs that can be executed on the communication terminal 200 as an operation log (including an application activation log). This program management unit can be realized by the communication terminal log collection unit 101 and the terminal log table. The utilization feature quantity calculation unit 102 converts the operation log into a feature quantity in addition to the sensor value of the motion sensor. The activation state of the program indicates the activation time during which the program is running or the activation start time from a predetermined state until the program is activated.

この構成により、動きセンサのみならず、ユーザのアプリケーションに対する起動操作などに基づいて、注意機能推定を可能とする。したがって、その推定精度を向上させることができる。 With this configuration, it is possible to estimate the attentional function based not only on the motion sensor, but also on the basis of the user's activation operation for the application. Therefore, the estimation accuracy can be improved.

また、利用特徴量計算部102は、プログラムのうち、所定の方法で定められたカテゴリに分類されるプログラムについての使用ログは、特徴量計算の対象から除外する。ここでは、除外リスト107に記述されているカテゴリのプログラムが除外される。 In addition, the usage feature amount calculation unit 102 excludes, from the feature amount calculation targets, usage logs for programs classified into categories defined by a predetermined method. Here, programs of categories described in the exclusion list 107 are excluded.

この構成により、ユーザの注意機能推定に影響を及ぼさないプログラムに対する使用ログを除外することで、その推定精度を向上させる。 With this configuration, by excluding usage logs for programs that do not affect the attention function estimation of the user, the estimation accuracy is improved.

例えば、除外方法として、TF-IDFに基づいて、除外対象となるカテゴリを決定する。本実施形態においては、TFとしてアプリケーションごとに一日の平均起動回数、IDFとして、各アプリにおけるLog(集計単位の日数/起動された日数+1)とする。ただし、TFとして、アプリケーションの起動の頻度を表す指標、IDFとして、アプリケーションが異なる日または人単位で共通して使われている度合いを表す指標というものであれば、上記に限定するものではない。 For example, as an exclusion method, categories to be excluded are determined based on TF-IDF. In the present embodiment, TF is the average number of activations per day for each application, and IDF is Log (number of days in aggregate unit/number of days of activation+1) in each application. However, as long as the TF is an index representing the frequency of application activation, and the IDF is an index representing the degree to which the application is commonly used on different days or on a per-person basis, the present invention is not limited to the above.

また、プログラムの起動状態は、所定の状態から前記プログラムを起動するまでの起動開始時間を含む。また、プログラムの起動状態は、起動された一または複数のプログラムのうち、通信に用いられるプログラムの起動回数、起動時間、および通信時間を含む。 Further, the activation state of the program includes activation start time from a predetermined state to activation of the program. In addition, the program activation state includes the activation count, activation time, and communication time of the program used for communication among the one or more activated programs.

ユーザの注意機能は、ユーザ操作の機敏さ、またはユーザが通話をしようとしている頻度に応じて決まるため、その推定精度を向上させることができる。 Since the user's attention function depends on the agility of the user's operation or the frequency with which the user is trying to make a call, its estimation accuracy can be improved.

なお、推定モデル実行装置100は、通信端末200からセンサ値等を取得する構成としているが、これに限るものではない。通信端末200が推定モデル実行装置100の主要機能(推定モデル記憶部106および注意機能推定部103)を有し、通信端末200が、推定モデルを利用した推定処理を行ってもよい。この場合、推定モデルは、推定モデル実行装置100またはそのほかモデル構築装置(図示せず)から取得してもよいし、通信端末200が自ら推定モデルの構築をしてもよい。 Although the estimation model execution device 100 is configured to acquire sensor values and the like from the communication terminal 200, it is not limited to this. Communication terminal 200 may have the main functions of estimation model execution device 100 (estimation model storage unit 106 and attention function estimation unit 103), and communication terminal 200 may perform estimation processing using the estimation model. In this case, the estimated model may be obtained from estimated model execution device 100 or another model building device (not shown), or communication terminal 200 may build the estimated model by itself.

上述推定モデル実行装置100は、推定モデル構築装置として機能してもよい。推定モデル構築装置として機能する場合、推定モデル実行装置100は、少なくとも推定モデル構築部105および推定モデル記憶部106を備える。注意機能推定処理を実行するための構成要件は除外されてもよい。 The estimation model execution device 100 described above may function as an estimation model construction device. When functioning as an estimation model construction device, estimation model execution device 100 includes at least estimation model construction section 105 and estimation model storage section 106 . Configuration requirements for performing attentional function estimation processing may be excluded.

上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。 The block diagrams used in the description of the above embodiments show blocks for each function. These functional blocks (components) are implemented by any combination of at least one of hardware and software. Also, the method of realizing each functional block is not particularly limited. That is, each functional block may be implemented using one device physically or logically coupled, or directly or indirectly using two or more physically or logically separated devices (e.g. , wired, wireless, etc.) and may be implemented using these multiple devices. A functional block may be implemented by combining software in the one device or the plurality of devices.

機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judging, determining, determining, calculating, calculating, processing, deriving, examining, searching, checking, receiving, transmitting, outputting, accessing, resolving, selecting, choosing, establishing, comparing, assuming, expecting, assuming, Broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc. can't For example, a functional block (component) that makes transmission work is called a transmitting unit or a transmitter. In either case, as described above, the implementation method is not particularly limited.

例えば、本開示の一実施の形態における推定モデル実行装置100および通信端末200などは、本開示の推定モデル実行方法および推定モデル構築方法の処理を行うコンピュータとして機能してもよい。図16は、本開示の一実施の形態に係る推定モデル実行装置100および通信端末200のハードウェア構成の一例を示す図である。上述の推定モデル実行装置100および通信端末200は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。 For example, estimation model execution device 100 and communication terminal 200 according to an embodiment of the present disclosure may function as a computer that performs processing of the estimation model execution method and the estimation model construction method of the present disclosure. FIG. 16 is a diagram illustrating an example of a hardware configuration of estimation model execution device 100 and communication terminal 200 according to an embodiment of the present disclosure. The estimation model execution device 100 and the communication terminal 200 described above are physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like. good too.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。推定モデル実行装置100および通信端末200のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 Note that in the following description, the term "apparatus" can be read as a circuit, device, unit, or the like. The hardware configuration of estimation model execution device 100 and communication terminal 200 may be configured to include one or more of each device shown in the figure, or may be configured without some of the devices.

推定モデル実行装置100および通信端末200における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。 Each function of estimation model execution device 100 and communication terminal 200 is performed by loading predetermined software (program) onto hardware such as processor 1001 and memory 1002 so that processor 1001 performs calculations and communication by communication device 1004 is performed. and at least one of reading and writing data in the memory 1002 and the storage 1003 .

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。例えば、上述の利用特徴量計算部102、注意機能推定部103、推定モデル構築部105などは、プロセッサ1001によって実現されてもよい。 The processor 1001, for example, operates an operating system to control the entire computer. The processor 1001 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, registers, and the like. For example, the utilization feature amount calculation unit 102 , the attention function estimation unit 103 , the estimation model construction unit 105 and the like described above may be implemented by the processor 1001 .

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、利用特徴量計算部102などは、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 The processor 1001 also reads programs (program codes), software modules, data, etc. from at least one of the storage 1003 and the communication device 1004 to the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least part of the operations described in the above embodiments is used. For example, the usage feature amount calculation unit 102 and the like may be implemented by a control program stored in the memory 1002 and operating on the processor 1001, and other functional blocks may be implemented in the same way. Although it has been explained that the above-described various processes are executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. FIG. Processor 1001 may be implemented by one or more chips. Note that the program may be transmitted from a network via an electric communication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る推定モデル実行方法および推定モデル構築方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one of, for example, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), and RAM (Random Access Memory). may be The memory 1002 may also be called a register, cache, main memory (main storage device), or the like. The memory 1002 can store executable programs (program codes), software modules, etc. for implementing an estimation model execution method and an estimation model construction method according to an embodiment of the present disclosure.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。 The storage 1003 is a computer-readable recording medium, for example, an optical disc such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disc, a magneto-optical disc (for example, a compact disc, a digital versatile disc, a Blu-ray disk), smart card, flash memory (eg, card, stick, key drive), floppy disk, magnetic strip, and/or the like. Storage 1003 may also be called an auxiliary storage device. The storage medium described above may be, for example, a database, server, or other suitable medium including at least one of memory 1002 and storage 1003 .

通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置1004は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。例えば、上述の通信端末ログ収集部101は、通信装置1004によって実現されてもよい。また、送受信機能が物理的に、または論理的に分離された実装がなされてもよい。 The communication device 1004 is hardware (transmitting/receiving device) for communicating between computers via at least one of a wired network and a wireless network, and is also called a network device, a network controller, a network card, a communication module, or the like. The communication device 1004 includes a high-frequency switch, a duplexer, a filter, a frequency synthesizer, and the like, for example, in order to realize at least one of frequency division duplex (FDD) and time division duplex (TDD). may consist of For example, the communication terminal log collection unit 101 described above may be implemented by the communication device 1004 . Also, an implementation may be made in which the transmission and reception functions are physically or logically separated.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (for example, keyboard, mouse, microphone, switch, button, sensor, etc.) that receives input from the outside. The output device 1006 is an output device (eg, display, speaker, LED lamp, etc.) that outputs to the outside. Note that the input device 1005 and the output device 1006 may be integrated (for example, a touch panel).

また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。 Devices such as the processor 1001 and the memory 1002 are connected by a bus 1007 for communicating information. The bus 1007 may be configured using a single bus, or may be configured using different buses between devices.

また、推定モデル実行装置100および通信端末200は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。 In addition, the estimation model execution device 100 and the communication terminal 200 are microprocessors, digital signal processors (DSPs), ASICs (Application Specific Integrated Circuits), PLDs (Programmable Logic Devices), FPGAs (Field Programmable Gate Arrays), and the like. hardware, and part or all of each functional block may be realized by the hardware. For example, processor 1001 may be implemented using at least one of these pieces of hardware.

情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。 Notification of information is not limited to the aspects/embodiments described in this disclosure, and may be performed using other methods. For example, notification of information includes physical layer signaling (e.g., DCI (Downlink Control Information), UCI (Uplink Control Information)), higher layer signaling (e.g., RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, It may be implemented by broadcast information (MIB (Master Information Block), SIB (System Information Block)), other signals, or a combination thereof. RRC signaling may also be called an RRC message, and may be, for example, an RRC connection setup message, an RRC connection reconfiguration message, or the like.

本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、NR(new Radio)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE-Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。 Each aspect/embodiment described in the present disclosure includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G (4th generation mobile communication system), 5G (5th generation mobile communication system), FRA (Future Radio Access), NR (new Radio), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi (registered trademark) )), IEEE 802.16 (WiMAX®), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth®, other suitable systems, and extended It may be applied to at least one of the next generation systems. Also, a plurality of systems may be applied in combination (for example, a combination of at least one of LTE and LTE-A and 5G, etc.).

本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The processing procedures, sequences, flowcharts, etc. of each aspect/embodiment described in this disclosure may be rearranged as long as there is no contradiction. For example, the methods described in this disclosure present elements of the various steps using a sample order, and are not limited to the specific order presented.

情報等は、上位レイヤ(又は下位レイヤ)から下位レイヤ(又は上位レイヤ)へ出力され得る、複数のネットワークノードを介して入出力されてもよい。 Information and the like may be input and output via multiple network nodes that may be output from higher layers (or lower layers) to lower layers (or higher layers).

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 Input/output information and the like may be stored in a specific location (for example, memory), or may be managed using a management table. Input/output information and the like can be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by one bit (0 or 1), by a true/false value (Boolean: true or false), or by numerical comparison (for example, a predetermined value).

本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect/embodiment described in the present disclosure may be used alone, may be used in combination, or may be used by switching according to execution. In addition, the notification of predetermined information (for example, notification of “being X”) is not limited to being performed explicitly, but may be performed implicitly (for example, not notifying the predetermined information). good too.

以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。 Although the present disclosure has been described in detail above, it should be apparent to those skilled in the art that the present disclosure is not limited to the embodiments described in this disclosure. The present disclosure can be practiced with modifications and variations without departing from the spirit and scope of the present disclosure as defined by the claims. Accordingly, the description of the present disclosure is for illustrative purposes and is not meant to be limiting in any way.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language or otherwise, includes instructions, instruction sets, code, code segments, program code, programs, subprograms, and software modules. , applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like.

また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。 Software, instructions, information, etc. may also be sent and received over a transmission medium. For example, the software uses wired technology (coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL), etc.) and/or wireless technology (infrared, microwave, etc.) to create websites, Wired and/or wireless technologies are included within the definition of transmission medium when sent from a server or other remote source.

本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 Information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of

なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。例えば、チャネル及びシンボルの少なくとも一方は信号(シグナリング)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC:Component Carrier)は、キャリア周波数、セル、周波数キャリアなどと呼ばれてもよい。 The terms explained in this disclosure and the terms necessary for understanding the present disclosure may be replaced with terms having the same or similar meanings. For example, the channel and/or symbols may be signaling. A signal may also be a message. A component carrier (CC) may also be called a carrier frequency, a cell, a frequency carrier, or the like.

本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 As used in this disclosure, the terms "system" and "network" are used interchangeably.

また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースはインデックスによって指示されるものであってもよい。 In addition, the information, parameters, etc. described in the present disclosure may be expressed using absolute values, may be expressed using relative values from a predetermined value, or may be expressed using other corresponding information. may be represented. For example, radio resources may be indexed.

上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。 The names used for the parameters described above are not limiting names in any way. Further, the formulas, etc., using these parameters may differ from those expressly disclosed in this disclosure. Since the various channels (e.g., PUCCH, PDCCH, etc.) and information elements can be identified by any suitable names, the various names assigned to these various channels and information elements are in no way restrictive names. isn't it.

本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 As used in this disclosure, the terms "determining" and "determining" may encompass a wide variety of actions. "Judgement", "determining" are, for example, judging, calculating, computing, processing, deriving, investigating, looking up, searching, inquiring (eg, lookup in a table, database, or other data structure); Also, "judgment" and "determination" are used for receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, access (accessing) (for example, accessing data in memory) may include deeming that a "judgement" or "decision" has been made. In addition, "judgment" and "decision" are considered to be "judgment" and "decision" by resolving, selecting, choosing, establishing, comparing, etc. can contain. In other words, "judgment" and "decision" can include considering that some action is "judgment" and "decision". Also, "judgment (decision)" may be read as "assuming", "expecting", "considering", or the like.

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or coupling between two or more elements, It can include the presence of one or more intermediate elements between two elements being "connected" or "coupled." Couplings or connections between elements may be physical, logical, or a combination thereof. For example, "connection" may be read as "access". As used in this disclosure, two elements are defined using at least one of one or more wires, cables, and printed electrical connections and, as some non-limiting and non-exhaustive examples, in the radio frequency domain. , electromagnetic energy having wavelengths in the microwave and optical (both visible and invisible) regions, and the like.

本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used in this disclosure, the phrase "based on" does not mean "based only on," unless expressly specified otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."

本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 Where "include," "including," and variations thereof are used in this disclosure, these terms are inclusive, as is the term "comprising." is intended. Furthermore, the term "or" as used in this disclosure is not intended to be an exclusive OR.

本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In this disclosure, where articles have been added by translation, such as a, an, and the in English, the disclosure may include the plural nouns following these articles.

本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。 In the present disclosure, the term "A and B are different" may mean "A and B are different from each other." The term may also mean that "A and B are different from C". Terms such as "separate," "coupled," etc. may also be interpreted in the same manner as "different."

100…推定モデル実行装置、101…通信端末ログ収集部、101a…ログテーブル、101b…アプリ情報テーブル、102…利用特徴量計算部、103…注意機能推定部、104…推定結果表示部、105…推定モデル構築部、106…推定モデル記憶部、107…除外リスト、108…除外リスト生成部、200…通信端末、201…加速度センサ、202…角速度センサ、203…傾きセンサ、204…画面on/offセンサ、205…アプリ利用センサ、207…通信部、208…制御部、209…プログラム。 DESCRIPTION OF SYMBOLS 100... Estimation model execution apparatus 101... Communication terminal log collection part 101a... Log table 101b... Application information table 102... Utilization feature amount calculation part 103... Attention function estimation part 104... Estimation result display part 105... Estimation model construction unit 106 Estimation model storage unit 107 Exclusion list 108 Exclusion list generation unit 200 Communication terminal 201 Acceleration sensor 202 Angular velocity sensor 203 Tilt sensor 204 Screen on/off Sensor 205 Application use sensor 207 Communication unit 208 Control unit 209 Program.

Claims (10)

ユーザが所持している情報処理装置の動きセンサのセンサ値に基づいて生成された特徴量を用いてユーザの注意機能を推定する注意機能推定部、
を備え
前記注意機能推定部は、
複数のユーザのそれぞれのセンサ値および注意機能の指標を用いて構築された推定モデルを用いてユーザの注意機能を判断し、
前記特徴量は、前記センサ値に加えて、前記情報処理装置で実行可能なーまたは複数のプログラムの起動状態から取得された使用ログに基づいて、生成され、
前記プログラムの起動状態は、前記プログラムが動作している起動時間または所定の状態から前記プログラムを起動するまでの起動開始時間を示す、
推定処理装置。
an attention function estimating unit for estimating a user's attention function using a feature amount generated based on a sensor value of a motion sensor of an information processing device possessed by the user;
with
The attention function estimation unit
Determining the user's attention function using an estimation model constructed using the sensor values and attention function indicators of each of a plurality of users ,
The feature quantity is generated based on usage logs obtained from the running state of a plurality of programs executable by the information processing device in addition to the sensor values,
The activation state of the program indicates the activation time during which the program is running or the activation start time from a predetermined state to the activation of the program,
Estimation processing unit.
前記複数のユーザのそれぞれのセンサ値および注意機能の指標を用いて、前記推定モデルを構築する推定モデル構築部をさらに備える、
請求項1に記載の推定処理装置。
further comprising an estimation model building unit that builds the estimation model using the sensor values and attention function indicators of each of the plurality of users;
The estimation processing device according to claim 1.
前記注意機能推定部は、前記センサ値から所定の時間単位に区分して生成された特徴量を用いて推定する、
請求項1または2に記載の推定処理装置。
The attention function estimating unit estimates using a feature amount generated by dividing the sensor value into predetermined time units,
The estimation processing device according to claim 1 or 2.
前記特徴量は、前記情報処理装置に搭載される一つまたは複数の動きセンサのログに基づいて生成される、
請求項1~3のいずれか一項に記載の推定処理装置。
The feature amount is generated based on logs of one or more motion sensors mounted on the information processing device,
The estimation processing device according to any one of claims 1 to 3.
前記特徴量は、前記プログラムのうち、所定の方法で定められたカテゴリに分類されるプログラムについての使用ログは除外されて生成される、請求項1~4のいずれか一項に記載の推定処理装置。 The estimation process according to any one of claims 1 to 4, wherein the feature amount is generated by excluding usage logs for programs classified into categories defined by a predetermined method among the programs. Device. 前記所定の方法として、前記プログラムのカテゴリごとに算出されたTF-IDFに基づいて、除外対象となるカテゴリを決定する、請求項5に記載の推定処理装置。 6. The estimation processing device according to claim 5, wherein, as said predetermined method, a category to be excluded is determined based on the TF-IDF calculated for each category of said program. 前記プログラムの起動状態は、所定の状態から前記プログラムを起動するまでの起動開始時間を含む、請求項1~6の何れか一項に記載の推定処理装置。 The estimation processing device according to any one of claims 1 to 6 , wherein the activation state of the program includes activation start time from a predetermined state to activation of the program. 前記プログラムの起動状態は、起動された一または複数のプログラムのうち、通信に用いられるプログラムの起動回数、起動時間、および通信時間を含む、
請求項1~7のいずれか一項に記載の推定処理装置。
The activation state of the program includes the activation count, activation time, and communication time of the program used for communication among the one or more activated programs,
The estimation processing device according to any one of claims 1 to 7 .
推定した注意機能を提示する注意機能提示部をさらに備える、請求項1~8のいずれか一項に記載の推定処理装置。 The estimation processing device according to any one of claims 1 to 8 , further comprising an attention function presentation unit that presents the estimated attention function. 一又は複数のユーザが所持している一又は複数の情報処理装置の動きセンサのセンサ値に基づいて生成された一又は複数の特徴量と、前記一又は複数のユーザの注意機能の指標とを取得し、
前記特徴量を説明変数として前記注意機能の指標を教師データとした機械学習によって、
ユーザの注意機能を推定する推定モデルを構築し、
前記特徴量は、前記情報処理装置で実行可能なーまたは複数のプログラムの起動状態から取得された使用ログに基づいて、生成され、
前記プログラムの起動状態は、前記プログラムが動作している起動時間または所定の状態から前記プログラムを起動するまでの起動開始時間を示す、
推定モデル構築装置。
One or more feature quantities generated based on sensor values of motion sensors of one or more information processing devices possessed by one or more users, and an indicator of attention function of the one or more users Acquired,
By machine learning using the feature quantity as an explanatory variable and the index of the attention function as teacher data,
Construct an estimation model to estimate the user's attention function ,
The feature amount is generated based on a usage log obtained from the running state of a plurality of programs executable by the information processing device,
The activation state of the program indicates the activation time during which the program is running or the activation start time from a predetermined state to the activation of the program,
Estimation model building device.
JP2019071862A 2019-04-04 2019-04-04 Estimation processing device and estimation model construction device Active JP7297236B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019071862A JP7297236B2 (en) 2019-04-04 2019-04-04 Estimation processing device and estimation model construction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019071862A JP7297236B2 (en) 2019-04-04 2019-04-04 Estimation processing device and estimation model construction device

Publications (2)

Publication Number Publication Date
JP2020170382A JP2020170382A (en) 2020-10-15
JP7297236B2 true JP7297236B2 (en) 2023-06-26

Family

ID=72746737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019071862A Active JP7297236B2 (en) 2019-04-04 2019-04-04 Estimation processing device and estimation model construction device

Country Status (1)

Country Link
JP (1) JP7297236B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211574A (en) 2008-03-06 2009-09-17 Hitachi Ltd Server and sensor network system for measuring quality of activity
JP2014230717A (en) 2013-05-30 2014-12-11 トヨタ自動車株式会社 Concentration level estimation device
JP2016062381A (en) 2014-09-19 2016-04-25 富士ゼロックス株式会社 Information processing apparatus and program
JP2018181004A (en) 2017-04-14 2018-11-15 株式会社Nttドコモ Teacher data generator
JP2019004924A (en) 2017-06-20 2019-01-17 株式会社東芝 System and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211574A (en) 2008-03-06 2009-09-17 Hitachi Ltd Server and sensor network system for measuring quality of activity
JP2014230717A (en) 2013-05-30 2014-12-11 トヨタ自動車株式会社 Concentration level estimation device
JP2016062381A (en) 2014-09-19 2016-04-25 富士ゼロックス株式会社 Information processing apparatus and program
JP2018181004A (en) 2017-04-14 2018-11-15 株式会社Nttドコモ Teacher data generator
JP2019004924A (en) 2017-06-20 2019-01-17 株式会社東芝 System and method

Also Published As

Publication number Publication date
JP2020170382A (en) 2020-10-15

Similar Documents

Publication Publication Date Title
CN108605205B (en) Apparatus and method for determining position of electronic device
EP3278240B1 (en) Venue identification from wireless scan data
KR102656490B1 (en) Electronic device and method for determining positions
KR20160063110A (en) Electronic device and method for transmitting information by the electronic device
JP2018041189A (en) Communication terminal, server device, store recommendation method, and program
Osmani et al. An analysis of distance estimation to detect proximity in social interactions
WO2020095480A1 (en) Population distribution aggregation calculation device
WO2020195148A1 (en) Information processing device
JP7274465B2 (en) Information processing equipment
JP7297236B2 (en) Estimation processing device and estimation model construction device
JP6687795B1 (en) Behavior change promotion device
US11895559B2 (en) Moving means determination device
JP7397738B2 (en) Aggregation device
JP7308603B2 (en) economic indicator calculator
WO2018179602A1 (en) Human relationship estimation device
JP7478140B2 (en) Demand forecasting device
JP7157868B2 (en) Device management system
JP2022156706A (en) Disease state estimation device
JP2022148394A (en) Infection risk estimation device
JP2018081339A (en) Information notification device
JP7594482B2 (en) Infection information prediction device
JP7623241B2 (en) Information processing device
JP6948221B2 (en) Home rate estimation device
JP6723449B2 (en) Single estimator
JP7295023B2 (en) User attribute estimation system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190524

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230606

R150 Certificate of patent or registration of utility model

Ref document number: 7297236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150