JP2019111291A - Attention level estimation device, attention level estimation model learning device, attention level estimation method, attention level estimation model learning method, and program - Google Patents

Attention level estimation device, attention level estimation model learning device, attention level estimation method, attention level estimation model learning method, and program Download PDF

Info

Publication number
JP2019111291A
JP2019111291A JP2017249389A JP2017249389A JP2019111291A JP 2019111291 A JP2019111291 A JP 2019111291A JP 2017249389 A JP2017249389 A JP 2017249389A JP 2017249389 A JP2017249389 A JP 2017249389A JP 2019111291 A JP2019111291 A JP 2019111291A
Authority
JP
Japan
Prior art keywords
attention level
time
unit
microsaccade
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017249389A
Other languages
Japanese (ja)
Other versions
JP6939533B2 (en
Inventor
惇 米家
Makoto Yoneya
惇 米家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017249389A priority Critical patent/JP6939533B2/en
Publication of JP2019111291A publication Critical patent/JP2019111291A/en
Application granted granted Critical
Publication of JP6939533B2 publication Critical patent/JP6939533B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

To estimate an attention level on the basis of microsaccade.SOLUTION: A model storage unit 10 stores information indicating a reference attention level and information indicating a decrease in an attention level. An eyeball information acquisition unit 11 acquires a dynamic change in an eye of a subject. A microsaccade detection unit 12 detects a time of occurrence of a microsaccade from the dynamic change in the eye. An estimation unit 13 estimates the attention level from the time of the occurrence of the microsaccade on the basis of the information indicating the reference attention level and the information indicating the decrease in the attention level.SELECTED DRAWING: Figure 2

Description

この発明は、人間の目の動き(マイクロサッカード)に基づいて、注意の状態(注意レベル)を推定する技術に関する。   The present invention relates to a technique for estimating a state of attention (attention level) based on movement of a human eye (microsaccade).

非特許文献1には、「文字の識別」という課題におけるマイクロサッカードの方向と提示された課題に対する反応の速さとの間に相関があることが開示されている。具体的には、個々のマイクロサッカードの発生時刻の近傍で、提示された課題に対する対象者の反応速度が遅くなることが報告されている。また、課題が難しくなるとマイクロサッカードの発生頻度が低くなること、および、マイクロサッカードの方向が注意の方向とよく一致することが開示されている。   Non-Patent Document 1 discloses that there is a correlation between the direction of the microsaccade in the task of “character identification” and the speed of reaction to the presented task. Specifically, it has been reported that the reaction speed of the subject to the presented task becomes slow near the time of occurrence of each microsaccade. In addition, it is disclosed that the frequency of occurrence of microsaccade decreases as the task becomes difficult, and the direction of the microsaccade matches well with the direction of attention.

Alexander Pastukho and Jochen Braun, “Rare but precious: Microsaccades are highly informative about attentional allocation”, Vision Research, Vol. 50, Issue 12, pp. 1173-1184, 2000.Alexander Pastukho and Jochen Braun, “Rare but precious: Microsaccades are highly informative about attentional allocation”, Vision Research, Vol. 50, Issue 12, pp. 1173-1184, 2000.

非特許文献1にはマイクロサッカードの方向と注意の方向との相関性は開示されているが、注意の状態(注意レベル)とマイクロサッカードとの相関性は明らかにされていない。したがって、マイクロサッカードに基づいて時々刻々と変化する注意の状態とそれに伴う運動特性(反応速度や反応の正確性)を推定することはできなかった。   Although the non-patent document 1 discloses the correlation between the direction of the microsaccade and the direction of the attention, the correlation between the state of attention (attention level) and the microsaccade is not clarified. Therefore, it was not possible to estimate the state of attention that changes from moment to moment based on the microsaccade and the movement characteristics (response speed and accuracy of the response) accompanying it.

この発明の目的は、上記のような点に鑑みて、マイクロサッカードに基づいて注意レベルを推定する技術を実現することである。   An object of the present invention is to realize a technique for estimating a level of caution based on a microsaccade in view of the above-described points.

上記の課題を解決するために、この発明の第一の態様の注意レベル推定装置は、基準注意レベルを表す情報と注意レベルの低下を表す情報とを記憶するモデル記憶部と、対象者の眼の動的な変化を取得する眼球情報取得部と、眼の動的な変化からマイクロサッカードの発生時刻を検出するマイクロサッカード検出部と、基準注意レベルを表す情報と注意レベルの低下を表す情報とに基づいてマイクロサッカードの発生時刻から注意レベルを推定する推定部と、を含む。   In order to solve the above problems, the attention level estimation device according to the first aspect of the present invention includes a model storage unit that stores information indicating a reference attention level and information indicating a decrease in attention level; The eye information acquisition unit that acquires the dynamic change of the micro-saccade detecting unit that detects the micro-saccade occurrence time from the dynamic change of the eye, the information indicating the reference caution level and the decrease in the alert level And an estimation unit configured to estimate the attention level from the micro-saccade occurrence time based on the information.

上記の課題を解決するために、この発明の第二の態様の注意レベル推定モデル学習装置は、表示装置へ所定の画像を表示する表示制御部と、対象者の眼の動的な変化に関する時系列情報を取得する眼球情報取得部と、眼の動的な変化に関する時系列情報からマイクロサッカードに基づく特徴量を抽出する特徴量抽出部と、対象者が所定の画像に反応して行う所定の入力を受け付ける入力部と、所定の画像が表示された時刻と所定の入力があった時刻とから反応速度を表す指標を計測する計測部と、マイクロサッカードに基づく特徴量と反応速度を表す指標とに基づいてマイクロサッカードによる注意レベルの低下を表す情報を学習する学習部と、を含む。   In order to solve the above problems, the attention level estimation model learning device according to the second aspect of the present invention relates to a display control unit for displaying a predetermined image on a display device, and a dynamic change of the subject's eyes. An eye information acquisition unit for acquiring sequence information, a feature extraction unit for extracting a feature based on microsaccades from time-series information on dynamic change of eyes, and a predetermined process performed by a subject in response to a predetermined image And a measuring unit that measures an index representing the reaction rate from the time when the predetermined image was displayed and the time when the predetermined input was made, and the feature amount and reaction rate based on the microsaccade And a learning unit that learns information representing a decrease in the attention level due to the microsaccade based on the index.

この発明によれば、マイクロサッカードに基づいて時々刻々と変化する注意レベルを推定することができる。   According to the present invention, it is possible to estimate the ever-changing attention level based on the micro saccade.

図1は、注意レベル低下関数を説明するための図である。FIG. 1 is a diagram for explaining the attention level lowering function. 図2は、注意レベル推定装置の機能構成を例示する図である。FIG. 2 is a diagram illustrating a functional configuration of the attention level estimation device. 図3は、注意レベル推定方法の処理手続きを例示する図である。FIG. 3 is a diagram illustrating the processing procedure of the attention level estimation method. 図4は学習処理および推定処理を例示するための概念図である。FIG. 4 is a conceptual diagram for illustrating learning processing and estimation processing. 図5Aは注視点の移動の様子を説明するための概念図である。図4Bは視野角の時系列データをマーク付き点過程に変換する様子を説明するための図である。図4Cはマイクロサッカードに基づく特徴量を説明するための図である。FIG. 5A is a conceptual diagram for explaining the movement of the fixation point. FIG. 4B is a view for explaining how time-series data of viewing angle is converted into a marked point process. FIG. 4C is a diagram for explaining a feature amount based on microsaccades. 図6は、注意レベル推定モデル学習装置の機能構成を例示する図である。FIG. 6 is a diagram illustrating a functional configuration of the attention level estimation model learning device. 図7は、注意レベル推定モデル学習方法の処理手続きを例示する図である。FIG. 7 is a diagram illustrating a processing procedure of the attention level estimation model learning method. 図8Aは、ある被験者の試行毎の実験結果を示す図である。図8Bは、被験者全体の実験結果を示す図である。FIG. 8A is a diagram showing experimental results for each trial of a certain subject. FIG. 8B is a diagram showing experimental results of the entire subject.

以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail. In the drawings, components having the same functions are denoted by the same reference numerals and redundant description will be omitted.

<原理>
人間に所定のタスクを実行させたときのタスクに対する反応速度や反応の正確性は、そのタスクへの注意の状態(注意レベル)に依存すると考えられる。つまり、注意レベルが高いほど、タスクに対する反応速度や反応の正確性は高くなる傾向にあると考えられる。一方、注意を向けている状態においても、マイクロサッカードが発生すると、その近傍の時刻では注意レベルが低下し、タスクに対する反応速度や反応の正確性が低下することが知られている。そこで、本発明ではマイクロサッカードに着目して、時々刻々と変化する注意レベルをモデル化する方法を提案する。これにより、時刻毎に注意レベルを推定可能とするものである。
<Principle>
It is considered that the reaction speed to a task or the accuracy of the reaction when a human performs a predetermined task depends on the state (attention level) of the attention to the task. In other words, the higher the attention level, the higher the reaction speed to the task and the accuracy of the reaction tend to be. On the other hand, it is known that when a microsaccade occurs, the level of attention drops at the time near the point where the attention is directed, and the reaction speed to the task and the accuracy of the reaction decrease. Therefore, the present invention proposes a method of modeling a level of attention that changes from moment to moment, focusing on microsaccades. This makes it possible to estimate the attention level at each time.

<注意レベルのモデル化>
マイクロサッカードを考慮しない平均的な注意レベルを表す関数をf0(t)とする。ここで、tは時刻を表す。以降、f0(t)を基準注意レベル関数と呼ぶこととする。基準注意レベル関数f0(t)は、基準となる注意レベル近傍の値を維持する関数であればよく、例えば、固定値であってもよいし、固定値近傍で増減を繰り返す正弦波のような関数であってもよい。基準注意レベル関数f0(t)の設計(学習)方法については後述する。
Attention level modeling
Let f 0 (t) be a function representing an average attention level not considering microsaccades. Here, t represents time. Hereinafter, f 0 (t) will be referred to as a reference attention level function. The reference attention level function f 0 (t) may be a function that maintains a value near the reference attention level, and may be, for example, a fixed value or a sine wave that repeatedly increases and decreases around the fixed value. May be a function. The design (learning) method of the reference attention level function f 0 (t) will be described later.

マイクロサッカードの発生に伴う注意レベルの低下を表す関数をL(τ)とする。L(τ)はマイクロサッカードが発生した時刻の直後に注意レベルを単調減少させ、その後、時間の経過と共に徐々に注意レベルを単調増加させるような関数である。τは対応するマイクロサッカードの発生時刻からの経過時間を表す。以降、L(τ)を注意レベル低下関数と呼ぶこととする。注意レベル低下関数L(τ)は、図1に示すように、単調減少時の勾配は大きく(すなわち、急激に注意レベルが低下する)、単調増加時の勾配は小さい(すなわち、緩やかに注意レベルが回復する)関数が好ましい。例えば、時刻tiで発生したマイクロサッカードに対応する注意レベル低下関数Li(τ)は以下のような関数である。 Let L (τ) be a function representing the decrease in the level of attention accompanying the occurrence of microsaccades. L (τ) is a function that monotonously decreases the attention level immediately after the time at which the microsaccade occurs and then gradually increases the attention level gradually with the passage of time. τ represents an elapsed time from the occurrence time of the corresponding microsaccade. Hereinafter, L (τ) will be referred to as a caution level lowering function. The attention level reduction function L (τ), as shown in FIG. 1, has a large gradient when monotonically decreasing (ie, the attention level drops sharply) and a small gradient when monotonically increasing (ie, the attention level gently). Is preferred) function. For example, the attention level lowering function L i (τ) corresponding to the microsaccade generated at time t i is a function as follows.

Figure 2019111291
Figure 2019111291

ここで、αおよびlpeakは関数Li(τ)の形を決定するパラメータである。図1に示すように、αはマイクロサッカード発生後注意レベルが最も低下するまでの時間であり、lpeakは注意レベルが最も低下したときの低下幅である。αおよびlpeakはマイクロサッカードのパラメータAi, ζi, ωiを用いた下記の関数により表現される。 Here, α and l peak are parameters that determine the form of the function L i (τ). As shown in FIG. 1, α is the time until the attention level drops most after the microsaccade occurrence, and l peak is the decrease width when the attention level falls most. α and l peak are expressed by the following function using micro saccade parameters A i , ζ i and ω i .

Figure 2019111291
Figure 2019111291

なお、Aiは時刻tiで発生した対象者のマイクロサッカードの振幅、ζiは減衰係数、ωiは固有角振動数を表す。マイクロサッカードのパラメータの詳細は後述する。 Incidentally, A i is the amplitude of the micro-saccades subjects that occurred at time t i, ζ i is the damping coefficient, omega i represents a natural angular frequency. Details of the micro saccade parameters will be described later.

例えば、対象者の注意レベルLiは、その直近のマイクロサッカードのパラメータ(τi, Ai, ζi, ωi)を用いて、次式により推定することができる。ここで、直近のマイクロサッカードのパラメータAi, ζi, ωiとは、注意レベルの評価対象となる時刻の最も直近で発生したマイクロサッカードの振幅、減衰係数、固有角振動数であり、τiはそのマイクロサッカードから評価時刻までの時間差を表す。 For example, the attention level L i of the subject can be estimated by the following equation using the parameters (τ i , A i , ζ i , ω i ) of the latest microsaccades. Here, the parameters A i , ζ i and ω i of the latest microsaccades are the amplitude, the attenuation coefficient, and the natural angular frequency of the microsaccades generated most recently at the time of the evaluation level of attention level. , Τ i represents the time difference from the microsaccade to the evaluation time.

Figure 2019111291
Figure 2019111291

αおよびlpeakを決定するパラメータ(c1, c2, …, c8)は、個人毎に設定しておくものであり、例えば後述する学習等により推定した最適値を設定しておけばよい。 The parameters (c 1 , c 2 ,..., c 8 ) for determining α and l peak are set for each individual, and for example, an optimal value estimated by learning described later may be set. .

すべてのマイクロサッカードを考慮した注意レベルのモデルf(t)は、基準注意レベル関数f0(t)に対して、マイクロサッカードの発生時刻t0, t1, t2, …それぞれにおいて注意レベル低下関数Li(τ)(i=0, 1, 2, …)を畳み込んだ関数を乗算した関数としてモデル化する。 The attention level model f (t) taking all microsaccades into consideration is compared with the reference attention level function f 0 (t) at each occurrence time t 0 , t 1 , t 2 , ... of the microsaccade. The level reduction function L i (τ) (i = 0, 1, 2,...) Is modeled as a function obtained by multiplying the convolutional function.

Figure 2019111291
Figure 2019111291

δ(t)はデルタ関数であり、下記の性質を満たすものとする。 δ (t) is a delta function, which satisfies the following properties.

Figure 2019111291
Figure 2019111291

<第一実施形態>
この発明の第一実施形態は、対象者の眼の動的な変化に基づく特徴量と注意レベルとの関係を学習した注意レベル推定モデルを用いて、対象者の眼の動的な変化から対象者の注意レベルを推定する注意レベル推定装置および方法である。
First Embodiment
The first embodiment of the present invention uses the attention level estimation model that learns the relationship between the feature value based on the dynamic change of the eye of the subject and the attention level, and the target is obtained from the dynamic change of the subject's eye. Apparatus and method for estimating a level of attention of a person.

「対象者」は眼が動的に変化する動物であれば、ヒトであってもよいし、ヒト以外の動物であってもよい。「眼の動的な変化」は、眼球自体の動き(眼球の位置の経時変化)であってもよいし、瞳孔の動き(瞳孔径の経時変化)であってもよい。「特徴量」はどのようなものであってもよく、スカラであってもよいし、複数の要素からなるベクトルであってもよい。「特徴量」は、例えば眼球の動きに表れる「サッカード」に基づく特徴量(「サッカード」の特徴に対応する情報)を含む。眼球の動きに表れる「サッカード」に基づく特徴量としては、眼球の運動方向に基づく特徴量、眼球運動の振幅の絶対値に基づく特徴量、眼球運動の減衰係数に基づく特徴量、眼球運動の固有角振動数に基づく特徴量、眼球のサッカードの発生タイミングに基づく特徴量などを例示できる。「サッカード」はマイクロサッカード(micro saccade)とラージサッカード(large saccade)とがあるが、本実施形態ではマイクロサッカードである例を説明する。「特徴量」が、同一の「対象者」の一方の眼(例えば、右眼)の動的な変化に由来する値と他方の眼(例えば、左眼)の動的な変化に由来する値との相対量に基づく特徴量を含んでもよい。「αとβとの相対量」は、例えば、αとβとの差分、αからβを減じた値、βからαを減じた値、αをβで除した値、もしくはβをαで除した値、またはそれらの何れかの関数値である。「相対値に基づく特徴量」は、例えば、「相対値」もしくはその関数値、「相対値」もしくはその関数値を要素としたベクトル、または、それらの何れかの関数値である。   The “subject” may be a human or non-human animal as long as the eye has a dynamically changing eye. The “dynamic change of the eye” may be the movement of the eye itself (the change of the position of the eye over time) or the movement of the pupil (the change of pupil diameter over time). The “feature amount” may be anything, may be a scalar, or may be a vector composed of a plurality of elements. The “feature amount” includes, for example, a feature amount (information corresponding to the feature of “saccade”) based on “saccade” appearing in the movement of the eye. The feature quantities based on "saccades" appearing in eye movement include feature quantities based on eye movement direction, feature quantities based on absolute value of eye movement amplitude, feature quantities based on eye movement attenuation coefficient, eye movement The feature quantity based on the natural angular frequency, the feature quantity based on the generation timing of the saccade of the eyeball, and the like can be exemplified. "Saccade" includes micro saccade and large saccade, but in the present embodiment, an example of micro saccade will be described. The “feature amount” is a value derived from a dynamic change of one eye (eg, the right eye) of the same “subject” and a value derived from a dynamic change of the other eye (eg, the left eye) It may also include feature quantities based on relative quantities with The “relative amount between α and β” is, for example, the difference between α and β, a value obtained by subtracting β from α, a value obtained by subtracting α from β, a value obtained by dividing α by β, or dividing β by α Values, or any function value of them. The “feature value based on relative value” is, for example, “relative value” or its function value, “relative value” or a vector having the function value as an element, or any function value thereof.

「注意レベル推定モデル」は、「眼の動的な変化」に基づく「特徴量」の変数と「注意レベル」に対応する情報の変数との関係を表すモデルである。「注意レベル推定モデル」は、「推定結果」を得る際に逐次的に更新されてもよいし、「推定結果」を得る前に事前に得られていてもよい。「注意レベル推定モデル」は、例えば統計モデルや確率モデルであり、「特徴量」の変数が与えられた場合における「注意レベル」に対応する情報の変数の条件付き分布を表すモデルであってもよいし、「特徴量」の変数と「注意レベル」に対応する情報との関係を表す状態空間モデルであってもよい。例えば、注意レベル推定モデルは、「注意レベル」に対応する情報がrであったときに、眼の動的な変化に基づく特徴を表すκ(例えば、マイクロサッカードの持つ特徴を表すマークκ)をもつ事象が発生する頻度h(r, κ)(例えば、単位時間当たりの発生率である条件付強度関数)に基づいて得られる統計モデル(例えば、h(r, κ)そのもの)である。その他、重回帰分析、k-means、サポートベクターマシーン(SVM: Support Vector Machine)、単純クラスタリング、隠れマルコフモデル、ニューラルネットワーク、ディープラーニングなどを利用した「注意レベル推定モデル」が用いられてもよい。   The “attention level estimation model” is a model that represents a relationship between a “feature amount” variable and an information variable corresponding to the “attention level” based on the “dynamic change of eyes”. The “attention level estimation model” may be sequentially updated when obtaining the “estimation result”, or may be obtained in advance before obtaining the “estimation result”. The “attention level estimation model” is, for example, a statistical model or a probabilistic model, and is a model that represents a conditional distribution of information variables corresponding to the “attention level” when a “feature amount” variable is given. It may be a state space model representing a relationship between a variable of “feature amount” and information corresponding to “attention level”. For example, when the information corresponding to the "attention level" is r, the attention level estimation model represents 表 す that represents a feature based on the dynamic change of the eye (for example, a mark 表 す that represents a feature of a microsaccade) The statistical model (for example, h (r,)) itself) obtained based on the frequency h (r,)) (for example, the conditional intensity function which is the occurrence rate per unit time) of occurrence of the event having. In addition, “attention level estimation model” using multiple regression analysis, k-means, support vector machine (SVM), simple clustering, hidden Markov model, neural network, deep learning, etc. may be used.

第一実施形態の注意レベル推定装置1は、図2に示すように、モデル記憶部10、眼球情報取得部11、マイクロサッカード検出部12、および推定部13を備える。この注意レベル推定装置1が図3に示す各ステップの処理を実行することにより、第一実施形態の注意レベル推定方法が実現される。   The attention level estimation device 1 according to the first embodiment includes a model storage unit 10, an eye information acquisition unit 11, a microsaccade detection unit 12, and an estimation unit 13, as shown in FIG. The attention level estimation device 1 executes the processing of each step shown in FIG. 3 to implement the attention level estimation method of the first embodiment.

注意レベル推定装置1は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。注意レベル推定装置1は、例えば、中央演算処理装置の制御のもとで各処理を実行する。注意レベル推定装置1に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。注意レベル推定装置1の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。注意レベル推定装置1が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。   The attention level estimation device 1 is configured by reading a special program into a known or dedicated computer having, for example, a central processing unit (CPU: Central Processing Unit), a main storage device (RAM: Random Access Memory), etc. It is a special device. The caution level estimation device 1 executes each process, for example, under the control of the central processing unit. The data input to the caution level estimation device 1 and the data obtained by each process are stored, for example, in the main storage device, and the data stored in the main storage device is read out to the central processing unit as necessary. Is used for other processing. At least a part of each processing unit of the attention level estimation device 1 may be configured by hardware such as an integrated circuit. Each storage unit included in the attention level estimation device 1 is, for example, a main storage device such as a random access memory (RAM), an auxiliary storage device including a semiconductor memory element such as a hard disk, an optical disk, or a flash memory. Alternatively, it can be configured by middleware such as a relational database or key value store.

以下、図3を参照して、第一実施形態の注意レベル推定装置1が実行する注意レベル推定方法について説明する。   The attention level estimation method performed by the attention level estimation device 1 according to the first embodiment will be described below with reference to FIG.

モデル記憶部10には、基準注意レベルを表す情報とマイクロサッカードによる注意レベルの低下を表す情報とが記憶されている。基準注意レベルを表す情報とは、上述の基準注意レベル関数f0(t)のパラメータである。マイクロサッカードによる注意レベルの低下を表す情報とは、上述の注意レベル低下関数L(τ)のパラメータである。上述の通り、注意レベル低下関数L(τ)のパラメータαとlpeakは式(2)(3)により与えられるので、この式(2)(3)のパラメータである(c1, c2, …, c8)をモデル記憶部10に記憶しておいてもよいし、αとlpeakを記憶しておいてもよい。基準注意レベルを表す情報とマイクロサッカードによる注意レベルの低下を表す情報とは予め何らかの手法により与えておけばよく、例えば、後述する注意レベル推定モデル学習装置2を用いて学習により求めておくことができる。 The model storage unit 10 stores information representing a reference attention level and information representing a decrease in attention level due to the micro saccade. The information representing the reference attention level is a parameter of the above-mentioned reference attention level function f 0 (t). The information representing the decrease in the attention level due to the microsaccade is a parameter of the above-mentioned attention level decrease function L (τ). As described above, since the parameters α and l peak of the attention level lowering function L (τ) are given by the equations (2) and (3), the parameters of the equations (2) and (3) (c 1 , c 2 , ..., c 8 ) may be stored in the model storage unit 10, or α and l peak may be stored. The information indicating the reference attention level and the information indicating the decrease in attention level by the micro saccade may be given in advance by some method, for example, it is determined by learning using the attention level estimation model learning device 2 described later. Can.

ステップS11において、眼球情報取得部11は、各離散時間tにおける対象者9の眼の動的な変化に関する情報を取得する。「眼の動的な変化」は、眼球自体の動き(眼球の位置の経時変化)であってもよいし、瞳孔の動き(瞳孔径の経時変化)であってもよいし、それら両方であってもよい。眼球情報取得部11は、両眼の動的な変化に関する時系列情報を取得してもよいし、何れか一方の眼の動的な変化に関する時系列情報を取得してもよい。眼球情報取得部11は、取得した眼の動的な変化に関する情報をマイクロサッカード検出部12へ出力する。   In step S11, the eye information acquisition unit 11 acquires information on the dynamic change of the eye of the subject 9 at each discrete time t. The “dynamic change of the eye” may be the movement of the eye itself (the change of the position of the eye over time), the movement of the pupil (the change of pupil diameter over time), or both of them. May be The eye information acquisition unit 11 may acquire time-series information on dynamic change of both eyes, or may acquire time-series information on dynamic change of one of the eyes. The eye information acquisition unit 11 outputs the acquired information on the dynamic change of the eye to the micro saccade detection unit 12.

対象者9の「眼球自体の動き」に関する時系列情報は、撮像装置(例えば赤外線カメラ)で対象者9の眼を撮影して得られた映像に基づいて得られる。眼球情報取得部11は、例えば、撮影された映像を画像処理することで、所定の時間区間であるフレーム毎(例えば、1000Hzのサンプリング間隔)の眼球の位置の時系列を眼球の動きに関する時系列情報として取得する。眼球情報取得部11は、撮像装置と画像処理アルゴリズムを実行するコンピュータなどによって実現されてもよいし、撮像装置を外部装置として、撮像装置から入力された画像を画像処理するアルゴリズムを実行するコンピュータなどによって実現されてもよい。あるいは、眼球情報取得部11は、電極を用いた電位計測法を用いて眼球の動きを測定し、その測定結果に基づいて「眼球自体の動き」に関する時系列情報を取得してもよい。この場合、眼球情報取得部11は、測定装置(電極を含む)と測定装置が測定した電位に基づいて眼球の位置を計算するアルゴリズムを実行するコンピュータなどによって実現されてもよいし、測定装置を外部装置として、測定装置から入力された電位に基づいて眼球の位置を計算するアルゴリズムを実行するコンピュータなどによって実現されてもよい。   The time-series information on the “movement of the eyeball itself” of the subject 9 is obtained based on an image obtained by photographing the eye of the subject 9 with an imaging device (for example, an infrared camera). The eye information acquisition unit 11 performs image processing on the captured image, for example, to obtain a time series of eye position in each frame (for example, a sampling interval of 1000 Hz) which is a predetermined time section, a time series related to the movement of the eye Acquire as information. The eye information acquisition unit 11 may be realized by an imaging device and a computer that executes an image processing algorithm, or a computer that executes an algorithm that processes an image input from the imaging device using the imaging device as an external device. It may be realized by Alternatively, the eyeball information acquiring unit 11 may measure the movement of the eyeball using the potential measurement method using the electrode, and may acquire the time-series information on the “movement of the eyeball itself” based on the measurement result. In this case, the eye information acquisition unit 11 may be realized by a measuring device (including an electrode) and a computer that executes an algorithm for calculating the position of the eye based on the potential measured by the measuring device. The external device may be realized by a computer or the like that executes an algorithm that calculates the position of the eyeball based on the potential input from the measurement device.

対象者9の「瞳孔の動き」に関する時系列情報は、撮像装置(例えば赤外線カメラ)で対象者9の眼を撮影して得られた映像に基づいて得られる。この場合、眼球情報取得部11は、撮影された映像を画像処理することで、フレーム毎(例えば、1000Hzのサンプリング間隔)の瞳孔の大きさの時系列を瞳孔の動きに関する時系列情報として取得する。眼球情報取得部11は、例えば瞳孔を撮影した画像に対して、瞳孔に円をフィッティングし、当該フィッティングした円の半径を瞳孔径として用いることができる。瞳孔径は微細に変動するため、眼球情報取得部11は、所定の時間区間ごとにスムージング(平滑化)した瞳孔径の値を用いれば好適である。眼球情報取得部11が取得する「瞳孔の動きに関する時系列情報」は、瞳孔の大きさに対応する値の時系列であればどのようなものであってもよい。例えば、「瞳孔の動きに関する時系列情報」は、z-scoreで表現された瞳孔径の時系列であってもよいし、瞳孔径の値そのものの時系列であってもよいし、瞳孔の面積や直径の時系列であってもよい。   The time-series information on the “pupil movement” of the subject person 9 is obtained based on the image obtained by photographing the eye of the subject person 9 with an imaging device (for example, an infrared camera). In this case, the eye information acquisition unit 11 performs image processing on the captured image to acquire a time series of pupil sizes for each frame (for example, a sampling interval of 1000 Hz) as time series information on the movement of the pupil. . The eye information acquisition unit 11 can, for example, fit a circle to the pupil of an image obtained by photographing the pupil, and use the radius of the fitted circle as the pupil diameter. Since the pupil diameter fluctuates minutely, it is preferable that the eye information acquisition unit 11 use the value of the pupil diameter smoothed for each predetermined time interval. The “time-series information on the movement of the pupil” acquired by the eye information acquisition unit 11 may be any time-series of values corresponding to the size of the pupil. For example, “time-series information on pupil movement” may be a time-series of pupil diameter represented by z-score, or may be a time-series of pupil diameter values themselves, or pupil area It may be a time series of or diameter.

ステップS12において、マイクロサッカード検出部12は、時刻t毎に眼球情報取得部11が出力した眼の動的な変化に関する情報に基づいて、マイクロサッカードの発生の有無を検出する。マイクロサッカード検出部12は、マイクロサッカードの発生を検出した場合、その時刻(すなわち、マイクロサッカードの発生時刻)を推定部13へ出力する。   In step S12, the microsaccade detection unit 12 detects the presence or absence of the microsaccade based on the information on the dynamic change of the eye output by the eye information acquisition unit 11 every time t. When detecting the occurrence of the microsaccade, the microsaccade detection unit 12 outputs the time (that is, the occurrence time of the microsaccade) to the estimation unit 13.

マイクロサッカードとは、眼球の動きに表れる微細な跳躍性眼球運動をいう。人間がある一点を注視しているとき、眼球は完全に動きを止めているわけではなく、固視微動と呼ばれる三種類の眼球運動であるドリフト(drift、trendといってもよい)、トレマ、マイクロサッカード(フリックといってもよい)を行っている。ドリフトは小さな滑らかな動き、トレマは非常に小さな高周波の振動、マイクロサッカードは小さな跳ぶような動きである。図4〜5を用いてマイクロサッカードを例示する。図4の最上段の図および図5AではマイクロサッカードMS〜MSを太線で強調して示す。マイクロサッカードはある一点を注視している状態において、1〜2秒の間に1回程度、個人の意思とは関係なく(不随意に)表れる眼球の動きであって、小さな跳ぶような動きのことである。マイクロサッカードは、動きの水平方向の成分、垂直方向の成分のどちらからでも取得することができる。本実施形態では、マイクロサッカードが水平方向に偏向する性質に基づき、簡単のため水平方向の成分のみを用いる。しかし、本発明で用いることができるマイクロサッカードの方向成分は水平方向に限定されない。なお、「水平方向」とは、地面と平行な方向に限定する意味ではなく、対象者9の顔に対しての水平方向(眼球の配列方向であり、横方向、幅方向といってもよい)や眼球情報取得部11において水平方向と定義された方向を含む概念である。 The microsaccade refers to fine jumping eye movement that appears in the movement of the eye. When a human is gazing at a certain point, the eyeball is not completely stopping movement, and three types of eye movement called drifting (also called drift, trend), trema, It is a micro-saccade (it may be called Flick). Drift is a small smooth movement, Trema is a very small high frequency oscillation, a micro saccade is a small jumping movement. The microsaccade is illustrated using FIGS. In the top row of FIG. 4 and FIG. 5A, the micro saccades MS 1 to MS 3 are shown with bold lines. A micro-saccade is an eye movement that appears (involuntarily) about once in 1 to 2 seconds while focusing on a certain point, and it is a small jumping movement It is The microsaccade can be obtained from either the horizontal or vertical component of the motion. In the present embodiment, only the horizontal component is used for simplicity, based on the property of the microsaccade to be deflected in the horizontal direction. However, the directional component of the microsaccade that can be used in the present invention is not limited to the horizontal direction. The “horizontal direction” does not mean to limit the direction parallel to the ground, but may be the horizontal direction with respect to the face of the target person 9 (the arrangement direction of the eyeballs, and may be referred to as the lateral direction or width direction). And the eye direction information acquisition unit 11 includes the direction defined as the horizontal direction.

ステップS13において、推定部13は、モデル記憶部10に記憶された基準注意レベルを表す情報と注意レベルの低下を表す情報とに基づいて、マイクロサッカード検出部12が出力したマイクロサッカードの発生時刻から注意レベルを推定する。具体的には、基準注意レベルを表す情報から基準注意レベル関数f0(t)を、時刻tiにおいて発生したマイクロサッカードによる注意レベルの低下を表す情報から注意レベル低下関数Li(τ)を構成し、マイクロサッカードの発生時刻t0, t1, t2, …それぞれにおいて注意レベル低下関数Li(τ)(i=0, 1, 2, …)を畳み込んだ関数と基準注意レベル関数f0(t)とを用い、式(5)に基づいて、推定したい時刻における注意レベルの推定値f(t)を得る。
例えば、推定部13は、モデル記憶部10に(c1, c2, …, c8)と基準注意レベル関数f0(t)とが記憶されている場合には、モデル記憶部10から読み込んだパラメータ(c1, c2, …, c8)と、基準注意レベル関数f0(t)と、眼球情報取得部11で取得した対象者9の眼の動的な変化に関する情報から求めたすべてのマイクロサッカードの特徴量Ai, ζi, ωiとから、式(2)〜(6)により注意レベルの推定値fを得る。
In step S13, the estimation unit 13 generates the microsaccade output from the microsaccade detection unit 12 based on the information indicating the reference attention level stored in the model storage unit 10 and the information indicating the decrease in attention level. Estimate the attention level from the time. More specifically, the reference attention level function f 0 (t) is derived from information representing the reference attention level, and the attention level reduction function L i (τ) is derived from the information representing a drop in attention level due to the microsaccade generated at time t i . Function, and a function of the attention level reduction function L i (τ) (i = 0, 1, 2,...) At each occurrence time t 0 , t 1 , t 2 ,. Based on equation (5), an estimated value f (t) of the attention level at the time to be estimated is obtained using the level function f 0 (t).
For example, when (c 1 , c 2 ,..., C 8 ) and the reference attention level function f 0 (t) are stored in the model storage unit 10, the estimation unit 13 reads them from the model storage unit 10. it parameter (c 1, c 2, ... , c 8) and a reference note level function f 0 (t), determined from information on the dynamic changes in the subject's eye 9 acquired at an eyeball information acquiring unit 11 From the feature quantities A i , ζ i , ω i of all the microsaccades, estimated values f of the attention level are obtained by the equations (2) to (6).

<第二実施形態>
注意レベル推定装置1のモデル記憶部10に記憶されている基準注意レベルを表す情報およびマイクロサッカードによる注意レベルの低下を表す情報は予め何らかの手法により与えておけばよいが、例えば、以下で説明する注意レベル推定モデル学習装置2が学習することにより求めることができる。
Second Embodiment
The information representing the reference attention level stored in the model storage unit 10 of the attention level estimation device 1 and the information representing a decrease in the attention level due to the micro saccade may be given in advance by any method, for example, as described below The attention level estimation model learning device 2 can perform the learning by learning.

第二実施形態の注意レベル推定モデル学習装置2は、図6に示すように、表示制御部21、眼球情報取得部22、特徴量抽出部23、入力部24、計測部25、学習部26、およびモデル記憶部10を備える。この注意レベル推定モデル学習装置2が図7に示す各ステップの処理を実行することにより、第二実施形態の注意レベル推定モデル学習方法が実現される。   As shown in FIG. 6, the attention level estimation model learning device 2 of the second embodiment includes a display control unit 21, an eye information acquisition unit 22, a feature quantity extraction unit 23, an input unit 24, a measurement unit 25, a learning unit 26, And a model storage unit 10. The attention level estimation model learning method of the second embodiment is realized by the attention level estimation model learning device 2 executing the processing of each step shown in FIG. 7.

注意レベル推定モデル学習装置2は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。注意レベル推定モデル学習装置2は、例えば、中央演算処理装置の制御のもとで各処理を実行する。注意レベル推定モデル学習装置2に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。注意レベル推定モデル学習装置2の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。注意レベル推定モデル学習装置2が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。   The attention level estimation model learning device 2 is configured by reading a special program into a known or dedicated computer having, for example, a central processing unit (CPU: Central Processing Unit), a main storage device (RAM: Random Access Memory), etc. Is a special device. The attention level estimation model learning device 2 executes each process, for example, under the control of the central processing unit. The data input to the attention level estimation model learning device 2 and the data obtained by each process are stored, for example, in the main storage device, and the data stored in the main storage device is read to the central processing unit as necessary. It is issued and used for other processing. At least a part of each processing unit of the attention level estimation model learning device 2 may be configured by hardware such as an integrated circuit. Each storage unit included in the attention level estimation model learning device 2 is, for example, an auxiliary storage configured by a main storage device such as a RAM (Random Access Memory) or a semiconductor memory device such as a hard disk or an optical disk or a flash memory. It can be configured by a device or middleware such as a relational database or key value store.

以下、図7を参照して、第二実施形態の注意レベル推定モデル学習装置2が実行する注意レベル推定モデル学習方法について説明する。   The attention level estimation model learning method performed by the attention level estimation model learning device 2 according to the second embodiment will be described below with reference to FIG. 7.

ステップS21において、表示制御部21は、モニタ等の表示装置8へランダムに対象物の画像を提示するよう制御を行う。表示装置8は、表示制御部21の制御に従い、所定のタイミングで所定の画像を表示画面内の所定の位置に表示する。提示する画像は予め用意して注意レベル推定モデル学習装置2内に記憶しておく。表示制御部21は、同時に、対象物の画像を表示装置8へ表示した時刻TOの情報を特徴量抽出部23、計測部25、および学習部26へ出力する。 In step S21, the display control unit 21 performs control to randomly present an image of an object to the display device 8 such as a monitor. The display device 8 displays a predetermined image at a predetermined position in the display screen at a predetermined timing according to the control of the display control unit 21. Images to be presented are prepared in advance and stored in the attention level estimation model learning device 2. The display control unit 21 simultaneously outputs the information of the time T O displaying the image of the object to the display device 8 feature amount extraction unit 23, the measuring unit 25, and the learning section 26.

表示装置8は対象者9の前に設置される。表示制御部21は、例えば、表示装置8の画面中央に十字の注視点を表示しておき、その注視点上に黒点を所定の時間間隔で所定の時間長だけ表示するように制御する。対象者9は、表示装置8の画面中央を注視しており、黒点が表示されたらできるだけ早く所定のボタン(入力部24に相当)を押下する。上記のタスクを複数回繰り返し試行する。   The display device 8 is installed in front of the subject person 9. The display control unit 21 displays, for example, a cross gazing point at the center of the screen of the display device 8, and controls to display a black point on the gazing point at a predetermined time interval and for a predetermined time length. The subject person 9 gazes at the center of the screen of the display device 8 and presses a predetermined button (corresponding to the input unit 24) as soon as a black dot is displayed. Repeat the above task several times.

表示制御部21が対象者9へ提示する画像は上記に限定されず、例えば、自動車が道路を走る場面を自動車の後方から撮影した映像としてもよい。この場合、自動車がブレーキを掛けたことを対象者9が知覚したら所定のボタン(入力部24に相当)を押下するタスクとすればよい。要するに、表示制御部21は、対象者9に対してランダムな時刻に所定の視覚刺激を提示するよう制御するものであり、対象者9は視覚刺激が提示されたら所定のタスク(上述の例ではボタンを押下する)を行う。このように、対象者9が所定の刺激(この例では視覚刺激)に注意を向けておく必要のあるタスクであって、その反応の速さや正確性を図ることができるものであれば、行わせるタスクは何でも良い。例えば、視覚刺激の代わりに聴覚刺激や触覚刺激を与えてもよいし、行わせるタスクもボタンを押下する以外の所定の動作を行わせるようなものであってもよい。   The image which the display control unit 21 presents to the target person 9 is not limited to the above, and may be, for example, a video of a scene where a car travels on a road taken from the rear of the car. In this case, it may be a task of pressing a predetermined button (corresponding to the input unit 24) when the target person 9 perceives that the vehicle has been braked. In short, the display control unit 21 controls the subject person 9 to present a predetermined visual stimulus at random times, and when the subject person 9 presents the visual stimulus, a predetermined task (in the above-described example) Press the button). As described above, it is a task that requires the target person 9 to pay attention to a predetermined stimulus (in this example, a visual stimulus), and it can be performed if the speed and accuracy of the reaction can be achieved. Any task can be done. For example, auditory stimulation or tactile stimulation may be provided instead of visual stimulation, and tasks to be performed may be such as performing predetermined operations other than pressing a button.

ステップS22において、眼球情報取得部22は、注意レベル推定装置1の眼球情報取得部11と同様に、各離散時間tにおける対象者9の眼の動的な変化に関する情報を取得し、特徴量抽出部23へ出力する。   In step S22, the eye information acquisition unit 22 acquires information on the dynamic change of the eye of the object person 9 at each discrete time t, similarly to the eye information acquisition unit 11 of the attention level estimation device 1, and extracts the feature value. Output to unit 23.

ステップS23において、特徴量抽出部23は、眼球情報取得部22が出力した眼の動的な変化に関する時系列情報から、表示装置8が対象物の画像を表示画面上に表示した時刻TO近傍の所定時間区間における眼の動的な変化を表す特徴量κ(t)を得る。例えば、特徴量抽出部23は、各時間区間Ftにおいて、対象者9のマイクロサッカードに基づく特徴を表すマークκt,1, …, κt,dを要素としたスカラまたはベクトルを特徴量κ(t)=(κt,1, …, κt,d)として抽出する(図5Aおよび図5B)。ただし、dは1以上の整数であり、特徴量κ(t)がスカラである場合にはd=1であり、特徴量κ(t)がベクトルである場合にはd≧2である。マイクロサッカードをマーク付き点過程で表現する場合、特徴量κ(t)は必ずしも同じ長さ(同じd)となるとは限らない。マーク付き点過程で表現する場合、特徴量κ(t)は時間区間Ft内で発生したマイクロサッカードのマークの集合を表すため、すべての離散時間tでdが同一となることは通常ない。時間区間Ft内でマイクロサッカードが発生しなければd=0となり、この場合には特徴量κ(t)は空集合となる。すなわち、空集合の特徴量κ(t)は、時間区間Ft内でマイクロサッカードが発生しなかったことを表す。あるいは、時間区間Ft内でマイクロサッカードが発生しなかった場合に、特徴量κ(t)を特殊な定数に設定してもよい。特徴量抽出部23は、得た特徴量κ(t)を学習部26へ出力する。 In step S23, the feature amount extraction unit 23, the time-series information on dynamic changes in eye eyeball information acquiring unit 22 outputs the time T O near the display device 8 displays the image of the object on the display screen Feature amount κ (t) representing dynamic change of the eye in a predetermined time interval of For example, the feature amount extraction unit 23 calculates a feature amount of a scalar or a vector having marks t t, 1 , ..., t t, d representing features based on the micro- saccade of the subject 9 in each time interval F t . Extract as κ (t) = (κ t, 1 ,..., t t, d ) (FIGS. 5A and 5B). However, d is an integer of 1 or more, d = 1 if the feature quantity κ (t) is a scalar, and d ≧ 2 if the feature quantity κ (t) is a vector. When expressing a micro saccade by a marked point process, the feature quantity 量 (t) is not necessarily the same length (the same d). When expressed by a marked point process, since the feature quantity ((t) represents a set of microsaccade marks generated in the time interval F t , it is not common for d to be the same at all discrete times t . If no microsaccade occurs in the time interval Ft , then d = 0, and in this case, the feature quantity κ (t) is an empty set. That is, the feature value κ (t) of the empty set represents that no microsaccade has occurred in the time interval F t . Alternatively, if the micro saccade has not occurred within the time interval F t, the feature quantity κ (t) is may be set to a special constant. The feature quantity extraction unit 23 outputs the obtained feature quantity κ (t) to the learning unit 26.

本実施形態では、眼球自体の動きに基づく特徴量として、マイクロサッカードに基づく特徴量を用いるものとする。この場合、特徴量抽出部23は、例えば眼球の位置の時系列について1次階差系列を計算し、1次階差系列の絶対値が所定の第1閾値を上回った時刻を、マイクロサッカードの開始時刻(発生時刻)として検出すればよい。ただし1次階差系列の絶対値が所定の閾値を上回る時間の長さが所定の値(通常3ミリ秒程度)以上持続しない場合は、検出から除外する。また、後述の基準振幅Aが所定の閾値(通常視野角2度程度)以上の場合はラージサッカードとして、検出から除外する。特徴量抽出部23は、取得された眼球の位置情報にノイズが多く含まれると判定した場合などには、1次階差系列の計算にあたって適当な範囲での移動平均値を用いても良い。検出に用いる閾値には、階差系列の標準偏差の6倍程度の値を用いることが好ましい。   In this embodiment, as the feature amount based on the movement of the eyeball itself, the feature amount based on microsaccade is used. In this case, the feature quantity extraction unit 23 calculates, for example, a primary difference sequence for the time series of the positions of the eyeballs, and the micro saccade detects the time when the absolute value of the primary difference sequence exceeds a predetermined first threshold. It may be detected as the start time (occurrence time) of However, if the length of time in which the absolute value of the primary difference sequence exceeds a predetermined threshold does not last longer than a predetermined value (usually about 3 milliseconds), it is excluded from detection. Moreover, when the below-mentioned reference amplitude A is more than a predetermined | prescribed threshold value (normal viewing angle 2 degree extent), it is excluded from detection as a large saccade. The feature quantity extraction unit 23 may use a moving average value within an appropriate range when calculating the first-order difference series, when it is determined that the acquired position information of the eyeball contains much noise. It is preferable to use a value of about six times the standard deviation of the difference series as the threshold used for detection.

マイクロサッカードの特徴としては、マイクロサッカードの発生タイミングに基づく値Z、運動方向に応じた値D、基準振幅Aの絶対値|A|、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Aoの絶対値|Ao|、オーバーシュートの速度Vo、立ち上がり時間K、減衰率λ、減衰係数ζ、固有角振動数ω、マイクロサッカードの単位時間(例えば1秒)あたりの発生回数Rmなどを例示でき、これらの少なくとも何れかをマイクロサッカードに基づく特徴量の要素(マーク)とできる。 The characteristics of the micro-saccade, a value based on the generation timing of the micro-saccades Z, the value D corresponding to the direction of motion, the absolute value of the reference amplitude A | A |, the maximum velocity V max, duration D m, overshoot Absolute value of amplitude A o | A o |, speed of overshoot V o , rise time K, damping rate λ, damping coefficient ζ, natural angular frequency ω n , microsaccade per unit time (for example, 1 second) The occurrence frequency R m and the like can be exemplified, and at least one of them can be used as an element (mark) of the feature amount based on the microsaccade.

時間区間Ftで発生したマイクロサッカードの発生タイミングに基づく値Zは、例えば、時間区間Ftの開始時刻Miであってもよいし、基準となる時間区間RFtに対応するマイクロサッカードの発生時刻RMtと開始時刻Miとの時間差|RMt-Mi|であってもよいし、開始時刻Miまたは時間差|RMt-Mi|の関数値g(Mi)またはg(|RMt-Mi|)であってもよい。基準となる時間区間RFtは時間区間Ftに対応し、例えばRFt=Ft-1である。関数値g(Mi)またはg(|RMt-Mi|)に限定はないが、例えば、代表値Miまたは時間差|RMt-Mi|が大きくなるほど小さくなり、負とならず、特異点を持たない関数の関数値を用いることができる。関数値g(Mi)の例は1/Miやexp(-Mi)などである。「exp」はネイピア数を底とする指数関数を表す。g(|RMt-Mi|)の例は1/|RMt−Mi|やexp(-|RMt-Mi|)などである。ただし、Miや|RMt-Mi|が0の場合には1/Miや1/|RMt-Mi|は∞となる。そのため、Miや|RMt-Mi|が0となるときにg(Mi)やg(|RMt-Mi|)を0としてもよい。このような時間区間Ftで発生したマイクロサッカードの発生タイミングに基づく値Zを特徴量κ(t)の何れかの要素としてもよい。 The value Z based on the generation timing of the micro-saccades that occur in a time interval F t is, for example, may be a start time M i time interval F t, micro saccade corresponding to the reference become time interval RF t The time difference between the occurrence time RM t and the start time M i may be | RM t −M i |, or the start time M i or the function value g (M i ) or g of the time difference | RM t −M i | It may be (| RM t -M i |). The reference time interval RF t corresponds to the time interval F t , for example RF t = F t−1 . The function value g (M i ) or g (| RM t −M i |) is not limited, but for example, it becomes smaller as the representative value M i or time difference | RM t −M i | Function values of functions having no singularity can be used. Examples of the function value g (M i ) are 1 / M i and exp (−M i ). "Exp" represents an exponential function based on the number of Napiers. Examples of g (| RM t -M i |) include 1 / | RM t -M i | and exp (-| RM t -M i |). However, when M i and | RM t -M i | are 0, 1 / M i and 1 / | RM t -M i | are ∞. Therefore, g (M i ) and g (| RM t -M i |) may be set to 0 when M i and | RM t -M i | are zero. The value Z based on the generation timing of the microsaccade generated in such a time interval F t may be used as one of the elements of the feature amount κ (t).

時間区間Ftで発生したマイクロサッカードの運動方向に応じた値Dは、当該運動方向ごとに定まる値である。例えば、運動方向に応じた値Dが、左右の運動方向に対応する2値の何れかをとってもよいし、左右上下の運動方向に対応する4値の何れかをとってもよいし、その他n方向の運動方向に対応するn値の何れかをとってもよい。一例としては、右方向(左眼から右眼に向かう方向)の運動方向に応じた値Dを第1値(例えば−1)とし、左方向(左眼から右眼に向かう方向)の運動方向に応じた値Dを第2値(例えば1)とする。このような時間区間Ftで発生したマイクロサッカードの運動方向に応じた値Dを特徴量κ(t)の何れかの要素としてもよい。 The value D according to the movement direction of the micro saccade generated in the time interval F t is a value determined for each movement direction. For example, the value D corresponding to the movement direction may take either of two values corresponding to the left and right movement directions, or may take one of four values corresponding to the left, right, upper and lower movement directions. Any of n values corresponding to the motion direction may be taken. As an example, a value D corresponding to the movement direction in the right direction (the direction from the left eye to the right eye) is taken as a first value (for example, −1), and the movement direction in the left direction (the direction from the left eye to the right eye) A value D corresponding to T is set to a second value (for example, 1). The value D corresponding to the movement direction of the microsaccade generated in such a time interval F t may be used as one of the elements of the feature quantity κ (t).

次に、図5Cを参照して、マイクロサッカードの基準振幅A、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間K、減衰率λについて説明する。
(1)基準振幅A:マイクロサッカードによる眼球の動きが収束したときの移動量である。
(2)最大速度Vmax:基準振幅A+オーバーシュートの振幅Aoに達するまでの最大の速度である。
(3)持続時間Dm:マイクロサッカードが起きている時間区間の長さである。マイクロサッカードの開始時刻は1次階差系列の絶対値が所定の閾値を上回る時刻で、マイクロサッカードの終了時刻は、オーバーシュートの振幅に達したあとに初めて基準振幅Aに戻る時刻である。
(4)オーバーシュート(overshoot)の振幅Ao:マイクロサッカードによって基準振幅Aを超過した(行き過ぎた)部分の量である。オーバーシュートとは、波形の立ち上がり部分で、波形が基準振幅Aを超えて突出する現象、または、その突出した波形である。言い換えると、オーバーシュートの振幅とは、突出した部分の量である。
(5)オーバーシュートの速度Vo:基準振幅A+オーバーシュートの振幅Aoから基準振幅Aに収束しようとする際の最大の速度である。
(6)立ち上がり時間K:基準振幅A+オーバーシュートの振幅Aoに達する(立ち上がる)までにかかる時間である。なお、基準振幅A+オーバーシュートの振幅Aoに達するまでにかかる時間は、最大速度Vmaxからオーバーシュートの速度Voに達するまでにかかる時間と同じ値となる。
(7)減衰率λ:基準振幅Aに対するオーバーシュートの振幅Aoの比である。最大速度Vmaxに対するオーバーシュートの速度Voの比としてもよく、
Next, referring to FIG. 5C, the microsaccade reference amplitude A, maximum velocity V max , duration D m , overshoot amplitude A o , overshoot velocity V o , rise time K, decay rate λ explain.
(1) Reference amplitude A: The amount of movement when the movement of the eyeball due to the micro saccade converges.
(2) Maximum velocity V max : This is the maximum velocity to reach the reference amplitude A + the amplitude A o of the overshoot.
(3) Duration time D m : The length of the time interval in which the microsaccade occurs. The start time of the microsaccade is the time when the absolute value of the primary difference sequence exceeds a predetermined threshold, and the end time of the microsaccade is the time when it returns to the reference amplitude A for the first time after reaching the overshoot amplitude. .
(4) the amplitude A o overshoot (overshoot phenomenon): reference amplitude A has been exceeded (excesses) by a micro saccade is the amount of parts. The overshoot is a phenomenon in which the waveform protrudes beyond the reference amplitude A at the rising portion of the waveform or a waveform that protrudes. In other words, the overshoot amplitude is the amount of the protruding portion.
(5) Overshoot velocity V o : This is the maximum velocity when trying to converge from the reference amplitude A + overshoot amplitude A o to the reference amplitude A.
(6) Rise time K: time taken to reach (rise) reference amplitude A + overshoot amplitude A o . The time taken to reach the reference amplitude A + the amplitude A o of the overshoot is equal to the time taken to reach the speed V o of the overshoot from the maximum speed V max .
(7) Attenuation rate λ: A ratio of overshoot amplitude A o to reference amplitude A. It may be the ratio of the overshoot speed V o to the maximum speed V max ,

Figure 2019111291
Figure 2019111291

と表される。 It is expressed as

マイクロサッカードの減衰係数ζ、固有角振動数ωは、 Damping coefficient マ イ ク ロ of microsaccade, natural angular frequency ω n is

Figure 2019111291
Figure 2019111291

と表される。固有角振動数ωはマイクロサッカードの応答の速さを表す指標に相当し、減衰係数ζはマイクロサッカードの応答の収束性を表す指標に相当する。 It is expressed as The natural angular frequency ω n corresponds to an index representing the speed of response of the microsaccade, and the damping coefficient ζ corresponds to an index representing the convergence of the response of the microsaccade.

特徴量抽出部23は、マイクロサッカードの減衰係数ζ、固有角振動数ω、基準振幅Aを、マイクロサッカードが起きている間の眼球の位置をフィッティングし、最小二乗法などによって最適化することで計算してもよい。 The feature amount extraction unit 23 optimizes the attenuation coefficient マ イ ク ロ of the microsaccade, the natural angular frequency ω n , and the reference amplitude A by the least squares method etc. by fitting the position of the eye while the microsaccade occurs. You may calculate by doing.

マイクロサッカードの減衰係数ζは、運動が左右方向に依存して値が変化する傾向があるため、特徴量抽出部23は、左方向のマイクロサッカードの減衰係数の代表値、右方向のマイクロサッカードの減衰係数の代表値を分けて計算してもよい。   Since the attenuation coefficient 23 of the microsaccade tends to change its value depending on the motion in the left and right direction, the feature quantity extraction unit 23 is a representative value of the attenuation coefficient of the microsaccade in the left direction, The representative value of the saccade attenuation coefficient may be calculated separately.

時間区間Ftで発生した上述のようなマイクロサッカードの基準振幅Aの絶対値|A|、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Aoの絶対値|Ao|、オーバーシュートの速度Vo、立ち上がり時間K、減衰率λ、減衰係数ζ、固有角振動数ωの少なくとも何れかを特徴量κ(t)の何れかの要素としてもよい。 Absolute value | A | of the reference amplitude A of the above microsaccade generated in the time interval F t , maximum velocity V max , duration D m , absolute value of overshoot amplitude A o | A o | At least one of the shoot speed V o , the rise time K, the attenuation factor λ, the attenuation coefficient ζ, and the natural angular frequency ω n may be used as one of the elements of the feature quantity 量 (t).

ステップS24において、入力部24は、対象者9からの所定の入力を受け付ける。対象者9は表示装置8の表示画面を見ており、表示装置8に対象物の画像が表示されたらボタンを押すようなタスクを行うものとする。入力部24は、所定の入力(ここではボタン押下)を受け付けた時刻TINを計測部25へ出力する。 In step S24, the input unit 24 receives a predetermined input from the object person 9. It is assumed that the target person 9 looks at the display screen of the display device 8 and performs a task such as pressing a button when an image of the object is displayed on the display device 8. The input unit 24 outputs the time T IN at which a predetermined input (here, a button pressed) is received to the measuring unit 25.

ステップS25において、計測部25は、表示制御部21から受け取った対象物の画像を表示画面上に表示した時刻TOと、入力部24から受け取った入力を受け付けた時刻TINとの時間差TO-TINを計算し、その時間差に基づいて反応速度の速さを示す指標を学習部26へ出力する。 In step S25, the measuring unit 25, the time difference T O of the time T O displaying an image of the object received from the display control unit 21 on the display screen, the time T IN that has received the input received from the input unit 24 Calculate T IN , and output an index indicating the speed of the reaction speed to the learning unit 26 based on the time difference.

ステップS26において、学習部26は、計測部25が出力した反応速度の速さを示す指標から算出した注意レベルを表す指標とそのときの特徴量との組の集合である学習用データから、基準注意レベル関数f0(t)と注意レベル低下関数L(τ)のパラメータとを学習する。ここで、「そのときの特徴量」とは、特徴量抽出部23から得た時刻TO近傍の特徴量である。 In step S26, the learning unit 26 uses the learning data, which is a set of an index representing the attention level calculated from the index indicating the speed of the reaction speed output by the measuring unit 25, and the feature value at that time. The attention level function f 0 (t) and the parameters of the attention level reduction function L (τ) are learned. Here, the term "feature quantity when" a feature amount of time T O near obtained from the feature extractor 23.

学習用データは、表示装置8へ所定の画像を表示して、対象者9から入力を受け付ける試行を複数回行って、試行毎に反応速度を示す指標と、特徴量抽出部23から得た時刻TO近傍の特徴量の組を得ておくものとする。これにより、試行毎の特徴量と注意レベルを表す指標との組の集合である学習用データを得ることができる。 The learning data displays a predetermined image on the display device 8, performs a plurality of trials of receiving an input from the target person 9, and generates an index indicating the reaction speed for each trial and the time obtained from the feature extraction unit 23 It assumed to be to obtain a characteristic quantity of the set of T O vicinity. As a result, it is possible to obtain learning data that is a set of a set of feature amounts for each trial and an index representing an attention level.

上述のとおり、注意レベルが高いほど、反応速度が早くなると考えられる。つまり、反応速度を示す指標と注意レベルを表す指標には負の相関があるものとして、反応速度を示す指標から注意レベルを表す指標を求めることができる。例えば、反応速度を示す指標に関する広義単調減少関数値を、注意レベルを表す指標の指標値とすればよい。あるいは、反応速度を示す指標が所定の値以下であれば注意レベルが高いことを表す指標を注意レベルの指標とし、反応速度を示す指標が所定の値より大きい場合は、注意レベルが低いことを表す指標を注意レベルの指標とすればよい。例えば、次式を計算することにより、反応速度RTを注意レベルLに変換することができる。   As mentioned above, it is believed that the higher the attention level, the faster the reaction rate. That is, it is possible to obtain an index representing the attention level from the index representing the reaction speed, assuming that the index representing the reaction speed and the index representing the attention level have a negative correlation. For example, a broad monotonous decreasing function value related to an index indicating reaction speed may be used as an index value of an index indicating attention level. Alternatively, if the indicator indicating the reaction rate is less than the predetermined value, the indicator indicating that the caution level is high is used as the caution level indicator, and if the indicator indicating the reaction rate is greater than the predetermined value, the caution level is low. The indicator to be represented may be the indicator of the attention level. For example, the reaction rate RT can be converted to the caution level L by calculating the following equation.

Figure 2019111291
Figure 2019111291

ここで、RTminは学習データ中の反応速度の最小値、RTmaxは学習データ中の反応速度の最大値である。この変換式によれば注意レベルLは必ず0から1の値を取ることになる。こうして得られた注意レベルLを「注意レベルの観測値」とする。 Here, RT min is the minimum value of the reaction rate in the learning data, and RT max is the maximum value of the reaction rate in the learning data. According to this conversion equation, the caution level L always takes a value of 0 to 1. The attention level L thus obtained is referred to as "observation level observation value".

まず、注意レベル低下関数L(τ)のパラメータの学習について説明する。学習部26は、学習用データを用いて、注意レベル低下関数L(τ)の形を決定するαとlpeakを学習する。この処理は、αとlpeakを決定する関数のパラメータ(c1, c2, …, c8)を学習することに相当する。このパラメータ(c1, c2, …, c8)は、<注意レベルのモデル化>で説明したように、個人毎に設定しておくことができる。例えば、パラメータ(c1, c2, …, c8)に適当な初期値を設定し、式(2)および式(3)により得られるαとlpeakに基づいて式(4)により計算される注意レベルの推定値^Liと、学習用データを式(7)に当てはめることで求めた注意レベルL(これを「注意レベル観測値」とする)との最小二乗誤差が小さくなるように、パラメータ(c1, c2, …, c8)を繰り返し更新していくことで、パラメータ(c1, c2, …, c8)を学習する。ここで、式(2)(3)におけるAi, ζi, ωiは、それぞれi回目の試行において、対象物の画像が表示された時刻の最も直近で生じたマイクロサッカードの振幅、減衰係数、固有角振動数とし、τiはそのマイクロサッカードから対象物の画像が表示されるまでの時間とする。また、学習の基準は最小二乗誤差でなくとも、注意レベル観測値と注意レベルの推定値^Liとの距離等を用いれば良い。要するに、注意レベル観測値と注意レベルの推定値^Liとが近づくようにパラメータ(c1, c2, …, c8)を繰り返し更新させれば良い。 First, learning of parameters of the attention level lowering function L (τ) will be described. The learning unit 26 learns α and l peak which determine the form of the attention level lowering function L (τ) using the learning data. This processing corresponds to learning the parameters (c 1 , c 2 ,..., C 8 ) of the function that determines α and l peak . The parameters (c 1 , c 2 ,..., C 8 ) can be set for each individual as described in <Caution level modeling>. For example, the parameters (c 1 , c 2 ,..., C 8 ) are set to appropriate initial values, and calculated by equation (4) based on α and l peak obtained by equations (2) and (3) The least squared error between the estimated value ^ L i of the attention level and the attention level L (this is called "attention level observation value") obtained by applying the training data to equation (7) , the parameter (c 1, c 2, ... , c 8) by repeating continue updating the parameters (c 1, c 2, ... , c 8) to learn. Here, A i , ζ i , and ω i in Equations (2) and (3) are the amplitude and attenuation of the microsaccade that occurred most immediately at the time when the image of the object was displayed in the i-th trial, respectively. Let the coefficient, the natural angular frequency, and τ i be the time from the microsaccade until the image of the object is displayed. The reference learning without the least square error, may be used such as a distance between the estimated value ^ L i of caution level and attention level observations. In short, the parameters (c 1 , c 2 ,..., C 8 ) may be repeatedly updated so that the attention level observation value and the attention level estimation value ^ L i approach each other.

また、学習部26では、基準注意レベル関数f0(t)のパラメータも学習させておく。例えば、上記のように複数回の試行により得られた各反応速度を示す指標に対応する注意レベルの指標の平均値を、基準となる注意レベルを示すパラメータとする。 The learning unit 26 also learns the parameters of the reference attention level function f 0 (t). For example, the average value of the attention level indicators corresponding to the indicators indicating the reaction rates obtained in a plurality of trials as described above is used as the parameter indicating the reference attention level.

学習部26は、学習により得た基準注意レベル関数f0(t)のパラメータと注意レベル低下関数L(τ)のパラメータをモデル記憶部10へ記憶する。注意レベル低下関数L(τ)のパラメータは、αとlpeakでもよいし、αとlpeakを特定するパラメータである(c1, c2, …, c8)でも良い。 The learning unit 26 stores the parameter of the reference attention level function f 0 (t) obtained by learning and the parameter of the attention level lowering function L (τ) in the model storage unit 10. The parameters of the attention level reduction function L (τ) may be α and l peak or may be parameters specifying α and l peak (c 1 , c 2 ,..., C 8 ).

<実験結果>
以下の内容で実験を行い、本発明の効果を評価した。
<Experimental result>
The experiment was conducted with the following contents to evaluate the effect of the present invention.

被験者の前方74cmの位置にスクリーンを設置し、スクリーン中央に黒点を1.5-3.5秒間隔で各0.5秒間表示する。黒点が表示していない場合は、スクリーン中央に十字の注視点が表示されるものとする。被験者は、実験中スクリーン中央の注視点を注視しており、黒点が表示されたらできるだけ早くボタンを押して反応する。黒点の直径は視野角にして2.0度となるように設定する。上記の課題を25名の被験者に対して各32回試行した。なお、眼球運動の計測にはSR Research社製Eyelink CLを用い、サンプリング周波数は1000Hzとした。   The screen is placed 74 cm in front of the subject, and black spots are displayed in the center of the screen at intervals of 1.5 to 3.5 seconds for 0.5 seconds each. When the black point is not displayed, it is assumed that a cross point is displayed in the center of the screen. The subject gazes at the fixation point in the center of the screen during the experiment, and responds by pressing the button as soon as possible when a black dot is displayed. The diameter of the black point is set to 2.0 degrees as a viewing angle. The above task was tried 32 times for each of 25 subjects. The eye movement was measured using Eyelink CL manufactured by SR Research, and the sampling frequency was set to 1000 Hz.

収集した実験データは以下のように解析した。まず、各試行において黒点が表示されたタイミングに対して最も直近に生じたマイクロサッカードを1つずつ検出した。黒点の表示開始時刻と最近接のマイクロサッカード発生時刻との時刻差をRTとした。また、マイクロサッカードの振幅、減衰係数、固有角振動数を計算した。ただし、マイクロサッカードが直近3秒以内に生じていなかった試行は除外した。反応時間RTを取得できた各実験データに対して上記式(7)を計算し、反応時間RTを注意レベルLに変換した。   The experimental data collected was analyzed as follows. First, the microsaccade most recently generated with respect to the timing at which the black dot was displayed in each trial was detected one by one. The time difference between the display start time of the black point and the microsaccade occurrence time closest to it was taken as RT. In addition, the microsaccade amplitude, damping coefficient and natural angular frequency were calculated. However, trials where microsaccades did not occur within the last 3 seconds were excluded. The above equation (7) was calculated for each experimental data for which the reaction time RT could be obtained, and the reaction time RT was converted to a caution level L.

実験結果を、図8に示す。図8Aは、ある被験者における試行ごとの注意レベルの観測値と推定値とを比較したグラフである。図8Aの例では、注意レベルの観測値と推定値の相関係数Rは0.6709となった。図8Bは、被験者全体の試行ごとの観測値と推定値の散布図である。グラフ中の1点は1回の試行を表している。被験者毎に注意レベルの観測値と推定値の相関係数を計算すると、88%の被験者で有意な相関が認められた。相関係数の平均値はR=0.5221±0.1968であり、最大値は0.8730であった。   The experimental results are shown in FIG. FIG. 8A is a graph comparing the observed value and the estimated value of attention level for each trial in a certain subject. In the example of FIG. 8A, the correlation coefficient R between the observation value at the attention level and the estimation value is 0.6709. FIG. 8B is a scatter plot of trial-to-trial observations and estimates for the entire subject. One point in the graph represents one trial. When correlation coefficients between observed and estimated attention levels were calculated for each subject, 88% of subjects showed significant correlation. The average value of the correlation coefficient was R = 0.5221 ± 0.1968, and the maximum value was 0.8730.

以上のように、本発明の注意レベル推定装置によれば、高精度に注意レベルを推定できることが実証された。   As described above, according to the attention level estimation device of the present invention, it has been proved that the attention level can be estimated with high accuracy.

<応用例>
タスクに対する注意レベルの推定が可能となることにより、以下のようなことが可能となる。例えば、高い正確性を要する作業においては、作業員の注意レベルが低下してくると作業ミスが発生しやすくなり、事故の要因ともなりうる。そこで、本発明により所定時間毎に注意レベルを推定し、注意レベルが所定のレベルを下回ったら休憩を促す等により、事故を未然に防止することが可能になる。乗り物の運転等においても、注意レベルが低下すると事故の要因となりうるので、同様のことが考えられる。
<Example of application>
By being able to estimate the attention level for a task, the following can be made. For example, in an operation requiring high accuracy, when the worker's attention level decreases, an operation error is likely to occur, which may be a cause of an accident. Therefore, according to the present invention, it is possible to prevent an accident in advance by estimating a caution level at predetermined time intervals and prompting a break when the caution level falls below a predetermined level. The same thing can be considered in driving a vehicle, etc., because a drop in caution level may cause an accident.

以上、この発明の実施の形態について説明したが、具体的な構成は、これらの実施の形態に限られるものではなく、この発明の趣旨を逸脱しない範囲で適宜設計の変更等があっても、この発明に含まれることはいうまでもない。実施の形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。   As mentioned above, although embodiment of this invention was described, a specific structure is not restricted to these embodiment, Even if there is a change of design suitably etc. in the range which does not deviate from the meaning of this invention, Needless to say, it is included in the present invention. The various processes described in the embodiment are not only executed chronologically according to the order described, but may be executed in parallel or individually depending on the processing capability of the apparatus executing the process or the necessity.

[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
[Program, recording medium]
When various processing functions in each device described in the above embodiments are implemented by a computer, the processing content of the function that each device should have is described by a program. By executing this program on a computer, various processing functions in each of the above-described devices are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。   The program describing the processing content can be recorded in a computer readable recording medium. As the computer readable recording medium, any medium such as a magnetic recording device, an optical disc, a magneto-optical recording medium, a semiconductor memory, etc. may be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   Further, the distribution of this program is carried out, for example, by selling, transferring, lending, etc. a portable recording medium such as a DVD, a CD-ROM, etc. in which the program is recorded. Furthermore, this program may be stored in a storage device of a server computer, and the program may be distributed by transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。   For example, a computer that executes such a program first temporarily stores a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. Then, at the time of execution of the process, this computer reads the program stored in its own storage device and executes the process according to the read program. Further, as another execution form of this program, the computer may read the program directly from the portable recording medium and execute processing according to the program, and further, the program is transferred from the server computer to this computer Each time, processing according to the received program may be executed sequentially. In addition, a configuration in which the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes processing functions only by executing instructions and acquiring results from the server computer without transferring the program to the computer It may be Note that the program in the present embodiment includes information provided for processing by a computer that conforms to the program (such as data that is not a direct command to the computer but has a property that defines the processing of the computer).

また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   Further, in this embodiment, although the present apparatus is configured by executing a predetermined program on a computer, at least a part of the processing contents may be realized as hardware.

1 注意レベル推定装置
2 注意レベル推定モデル学習装置
8 表示装置
9 対象者
10 モデル記憶部
11 眼球情報取得部
12 マイクロサッカード検出部
13 推定部
21 表示制御部
22 眼球情報取得部
23 特徴量抽出部
24 入力部
25 計測部
26 学習部
DESCRIPTION OF SYMBOLS 1 attention level estimation device 2 attention level estimation model learning device 8 display device 9 target person 10 model storage unit 11 eye information acquisition unit 12 micro saccade detection unit 13 estimation unit 21 display control unit 22 eye information acquisition unit 23 feature amount extraction unit 24 input unit 25 measurement unit 26 learning unit

Claims (9)

基準注意レベルを表す情報と注意レベルの低下を表す情報とを記憶するモデル記憶部と、
対象者の眼の動的な変化を取得する眼球情報取得部と、
上記眼の動的な変化からマイクロサッカードの発生時刻を検出するマイクロサッカード検出部と、
上記基準注意レベルを表す情報と上記注意レベルの低下を表す情報とに基づいて上記マイクロサッカードの発生時刻から注意レベルを推定する推定部と、
を含む注意レベル推定装置。
A model storage unit for storing information indicating a reference attention level and information indicating a decrease in attention level;
An eye information acquisition unit for acquiring a dynamic change of the subject's eye;
A microsaccade detection unit configured to detect a microsaccade occurrence time from the dynamic change of the eye;
An estimation unit that estimates an attention level from the occurrence time of the micro saccade based on the information indicating the reference attention level and the information indicating a decrease in the attention level;
Attention level estimation device including.
請求項1に記載の注意レベル推定装置であって、
上記基準注意レベルを表す情報は、平均的な注意レベルを表す関数であり、
上記注意レベルの低下を表す情報は、マイクロサッカードの発生に伴う注意レベルの低下を表す関数であり、
上記推定部は、上記平均的な注意レベルを表す関数に対して上記マイクロサッカードの発生時刻において上記注意レベルの低下を表す関数を畳み込んで上記注意レベルを推定するものである、
注意レベル推定装置。
The attention level estimation device according to claim 1, wherein
The information representing the reference attention level is a function representing an average attention level,
The information representing the reduction in attention level is a function representing the reduction in attention level accompanying the occurrence of microsaccade,
The estimation unit is configured to estimate the attention level by convoluting a function representing a drop in the attention level at the occurrence time of the microsaccade with a function representing the average attention level.
Attention level estimation device.
請求項2に記載の注意レベル推定装置であって、
上記注意レベルの低下を表す関数は、マイクロサッカードが発生した時刻の直後に注意レベルを単調減少させ、その後、時間の経過と共に徐々に注意レベルを単調増加させる関数である、
注意レベル推定装置。
The attention level estimation device according to claim 2, wherein
The function representing the lowering of the attention level is a function that monotonously decreases the attention level immediately after the time at which the microsaccade occurs and then gradually increases the attention level gradually with the passage of time.
Attention level estimation device.
請求項3に記載の注意レベル推定装置であって、
上記注意レベルの低下を表す関数は、単調減少時の勾配は大きく、単調増加時の勾配は小さい、
注意レベル推定装置。
The attention level estimation device according to claim 3, wherein
The function representing the above attention level reduction has a large gradient at monotonically decreasing and a small gradient at monotonically increasing.
Attention level estimation device.
表示装置へ所定の画像を表示する表示制御部と、
対象者の眼の動的な変化に関する時系列情報を取得する眼球情報取得部と、
上記眼の動的な変化に関する時系列情報からマイクロサッカードに基づく特徴量を抽出する特徴量抽出部と、
対象者が上記所定の画像に反応して行う所定の入力を受け付ける入力部と、
上記所定の画像が表示された時刻と上記所定の入力があった時刻とから反応速度を表す指標を計測する計測部と、
上記マイクロサッカードに基づく特徴量と上記反応速度を表す指標とに基づいてマイクロサッカードによる注意レベルの低下を表す情報を学習する学習部と、
を含む注意レベル推定モデル学習装置。
A display control unit for displaying a predetermined image on a display device;
An eye information acquisition unit that acquires time-series information on dynamic changes of the subject's eyes;
A feature amount extraction unit for extracting a feature amount based on a micro saccade from time-series information on the dynamic change of the eye;
An input unit that receives a predetermined input made by the subject in response to the predetermined image;
A measuring unit configured to measure an index representing a reaction rate from the time when the predetermined image is displayed and the time when the predetermined input is received;
A learning unit that learns information representing a drop in attention level by the microsaccade based on the feature amount based on the microsaccade and the index indicating the reaction speed;
Attention level estimation model learning device including.
請求項5に記載の注意レベル推定モデル学習装置であって、
上記学習部は、
上記注意レベルの低下を表す情報と上記マイクロサッカードに基づく特徴量とをパラメータとする関数の関数値である注意レベル推定値と、上記反応速度を表す指標に関する広義単調減少関数値である注意レベルの観測値との差が小さくなるように、上記注意レベルの低下を表す情報を繰り返し更新することにより、上記注意レベルの低下を表す情報を学習するものであり、
上記注意レベルの低下を表す情報と上記マイクロサッカードに基づく特徴量とをパラメータとする関数は、所定の注意レベルである基準注意レベルを基準として、直前のマイクロサッカードの発生時刻後に急激に注意レベルを低下させ、時間の経過と共に徐々に注意レベルを単調増加させるものである
ことを特徴とする注意レベル推定モデル学習装置。
The attention level estimation model learning device according to claim 5, wherein
The above learning unit
Attention level estimate value which is a function value of a function having as parameters the information indicating the reduction of the attention level and the feature quantity based on the microsaccade, and the attention level which is a broad monotonic decreasing function value related to the index representing the reaction speed The information representing the drop in the attention level is learned by repeatedly updating the information representing the drop in the attention level so that the difference with the observation value of
Based on the reference attention level which is a predetermined attention level, the function which uses the information indicating the lowering of the attention level and the feature quantity based on the microsaccade as a parameter makes a sudden attention after the occurrence time of the immediately preceding micro saccade. An attention level estimation model learning device characterized in that the level is lowered and the attention level is gradually increased monotonously with the passage of time.
モデル記憶部に、基準注意レベルを表す情報と注意レベルの低下を表す情報とが記憶されており、
眼球情報取得部が、対象者の眼の動的な変化を取得し、
マイクロサッカード検出部が、上記眼の動的な変化からマイクロサッカードの発生時刻を検出し、
推定部が、上記基準注意レベルを表す情報と上記注意レベルの低下を表す情報とに基づいて上記マイクロサッカードの発生時刻から注意レベルを推定する、
注意レベル推定方法。
The model storage unit stores information representing a reference attention level and information representing a decrease in attention level,
The eye information acquisition unit acquires a dynamic change of the subject's eye,
The micro saccade detection unit detects the micro saccade occurrence time from the dynamic change of the eye,
The estimation unit estimates the attention level from the occurrence time of the micro saccade based on the information indicating the reference attention level and the information indicating the decrease of the attention level.
Attention level estimation method.
表示制御部が、表示装置へ所定の画像を表示し、
眼球情報取得部が、対象者の眼の動的な変化に関する時系列情報を取得し、
特徴量抽出部が、上記眼の動的な変化に関する時系列情報からマイクロサッカードに基づく特徴量を抽出し、
入力部が、対象者が上記所定の画像に反応して行う所定の入力を受け付け、
計測部が、上記所定の画像が表示された時刻と上記所定の入力があった時刻とから反応速度を表す指標を計測し、
学習部が、上記マイクロサッカードに基づく特徴量と上記反応速度を表す指標とに基づいてマイクロサッカードによる注意レベルの低下を表す情報を学習する、
注意レベル推定モデル学習方法。
The display control unit displays a predetermined image on the display device,
The eye information acquisition unit acquires time-series information on dynamic changes of the subject's eyes,
A feature amount extraction unit extracts a feature amount based on a micro saccade from the time-series information on the dynamic change of the eye,
The input unit receives a predetermined input that the subject makes in response to the predetermined image,
The measuring unit measures an index representing a reaction rate from the time when the predetermined image is displayed and the time when the predetermined input is received,
The learning unit learns information representing a decrease in attention level due to the micro saccade based on the feature amount based on the micro saccade and the index indicating the reaction speed.
Attention level estimation model learning method.
請求項1から4のいずれかに記載の注意レベル推定装置または請求項5または6に記載の注意レベル推定モデル学習装置としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the attention level estimation device according to any one of claims 1 to 4 or the attention level estimation model learning device according to claim 5 or 6.
JP2017249389A 2017-12-26 2017-12-26 Attention level estimation device, attention level estimation model learning device, attention level estimation method, attention level estimation model learning method, and program Active JP6939533B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017249389A JP6939533B2 (en) 2017-12-26 2017-12-26 Attention level estimation device, attention level estimation model learning device, attention level estimation method, attention level estimation model learning method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017249389A JP6939533B2 (en) 2017-12-26 2017-12-26 Attention level estimation device, attention level estimation model learning device, attention level estimation method, attention level estimation model learning method, and program

Publications (2)

Publication Number Publication Date
JP2019111291A true JP2019111291A (en) 2019-07-11
JP6939533B2 JP6939533B2 (en) 2021-09-22

Family

ID=67223145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017249389A Active JP6939533B2 (en) 2017-12-26 2017-12-26 Attention level estimation device, attention level estimation model learning device, attention level estimation method, attention level estimation model learning method, and program

Country Status (1)

Country Link
JP (1) JP6939533B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112086196A (en) * 2020-09-16 2020-12-15 中国科学院自动化研究所 Method and system for multi-selective attention assessment and training
CN112115601A (en) * 2020-09-10 2020-12-22 西北工业大学 Reliable user attention monitoring estimation representation model
CN113440151A (en) * 2021-08-03 2021-09-28 合肥科飞康视科技有限公司 Concentration detection system, detection method and use method of system
WO2023047519A1 (en) * 2021-09-24 2023-03-30 日本電信電話株式会社 Learning device, estimation device, learning method, estimation method, and program
WO2023188904A1 (en) * 2022-03-29 2023-10-05 ソニーグループ株式会社 Information processing device, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070132950A1 (en) * 2004-03-22 2007-06-14 Volvo Technology Corporation Method and system for perceptual suitability test of a driver
JP2015116376A (en) * 2013-12-19 2015-06-25 株式会社デンソー State estimation apparatus and state estimation program
JP2015207163A (en) * 2014-04-21 2015-11-19 株式会社デンソー State estimation device and state estimation program
JP2017202047A (en) * 2016-05-10 2017-11-16 日本電信電話株式会社 Feature amount extraction device, estimation device, method for the same and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070132950A1 (en) * 2004-03-22 2007-06-14 Volvo Technology Corporation Method and system for perceptual suitability test of a driver
JP2015116376A (en) * 2013-12-19 2015-06-25 株式会社デンソー State estimation apparatus and state estimation program
JP2015207163A (en) * 2014-04-21 2015-11-19 株式会社デンソー State estimation device and state estimation program
JP2017202047A (en) * 2016-05-10 2017-11-16 日本電信電話株式会社 Feature amount extraction device, estimation device, method for the same and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112115601A (en) * 2020-09-10 2020-12-22 西北工业大学 Reliable user attention monitoring estimation representation model
CN112115601B (en) * 2020-09-10 2022-05-17 西北工业大学 Reliable user attention monitoring estimation representation model
CN112086196A (en) * 2020-09-16 2020-12-15 中国科学院自动化研究所 Method and system for multi-selective attention assessment and training
CN112086196B (en) * 2020-09-16 2023-11-28 中国科学院自动化研究所 Method and system for multi-selective attention assessment and training
CN113440151A (en) * 2021-08-03 2021-09-28 合肥科飞康视科技有限公司 Concentration detection system, detection method and use method of system
CN113440151B (en) * 2021-08-03 2024-04-12 合肥科飞康视科技有限公司 Concentration force detection system, detection method and use method of system
WO2023047519A1 (en) * 2021-09-24 2023-03-30 日本電信電話株式会社 Learning device, estimation device, learning method, estimation method, and program
WO2023188904A1 (en) * 2022-03-29 2023-10-05 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP6939533B2 (en) 2021-09-22

Similar Documents

Publication Publication Date Title
JP6939533B2 (en) Attention level estimation device, attention level estimation model learning device, attention level estimation method, attention level estimation model learning method, and program
JP7070605B2 (en) Focus range estimator, its method and program
Van de Cruys et al. Disentangling signal and noise in autism spectrum disorder
US20220095975A1 (en) Detection of cognitive state of a driver
EP3617815A1 (en) Work support device, work support method, and work support program
JP4743137B2 (en) Sleepiness determination apparatus and program
KR20150140814A (en) Head and eye tracking
JP6755839B2 (en) Exercise performance estimator, method, and program
Sato et al. How much to trust the senses: Likelihood learning
JP6479708B2 (en) Feature amount extraction apparatus, estimation apparatus, method thereof, and program
JP5139470B2 (en) Sleepiness level estimation device and sleepiness level estimation method
Thurman et al. Revisiting the importance of common body motion in human action perception
JP6344254B2 (en) Sleepiness detection device
JP6377545B2 (en) Personal identification method, personal identification device, program
JP7214986B2 (en) Reflectivity determination device, reflectivity determination method, and program
JP2017086529A (en) Impression estimation device and program
JP2018134274A5 (en)
CN109657550A (en) A kind of fatigue strength detection method and device
US20170319081A1 (en) Electronic device and control method
JP6604266B2 (en) Sleepiness detection device
JP2015131070A (en) Impression estimation device, method thereof, and program
JP6445418B2 (en) Impression estimation device, impression estimation method, and program
JP2017202048A (en) Feature amount extraction device, estimation device, method for the same and program
US20220370009A1 (en) Stress estimation device, stress estimation method, and recording media
KR101643744B1 (en) Device and method for detecting user fixation pupillary response

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R150 Certificate of patent or registration of utility model

Ref document number: 6939533

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150