JP2017202047A - Feature amount extraction device, estimation device, method for the same and program - Google Patents

Feature amount extraction device, estimation device, method for the same and program Download PDF

Info

Publication number
JP2017202047A
JP2017202047A JP2016094387A JP2016094387A JP2017202047A JP 2017202047 A JP2017202047 A JP 2017202047A JP 2016094387 A JP2016094387 A JP 2016094387A JP 2016094387 A JP2016094387 A JP 2016094387A JP 2017202047 A JP2017202047 A JP 2017202047A
Authority
JP
Japan
Prior art keywords
feature
feature amount
time interval
eye
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016094387A
Other languages
Japanese (ja)
Other versions
JP6479708B2 (en
Inventor
惇 米家
Makoto Yoneya
惇 米家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016094387A priority Critical patent/JP6479708B2/en
Publication of JP2017202047A publication Critical patent/JP2017202047A/en
Application granted granted Critical
Publication of JP6479708B2 publication Critical patent/JP6479708B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To estimate a psychological state from a kinetic change of an eye obtained in an optional environment.SOLUTION: A feature amount extraction device obtains a third feature amount depending on a degree of difference between a first feature amount obtained based on a kinetic change of an eye in a first temporal section and a feature amount in a first temporal section estimated from temporal sequence information on a second feature amount obtained based on a kinetic change of the eye in a second temporal section.SELECTED DRAWING: Figure 1

Description

本発明は、眼の動的な変化から心理状態を推定する技術に関する。   The present invention relates to a technique for estimating a psychological state from a dynamic change of an eye.

特許文献1,2には、所定の音を受聴可能とする第1時間区間と受聴可能としない第2時間区間での眼球の動きや瞳孔の大きさの変化に基づく特徴量の相違の度合いに基づいて、受聴させた音の目立ち度合いを推定する技術が開示されている。   In Patent Documents 1 and 2, the degree of difference in the feature amount based on the movement of the eyeball or the change in the size of the pupil between the first time interval in which a predetermined sound can be heard and the second time interval in which the predetermined sound cannot be heard is disclosed. Based on this, a technique for estimating the degree of conspicuousness of a received sound is disclosed.

特許第5718492号公報Japanese Patent No. 5718492 特許第5718493号公報Japanese Patent No. 5718493

しかし、特許文献1,2に開示された技術では、音を受聴可能とする第1時間区間と受聴可能としない第2時間区間とを人為的に設定する必要があった。そのため、任意の環境で得られた眼の動的な変化から心理状態を推定することはできなかった。   However, in the technologies disclosed in Patent Documents 1 and 2, it is necessary to artificially set the first time interval in which sound can be heard and the second time interval in which sound cannot be heard. Therefore, the psychological state could not be estimated from the dynamic change of the eye obtained in any environment.

本発明の課題は、任意の環境で得られた眼の動的な変化から心理状態を推定することである。   The subject of this invention is estimating a psychological state from the dynamic change of the eye obtained in arbitrary environments.

第1時間区間での眼の動的な変化に基づいて得られた第1特徴量と、第2時間区間での眼の動的な変化に基づいて得られた第2特徴量の時系列情報から推定した第1時間区間での特徴量と、の相違の度合いに応じた第3特徴量を得る。   Time series information of the first feature value obtained based on the dynamic change of the eye in the first time interval and the second feature value obtained based on the dynamic change of the eye in the second time interval A third feature value corresponding to the degree of difference from the feature value in the first time interval estimated from the above is obtained.

これにより、任意の環境で得られた眼の動的な変化から心理状態を推定できる。   Thereby, the psychological state can be estimated from the dynamic change of the eye obtained in an arbitrary environment.

図1は実施形態の装置構成を例示したブロック図である。FIG. 1 is a block diagram illustrating an apparatus configuration of the embodiment. 図2は実施形態の処理を説明するためのフロー図である。FIG. 2 is a flowchart for explaining the processing of the embodiment. 図3は眼球の動きを例示した図である。FIG. 3 is a diagram illustrating the movement of the eyeball. 図4はマイクロサッカードの特徴量を説明するための図である。FIG. 4 is a diagram for explaining the feature amount of the microsaccade. 図5は両眼の瞳孔径の変化を例示した図である。FIG. 5 is a diagram illustrating a change in pupil diameter of both eyes. 図6は各時間区間の特徴量を例示するための図である。FIG. 6 is a diagram for illustrating the feature amount of each time section. 図7Aは実験条件を説明するための図である。図7Aの上図が刺激間間隔の分布が規則的な条件を表し、下図が刺激間間隔の分布が100msの幅をもつ不規則条件を表し、黒塗りされた長方形が純音の呈示タイミングを表す。図7Bは実験によって得られた特徴量Stを例示したグラフである。FIG. 7A is a diagram for explaining experimental conditions. The upper diagram in FIG. 7A represents the regular condition of the inter-stimulus interval distribution, the lower diagram represents the irregular condition in which the inter-stimulus interval distribution has a width of 100 ms, and the black rectangle represents the presentation timing of the pure tone. . Figure 7B is a graph illustrating the feature amount S t obtained by the experiment.

以下、本発明の実施形態を説明する。
[原理]
まず本形態の原理を説明する。各実施形態では、「第1時間区間」での眼の動的な変化に基づいて得られた「第1特徴量」と、「第2時間区間」での眼の動的な変化に基づいて得られた「第2特徴量の時系列情報」から推定した「第1時間区間」での特徴量と、の相違の度合いに応じた「第3特徴量」を得る。「第3特徴量」は、「第2特徴量の時系列情報」を用いて予測された「第1時間区間」での特徴量に対し、実際に「第1時間区間」での眼の動的な変化に基づいて得られた「第1特徴量」がどの程度異なっているかを表す。つまり「第3特徴量」は、「第2時間区間」から予測される特徴量の趨勢からみて「第1時間区間」がどれだけ突飛なものであるかを表す指標である。そのため、「第3特徴量」を用いることで、「第1時間区間」および「第2時間区間」の環境を人為的に設定することなく、任意の環境で得られた眼の動的な変化から対象者の心理状態を推定できる。例えば、「第3特徴量」を対象者の注意度合いおよび驚き度合いの少なくとも一方を表すため、少なくとも「第3特徴量」を含む特徴量から注意度合いおよび驚き度合いの少なくとも一方を推定できる。また「第3特徴量」は「第2時間区間」での「第2特徴量の時系列情報」から予測される特徴量の趨勢(例えば、増加傾向にある、減少傾向にある、定常状態にあるなど)からみた新奇性を表すため、単純に「第2時間区間」での特徴量の平均値などに対する「第1特徴量」の相違の度合いを評価する場合に比べ、高い精度で対象者の心理状態を推定できる。
Embodiments of the present invention will be described below.
[principle]
First, the principle of this embodiment will be described. In each embodiment, based on the “first feature amount” obtained based on the dynamic change of the eye in the “first time interval” and the dynamic change of the eye in the “second time interval”. A “third feature amount” corresponding to the degree of difference from the feature amount in the “first time interval” estimated from the obtained “time series information of the second feature amount” is obtained. The “third feature amount” is the actual amount of eye movement in the “first time interval” compared to the feature amount in the “first time interval” predicted using the “time series information of the second feature amount”. It represents how much the “first feature value” obtained based on the change is different. In other words, the “third feature amount” is an index that indicates how much the “first time interval” is unusual in view of the trend of the feature amount predicted from the “second time interval”. Therefore, by using the “third feature amount”, the dynamic change of the eye obtained in an arbitrary environment without artificially setting the environments of the “first time interval” and the “second time interval”. The psychological state of the subject can be estimated from For example, since the “third feature amount” represents at least one of the degree of attention and the degree of surprise of the subject, at least one of the degree of attention and the degree of surprise can be estimated from the feature amount including at least the “third feature amount”. In addition, the “third feature amount” is the trend of the feature amount predicted from the “time series information of the second feature amount” in the “second time interval” (for example, in an increasing trend, a decreasing trend, or in a steady state) In order to express the novelty from the viewpoint of (e.g.), the target person with higher accuracy than simply evaluating the degree of difference of the "first feature quantity" with respect to the average value of the feature quantity in the "second time interval", etc. Can be estimated.

「第1時間区間」は、「第2時間区間」よりも後(未来)の時間区間であってもよいし、「第2時間区間」よりも前(過去)の時間区間であってもよいし、「第2時間区間」に含まれた時間区間であってもよい。「第1時間区間」は「第2時間区間」の直後または直前の時間区間であってもよいし、「第2時間区間」から離れた時間区間であってもよい。   The “first time interval” may be a time interval later (future) than the “second time interval”, or may be a time interval earlier (past) than the “second time interval”. The time interval included in the “second time interval” may be used. The “first time interval” may be a time interval immediately after or immediately before the “second time interval”, or may be a time interval away from the “second time interval”.

「第2時間区間」は「第1時間区間」よりも長い時間区間であることが望ましい。「第2時間区間」が長い方が特徴量の趨勢を正確に予測でき、その趨勢に対する「第1時間区間」の新奇性を高い精度で評価できるからである。例えば、「第2時間区間」が複数の「部分時間区間」からなり、「第1時間区間」が1つの「部分時間区間」であってもよい。「部分時間区間」の一例は、信号の処理単位であるフレームやフレームを構成するサブフレームなどである。ただし、「第2時間区間」から特徴量の趨勢を予測できるのであれば、「第2時間区間」と「第1時間区間」との長さが等しくてもよいし、「第2時間区間」が「第1時間区間」よりも短い時間区間であってもよい。   The “second time interval” is preferably a time interval longer than the “first time interval”. This is because the longer the “second time interval” can accurately predict the trend of the feature amount, and the novelty of the “first time interval” with respect to the trend can be evaluated with high accuracy. For example, the “second time interval” may include a plurality of “partial time intervals”, and the “first time interval” may be one “partial time interval”. An example of the “partial time section” is a frame that is a signal processing unit, a subframe that constitutes the frame, or the like. However, if the trend of the feature amount can be predicted from the “second time interval”, the lengths of the “second time interval” and the “first time interval” may be equal to each other. May be a time interval shorter than the “first time interval”.

「第2特徴量の時系列情報」は、「第2時間区間」内の複数の時間(時刻)または部分時間区間のそれぞれに対応する複数の特徴量からなる時系列である。すなわち、「第2特徴量の時系列情報」は、「第2時間区間」内の複数の時間または複数の部分時間区間に対応する時系列である。「複数の時間」は、互いに隣り合う離散時間であってもよいし、互いに隣り合わない離散時間であってもよいし、互いに隣り合う離散時間と互いに隣り合わない離散時間とを含んでいてもよい。同様に「複数の部分時間区間」は、互いに隣り合う部分時間区間であってもよいし、互いに隣り合わない部分時間区間であってもよいし、互いに隣り合う部分時間区間と互いに隣り合わない部分時間区間とを含んでいてもよい。   The “second feature amount time series information” is a time series composed of a plurality of feature amounts corresponding to a plurality of times (time) or partial time intervals in the “second time interval”. That is, the “second feature amount time series information” is a time series corresponding to a plurality of times or a plurality of partial time sections in the “second time section”. “Multiple times” may be discrete times that are adjacent to each other, may be discrete times that are not adjacent to each other, or may include discrete times that are adjacent to each other and discrete times that are not adjacent to each other. Good. Similarly, “a plurality of partial time intervals” may be partial time intervals adjacent to each other, may be partial time intervals that are not adjacent to each other, or may not be adjacent to partial time intervals that are adjacent to each other. And a time interval.

「第1特徴量」および「第2特徴量」は同一の対象者の眼の動的な変化に基づいて得られた特徴量である。「眼の動的な変化」は、眼球自体の動き(眼球の位置の経時変化)であってもよいし、瞳孔の動き(瞳孔径の経時変化)であってもよい。「特徴量」はどのようなものであってもよく、時間や部分時間区間のそれぞれに対応するスカラであってもよいし、時間や部分時間区間のそれぞれに対応する複数の要素からなるベクトルであってもよい。ただし、「第1特徴量」と「第2特徴量」とは同じ種別の特徴量である。また「特徴量」はその時系列からその趨勢を予測可能な要素を含む必要がある。各実施形態では、特徴量の趨勢からの相違具合によって、対象者の注意度合いおよび驚き度合いといった心理状態を評価するため、その前提として「特徴量」の趨勢を予測できなければならないからである。例えば、「第1特徴量」および「第2特徴量」は、眼球のサッカードに基づく特徴量を含むことが望ましい。「サッカード」はマイクロサッカード(micro saccade)であってもよいし、ラージサッカード(large saccade)であってもよい。眼球のサッカードに基づく特徴量としては、眼球の運動方向に基づく特徴量、眼球運動の振幅の絶対値に基づく特徴量、眼球運動の減衰係数に基づく特徴量、眼球運動の固有角振動数に基づく特徴量、眼球のサッカードの発生タイミングに基づく特徴量などを例示できる。特に、サッカードにおける眼球の運動方向や眼球運動の減衰係数などは時系列での依存性が高く、趨勢の予測が効き易い。そのため、「第1特徴量」および「第2特徴量」が、サッカードにおける眼球の運動方向および眼球運動の減衰係数の少なくとも一方に基づく特徴量を含むことが望ましい。また「第1特徴量」および「第2特徴量」が、眼球のサッカードの発生タイミングに基づく特徴量を含むことが望ましい。これにより、時間の進行に応じた特徴量の変化の趨勢を予測し易くなり、対象者の心理状態の推定精度が上がる。   The “first feature value” and the “second feature value” are feature values obtained based on dynamic changes in the eyes of the same subject. The “dynamic change of the eye” may be a movement of the eyeball itself (a time-dependent change in the position of the eyeball) or a movement of the pupil (a time-dependent change in the pupil diameter). The “feature” may be anything, may be a scalar corresponding to each time or partial time interval, or may be a vector composed of a plurality of elements corresponding to each time or partial time interval. There may be. However, the “first feature value” and the “second feature value” are the same type of feature value. Further, the “feature amount” needs to include an element that can predict the trend from the time series. This is because in each embodiment, since the psychological state such as the degree of attention and the degree of surprise of the subject is evaluated based on the difference from the trend of the feature quantity, the trend of the “feature quantity” must be predictable as a prerequisite. For example, the “first feature amount” and the “second feature amount” desirably include a feature amount based on the saccade of the eyeball. The “saccade” may be a micro saccade or a large saccade. Features based on eyeball saccade include feature values based on eye movement direction, feature values based on absolute value of eye movement amplitude, feature values based on eye movement attenuation coefficient, and natural angular frequency of eye movement. The feature amount based on the feature amount based on the generation timing of the saccade of the eyeball can be exemplified. In particular, the direction of eyeball movement and the eyeball movement attenuation coefficient in saccades are highly time-dependent and tend to predict trends. Therefore, it is desirable that the “first feature amount” and the “second feature amount” include a feature amount based on at least one of the eyeball movement direction and the eyeball movement attenuation coefficient in the saccade. Further, it is desirable that the “first feature amount” and the “second feature amount” include a feature amount based on the generation timing of the saccade of the eyeball. Thereby, it becomes easy to predict the trend of the change in the feature amount according to the progress of time, and the estimation accuracy of the psychological state of the target person is increased.

「第1特徴量」および「第2特徴量」が、同一の対象者の一方の眼(例えば、右眼)の動的な変化に由来する値と他方の眼(例えば、左眼)の動的な変化に由来する値との相対量に基づく特徴量を含んでもよい。両眼の動的な変化の相対量には対象者の属性や個性が表れ、そのような相対量に基づく特徴量の趨勢を利用することで、対象者の心理状態を高い精度で推定できる。特に両眼の瞳孔の動きの相対値には対象者の属性や個性が表れる。そのため、「第1特徴量」および「第2特徴量」が、同一の対象者の一方の眼の瞳孔の動きに由来する値と他方の眼の瞳孔の動きに由来する値との相対量に基づく特徴量を含むことが望ましい。「第1特徴量」および「第2特徴量」が、同一の対象者の一方の眼のサッカードに由来する値と他方の眼のサッカードに由来する値との相対量に基づく特徴量を含んでもよい。「αとβとの相対量」は、例えば、αとβとの差分、αからβを減じた値、βからαを減じた値、αをβで除した値、もしくはβをαで除した値、またはそれらの何れかの関数値である。「相対値に基づく特徴量」は、例えば、「相対値」もしくはその関数値、「相対値」もしくはその関数値を要素としたベクトル、または、それらの何れかの関数値である。   The “first feature value” and the “second feature value” are values derived from the dynamic change of one eye (for example, the right eye) of the same subject and the movement of the other eye (for example, the left eye). A feature amount based on a relative amount with a value derived from a general change may be included. The relative amount of the dynamic change of both eyes shows the attributes and personality of the subject, and the psychological state of the subject can be estimated with high accuracy by using the trend of the feature amount based on such relative amount. In particular, the attributes and personality of the subject appear in the relative values of the movement of the pupils of both eyes. Therefore, the “first feature value” and the “second feature value” are relative amounts of a value derived from the movement of the pupil of one eye of the same subject and a value derived from the movement of the pupil of the other eye. It is desirable to include a feature amount based on it. The “first feature amount” and the “second feature amount” are feature amounts based on a relative amount between a value derived from the saccade of one eye and a value derived from the saccade of the other eye of the same subject. May be included. “Relative amount of α and β” is, for example, the difference between α and β, the value obtained by subtracting β from α, the value obtained by subtracting α from β, the value obtained by dividing α by β, or β divided by α. Or a function value of any of them. The “feature amount based on relative value” is, for example, “relative value” or a function value thereof, a vector having “relative value” or the function value as an element, or any function value thereof.

「第2特徴量の時系列情報」を用いた「第1時間区間」での特徴量の予測方法に限定はない。例えば、自己回帰モデルやリカレントニューラルネットワークなどの予測モデルや、隠れマルコフモデルなどの確率モデルなどを用い、「第2特徴量の時系列情報」から「第1時間区間」での特徴量を予測してもよい。「対象者」は眼が動的に変化する動物であれば、ヒトであってもよいし、ヒト以外の動物であってもよい。   There is no limitation on the method of predicting the feature amount in the “first time interval” using the “time series information of the second feature amount”. For example, a prediction model such as an autoregressive model or a recurrent neural network, or a probability model such as a hidden Markov model is used to predict the feature quantity in the “first time interval” from the “time series information of the second feature quantity”. May be. The “subject” may be a human being or an animal other than a human being as long as the eye dynamically changes.

前述のように「第3特徴量」を含む特徴量を用いることで、対象者の注意度合いや驚き度合いなどの心理状態を推定できる。この推定方法に特に制限はない。例えば、「第3特徴量」が大きいほど注意度合いや驚き度合いが高いと推定してもよいし、「第3特徴量」が閾値よりも大きいか閾値以上の場合に注意度合いや驚き度合いが高いと推定し、そうでない場合に注意度合いや驚き度合いが低いと推定してもよい。または事前またはリアルタイムに得られた「第3特徴量」を含む特徴量を学習データとして教師ありまたは教師なしの機械学習を行って心理状態を表す値を推定するモデルを生成し、新たに得られた「第3特徴量」を含む特徴量をこのモデルに適用することで心理状態を表す値を推定してもよい。例えば、重回帰分析、k−means、サポートベクターマシーン(SVM)、単純クラスタリング、隠れマルコフモデル、ニューラルネットワーク、ディープラーニングなどを利用できる。   As described above, by using the feature amount including the “third feature amount”, it is possible to estimate the psychological state such as the degree of attention and the degree of surprise of the subject. There is no particular limitation on this estimation method. For example, it may be estimated that the degree of attention and the degree of surprise are higher as the “third feature amount” is larger, or the degree of attention and the degree of surprise are higher when the “third feature amount” is greater than or equal to the threshold value. If this is not the case, it may be estimated that the degree of attention or the degree of surprise is low. Alternatively, a model that estimates a value representing a psychological state by performing supervised or unsupervised machine learning using a feature amount including a “third feature amount” obtained in advance or in real time as a learning data is newly obtained. Further, a value representing the psychological state may be estimated by applying a feature amount including the “third feature amount” to the model. For example, multiple regression analysis, k-means, support vector machine (SVM), simple clustering, hidden Markov model, neural network, deep learning, etc. can be used.

[第1実施形態]
次に図面を用いて第1実施形態を説明する。
<構成および処理>
図1に例示するように、本形態のシステムは特徴量抽出装置11、および、推定装置12を含む。特徴量抽出装置11は、眼球情報取得部111、特徴量抽出部112、および特徴量算出部113を含み、推定装置12は推定部121を含む。特徴量算出部113は、予測モデル生成部113aおよび予測誤差特徴量計算部113bを有する。特徴量抽出装置11および推定装置12のそれぞれは、例えば、CPU(central processing unit)等のプロセッサ(ハードウェア・プロセッサ)およびRAM(random-access memory)・ROM(read-only memory)等のメモリ等を備える汎用または専用のコンピュータが所定のプログラムを実行することで構成される装置である。このコンピュータは1個のプロセッサやメモリを備えていてもよいし、複数個のプロセッサやメモリを備えていてもよい。このプログラムはコンピュータにインストールされてもよいし、予めROM等に記録されていてもよい。また、CPUのようにプログラムが読み込まれることで機能構成を実現する電子回路(circuitry)ではなく、プログラムを用いることなく処理機能を実現する電子回路を用いて一部またはすべての処理部が構成されてもよい。また、1個の装置を構成する電子回路が複数のCPUを含んでいてもよい。
[First Embodiment]
Next, a first embodiment will be described with reference to the drawings.
<Configuration and processing>
As illustrated in FIG. 1, the system of the present embodiment includes a feature amount extraction device 11 and an estimation device 12. The feature amount extraction device 11 includes an eyeball information acquisition unit 111, a feature amount extraction unit 112, and a feature amount calculation unit 113, and the estimation device 12 includes an estimation unit 121. The feature amount calculation unit 113 includes a prediction model generation unit 113a and a prediction error feature amount calculation unit 113b. Each of the feature quantity extraction device 11 and the estimation device 12 includes, for example, a processor (hardware processor) such as a central processing unit (CPU) and a memory such as random-access memory (RAM) and read-only memory (ROM). Is a device configured by a predetermined or dedicated computer executing a predetermined program. The computer may include a single processor and memory, or may include a plurality of processors and memory. This program may be installed in a computer, or may be recorded in a ROM or the like in advance. In addition, some or all of the processing units are configured using an electronic circuit that realizes a processing function without using a program, instead of an electronic circuit (circuitry) that realizes a functional configuration by reading a program like a CPU. May be. In addition, an electronic circuit constituting one device may include a plurality of CPUs.

《眼球情報取得部111(図2:ステップS111)》
眼球情報取得部111は、対象者100の各離散時刻の「眼の動的な変化」に関する時系列情報を取得し、取得した目の動的な変化に関する時系列情報を特徴量抽出部112へ出力する。取得される「眼の動的な変化」は、対象者100の眼球自体の動きであってもよいし、瞳孔の動きであってもよいし、それら両方であってもよい。眼球情報取得部111は、両眼の動的な変化に関する時系列情報を取得してもよいし、何れか一方の眼の動的な変化に関する時系列情報を取得してもよい。
<< Eyeball Information Acquisition Unit 111 (FIG. 2: Step S111) >>
The eyeball information acquisition unit 111 acquires time-series information regarding “dynamic changes in eyes” at each discrete time of the subject 100, and sends the acquired time-series information regarding dynamic changes in the eyes to the feature amount extraction unit 112. Output. The acquired “dynamic change of the eye” may be the movement of the eyeball itself of the subject 100, the movement of the pupil, or both of them. The eyeball information acquisition unit 111 may acquire time-series information regarding dynamic changes of both eyes, or may acquire time-series information regarding dynamic changes of either eye.

対象者100の「眼球自体の動き」に関する時系列情報は、撮像装置(例えば赤外線カメラ)で対象者100の眼を撮影して得られた映像に基づいて得られる。眼球情報取得部111は、例えば、撮影された映像を画像処理することで、所定の時間区間であるフレーム毎(例えば、1000Hzのサンプリング間隔)の眼球の位置の時系列を眼球の動きに関する時系列情報として取得する。眼球情報取得部111は、撮像装置と画像処理アルゴリズムを実行するコンピュータなどによって実現されてもよいし、撮像装置を外部装置として、撮像装置から入力された画像を画像処理するアルゴリズムを実行するコンピュータなどによって実現されてもよい。あるいは、眼球情報取得部111は、電極を用いた電位計測法を用いて眼球の動きを測定し、その測定結果に基づいて「眼球自体の動き」に関する時系列情報を取得してもよい。この場合、眼球情報取得部111は、測定装置(電極を含む)と測定装置が測定した電位に基づいて眼球の位置を計算するアルゴリズムを実行するコンピュータなどによって実現されてもよいし、測定装置を外部装置として、測定装置から入力された電位に基づいて眼球の位置を計算するアルゴリズムを実行するコンピュータなどによって実現されてもよい。図3に一方の眼球の動きを例示する。図3の横軸は時間[秒]を表し、縦軸は視野角[度]を表す。   The time-series information regarding the “movement of the eyeball itself” of the subject 100 is obtained based on an image obtained by photographing the eye of the subject 100 with an imaging device (for example, an infrared camera). The eyeball information acquisition unit 111 performs, for example, image processing on a captured video, thereby obtaining a time series of eyeball positions for each frame (for example, a sampling interval of 1000 Hz) that is a predetermined time interval. Obtain as information. The eyeball information acquisition unit 111 may be realized by an imaging device and a computer that executes an image processing algorithm, or a computer that executes an algorithm that performs image processing on an image input from the imaging device using the imaging device as an external device. It may be realized by. Alternatively, the eyeball information acquisition unit 111 may measure the movement of the eyeball using an electric potential measurement method using electrodes, and may acquire time-series information regarding “movement of the eyeball itself” based on the measurement result. In this case, the eyeball information acquisition unit 111 may be realized by a measurement device (including electrodes) and a computer that executes an algorithm for calculating the position of the eyeball based on the potential measured by the measurement device, or the measurement device may be The external device may be realized by a computer that executes an algorithm for calculating the position of the eyeball based on the potential input from the measurement device. FIG. 3 illustrates the movement of one eyeball. The horizontal axis of FIG. 3 represents time [second], and the vertical axis represents the viewing angle [degree].

対象者100の「瞳孔の動き」に関する時系列情報は、撮像装置(例えば赤外線カメラ)で対象者100の眼を撮影して得られた映像に基づいて得られる。例えば、対象者100にある1点を注視してもらうようにし、その時の瞳孔が赤外線カメラで撮像される。眼球情報取得部111は、撮影された映像を画像処理することで、フレーム毎(例えば、1000Hzのサンプリング間隔)の瞳孔の大きさの時系列を取得する。眼球情報取得部111は、例えば瞳孔を撮影した画像に対して、瞳孔に円をフィッティングし、当該フィッティングした円の半径を瞳孔径として用いることができる。瞳孔径は微細に変動するため、眼球情報取得部111は、所定の時間区間ごとにスムージング(平滑化)した瞳孔径の値を用いれば好適である。図5に右眼と左目の瞳孔の動き(瞳孔径の変化)を例示する。図5の横軸は時間[秒]を表し、縦軸は瞳孔径を表す。この瞳孔径は各時刻で取得した瞳孔径の全データの平均を0、標準偏差を1としたときのz-scoreで表現されている。ただし、眼球情報取得部111が取得する「瞳孔の動きに関する時系列情報」は、z-scoreで表現された瞳孔径の時系列でなくてもよく、瞳孔径の値そのものの時系列であってもよいし、瞳孔の面積や直径の時系列であってもよく、瞳孔の大きさに対応する値の時系列であればどのようなものであってもよい。   The time-series information regarding the “pupil movement” of the subject 100 is obtained based on an image obtained by photographing the eyes of the subject 100 with an imaging device (for example, an infrared camera). For example, the subject 100 is allowed to gaze at one point, and the pupil at that time is imaged by an infrared camera. The eyeball information acquisition unit 111 acquires a time series of pupil sizes for each frame (for example, a sampling interval of 1000 Hz) by performing image processing on the captured video. For example, the eyeball information acquisition unit 111 can fit a circle to the pupil of an image obtained by photographing the pupil, and use the radius of the fitted circle as the pupil diameter. Since the pupil diameter fluctuates minutely, it is preferable that the eyeball information acquisition unit 111 uses a pupil diameter value that is smoothed (smoothed) for each predetermined time interval. FIG. 5 illustrates the movement of the pupils of the right eye and the left eye (change in pupil diameter). The horizontal axis of FIG. 5 represents time [second], and the vertical axis represents the pupil diameter. This pupil diameter is expressed as z-score where the average of all the pupil diameter data acquired at each time is 0 and the standard deviation is 1. However, the “time series information regarding pupil movement” acquired by the eyeball information acquisition unit 111 may not be the time series of the pupil diameter expressed in z-score, but may be the time series of the pupil diameter value itself. Alternatively, it may be a time series of the area and diameter of the pupil, or any time series of values corresponding to the size of the pupil.

《特徴量抽出部112(ステップS112)》
特徴量抽出部112は、取得された「眼の動的な変化」に関する時系列情報から、所定の時間区間Ft(部分時間区間)での「眼の動的な変化」に基づく特徴量(yt,1,…,yt,d)(第1特徴量)、および、所定の時間区間Ft-1,…,Ft-pのそれぞれでの「眼の動的な変化」に基づく特徴量(yt-1,1,…,yt-1,d),…,(yt-p,1,…,yt-p,d)(第2特徴量)を抽出して出力する。ただし、i=t,t-1,…,t-pは時間区間Fiに対応する離散時間を表すインデックスであり、tは離散時間を表すインデックスであり、dは特徴量の要素数、すなわち次元を表す正の整数であり、pは1以上の整数であるが2以上であることが望ましい。iやtは値の大きさが大きいほど、新しい離散時間に対応する。pは定数であってもよいし、変数であってもよい。図6に例示するように、時間区間Ftが第1時間区間T1であり、p個の時間区間Ft-1,…,Ft-pからなる区間が第2時間区間T2である。特徴量がスカラである場合にはd=1であり、特徴量がベクトルである場合にはdは2以上の整数である。例えば、特徴量抽出部112は、各tにおいて、対象者100の「眼球自体の動き」「瞳孔の動き」の少なくとも何れかに基づく特徴量を要素としたスカラまたはベクトルを特徴量(yi,1,…,yi,d)(ただし、i=t,t-1,…,t-p)として抽出する。
<< Feature Extraction Unit 112 (Step S112) >>
The feature amount extraction unit 112 uses the feature amount based on the “eye dynamic change” in a predetermined time section F t (partial time section) from the acquired time-series information regarding the “eye dynamic change” ( y t, 1 ,..., y t, d ) (first feature amount) and feature amounts based on “dynamic change of eyes” in each of the predetermined time intervals F t−1 ,. (y t−1,1 ,..., y t−1, d ),..., (y tp, 1 ,..., y tp, d ) (second feature value) are extracted and output. Here, i = t, t-1,..., Tp is an index representing the discrete time corresponding to the time interval F i , t is an index representing the discrete time, and d is the number of elements of the feature quantity, that is, the dimension. It is a positive integer, and p is an integer of 1 or more, but is preferably 2 or more. i and t correspond to a new discrete time as the magnitude of the value increases. p may be a constant or a variable. As illustrated in FIG. 6, the time interval F t is the first time interval T 1 , and the interval consisting of the p time intervals F t−1 ,..., F tp is the second time interval T 2 . When the feature quantity is a scalar, d = 1, and when the feature quantity is a vector, d is an integer of 2 or more. For example, at each t, the feature amount extraction unit 112 uses a scalar or a vector having a feature amount based on at least one of “the movement of the eyeball” and “the movement of the pupil” of the subject 100 as a feature amount (y i, 1 , ..., y i, d ) (where i = t, t-1, ..., tp).

「眼球自体の動き」に基づく特徴量:
「眼球自体の動き」に基づく特徴量としては、例えば「マイクロサッカード」や「ラージサッカード」の特徴量を例示できる。「マイクロサッカード」および「ラージサッカード」の特徴量を用いる場合は、時間区間Fiはそれぞれ必ず一つだけのマイクロサッカードを含むか、あるいは一つだけのラージサッカードを含むように設定する。このとき、モデルの精度を上げるためには、なるべくマイクロサッカードやラージサッカードの誤検出や検出漏れのないことが望ましい。
Features based on “movement of the eyeball itself”:
Examples of the feature amount based on “movement of the eyeball itself” include feature amounts of “microsaccade” and “large saccade”. In the case of using a feature amount of "micro saccade" and "Large saccades", or the time interval F i comprises a micro saccade only one always respectively, or set to include large saccades only one To do. At this time, in order to increase the accuracy of the model, it is desirable to prevent microsaccades and large saccades from being erroneously detected and omissions as much as possible.

マイクロサッカードの特徴量:
「マイクロサッカード」とは、眼球の動きに表れる微細な跳躍性眼球運動をいう。人間がある一点を注視しているとき、眼球は完全に動きを止めているわけではなく、固視微動と呼ばれる三種類の眼球運動であるドリフト(drift、trendといってもよい)、トレマ、マイクロサッカード(フリックといってもよい)を行っている。ドリフトは小さな滑らかな動き、トレマは非常に小さな高周波の振動、マイクロサッカードは小さな跳ぶような動きである。図3を用いてマイクロサッカードを例示する。図3ではマイクロサッカードMS〜MSを太線で強調して示す。マイクロサッカードはある一点を注視している状態において、1〜2秒の間に1回程度、個人の意思とは関係なく(不随意に)表れる眼球の動きであって、小さな跳ぶような動きのことである。マイクロサッカードは、動きの水平方向の成分、垂直方向の成分のどちらからでも取得することができる。本実施形態では、マイクロサッカードが水平方向に偏向する性質に基づき、簡単のため水平方向の成分のみを用いる。しかし、本発明で用いることができるマイクロサッカードの方向成分は水平方向に限定されない。なお、「水平方向」とは、地面と平行な方向に限定する意味ではなく、対象者100の顔に対しての水平方向(眼球の配列方向であり、横方向、幅方向といってもよい)や眼球情報取得部111において水平方向と定義された方向を含む概念である。
Microsaccade features:
“Microsaccade” refers to minute jumping eye movements that appear in eye movements. When a person is gazing at a certain point, the eyeball does not stop moving completely, but three types of eye movements called drift (trend), trema, Micro saccade (may be called flick). Drift is a small smooth movement, trema is a very small high-frequency vibration, and microsaccade is a small jumping movement. A microsaccade is illustrated using FIG. In FIG. 3, the microsaccades MS 1 to MS 3 are shown with bold lines. Microsaccades are eye movements that appear (involuntarily) regardless of the individual's intentions, in a state of gazing at a certain point, once in 1 to 2 seconds. That is. Microsaccades can be obtained from either the horizontal or vertical component of motion. In this embodiment, based on the property that the microsaccade is deflected in the horizontal direction, only the component in the horizontal direction is used for simplicity. However, the direction component of the microsaccade that can be used in the present invention is not limited to the horizontal direction. The “horizontal direction” is not limited to a direction parallel to the ground, and is a horizontal direction with respect to the face of the subject 100 (an eyeball arrangement direction, which may be referred to as a horizontal direction or a width direction). ) Or the direction defined as the horizontal direction in the eyeball information acquisition unit 111.

特徴量抽出部112は、例えば眼球の位置の時系列について1次階差系列を計算し、1次階差系列の絶対値が所定の第1閾値を上回った時刻を、マイクロサッカードの開始時刻(発生時刻)として検出すればよい。ただし1次階差系列の絶対値が所定の閾値を上回る時間の長さが所定の値(通常3ms程度)以上持続しない場合は、検出から除外する。また、後述の基準振幅Aが所定の閾値(通常視野角2°程度)以上の場合はラージサッカードとして、検出から除外する。特徴量抽出部112は、取得された眼球の位置情報にノイズが多く含まれると判定した場合などには、1次階差系列の計算にあたって適当な範囲での移動平均値を用いても良い。検出に用いる閾値には、階差系列の標準偏差の6倍程度の値を用いることが好ましい。   For example, the feature quantity extraction unit 112 calculates a primary difference series for the time series of eyeball positions, and sets the time when the absolute value of the primary difference series exceeds a predetermined first threshold as the microsaccade start time. What is necessary is just to detect as (occurrence time). However, if the length of time that the absolute value of the primary difference series exceeds the predetermined threshold does not last longer than the predetermined value (usually about 3 ms), it is excluded from detection. Further, when a reference amplitude A described later is equal to or larger than a predetermined threshold (normal viewing angle of about 2 °), it is excluded from detection as a large saccade. The feature amount extraction unit 112 may use a moving average value in an appropriate range when calculating the primary difference series, for example, when it is determined that the acquired position information of the eyeball includes a lot of noise. The threshold used for detection is preferably a value about 6 times the standard deviation of the difference series.

マイクロサッカードの特徴量としては、マイクロサッカードの発生タイミングに基づく値Z、運動方向に応じた値D、基準振幅Aの絶対値|A|、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Aoの絶対値|Ao|、オーバーシュートの速度Vo、立ち上がり時間K、減衰率λ、減衰係数ζ、固有角振動数ω、マイクロサッカードの単位時間(例えば1秒)あたりの発生回数Rmなどを例示できる。前述のように、特にマイクロサッカードの発生タイミングに基づく値Z、運動方向に応じた値D、基準振幅Aの絶対値|A|、減衰係数ζを用いることが望ましい。 Microsaccade feature values include a value Z based on the microsaccade generation timing, a value D corresponding to the motion direction, an absolute value of the reference amplitude A | A |, a maximum speed V max , a duration D m , and an overshoot. Absolute value of amplitude A o | A o |, overshoot speed V o , rise time K, damping rate λ, damping coefficient ζ, natural angular frequency ω n , per unit time (for example, 1 second) of microsaccade and which may or may not be of occurrences R m. As described above, it is particularly desirable to use the value Z based on the microsaccade generation timing, the value D corresponding to the direction of motion, the absolute value | A | of the reference amplitude A, and the attenuation coefficient ζ.

時間区間Fiで発生したマイクロサッカードの発生タイミングに基づく値Zは、例えば、時間区間Fiの開始時刻Miであってもよいし、基準となる時間区間RFtに対応するマイクロサッカードの発生時刻RMと開始時刻Mとの時間差|RM−M|であってもよいし、開始時刻Mまたは時間差|RM−M|の関数値g(M)またはg(|RM−M|)であってもよい。基準となる時間区間RFtは時間区間Ftに対応し、例えばRFt=Ft-1である。関数値g(M)またはg(|RM−M|)に限定はないが、例えば、代表値Mまたは時間差|RM−M|が大きくなるほど小さくなり、負とならず、特異点を持たない関数の関数値を用いることができる。関数値g(M)の例は1/Mやexp(-M)などである。「exp」はネイピア数を底とする指数関数を表す。g(|RM−M|)の例は1/|RM−M|やexp(-|RM−M|)などである。ただし、Mや|RM−M|が0の場合には1/Mや1/|RM−M|は∞となる。そのため、Mや|RM−M|が0となるときにg(M)やg(|RM−M|)を0としてもよい。このような時間区間Fiで発生したマイクロサッカードの発生タイミングに基づく値Zを特徴量(yi,1,…,yi,d)の何れかの要素としてもよい。 The value Z based on the generation timing of the micro-saccades that occur in a time interval F i, for example, may be a start time M i time interval F i, micro saccade corresponding to the reference become time interval RF t May be the time difference | RM t −M i | between the occurrence time RM t and the start time M i , or the function value g (M i ) or g of the start time M i or the time difference | RM t −M i | (| RM t −M i |). The reference time interval RF t corresponds to the time interval F t , for example, RF t = F t−1 . The function value g (M i ) or g (| RM t −M i |) is not limited. For example, the larger the representative value M i or the time difference | RM t −M i | A function value of a function having no singular point can be used. Examples of the function value g (M i ) are 1 / M i and exp (−M i ). “Exp” represents an exponential function based on the Napier number. Examples of g (| RM t −M i |) are 1 / | RM t −M i | and exp (− | RM t −M i |). However, when M i and | RM t −M i | are 0, 1 / M i and 1 / | RM t −M i | are ∞. Therefore, g (M i ) and g (| RM t −M i |) may be set to 0 when M i and | RM t −M i | are 0. The value Z based on the generation timing of the microsaccade generated in such a time interval F i may be used as any element of the feature amount (y i, 1 ,..., Y i, d ).

時間区間Fiで発生したマイクロサッカードの運動方向に応じた値Dは、当該運動方向ごとに定まる値である。例えば、運動方向に応じた値Dが、左右の運動方向に対応する2値の何れかをとってもよいし、左右上下の運動方向に対応する4値の何れかをとってもよいし、その他n方向の運動方向に対応するn値の何れかをとってもよい。一例としては、右方向(左眼から右眼に向かう方向)の運動方向に応じた値Dを第1値(例えば−1)とし、左方向(左眼から右眼に向かう方向)の運動方向に応じた値Dを第2値(例えば1)とする。このような時間区間Fiで発生したマイクロサッカードの運動方向に応じた値Dを特徴量(yi,1,…,yi,d)の何れかの要素としてもよい。 The value D corresponding to the movement direction of the microsaccade generated in the time interval F i is a value determined for each movement direction. For example, the value D corresponding to the movement direction may take one of two values corresponding to the left and right movement directions, may take one of four values corresponding to the left, right, up and down movement directions, Any of the n values corresponding to the movement direction may be taken. As an example, the value D corresponding to the movement direction in the right direction (the direction from the left eye to the right eye) is set to the first value (for example, −1), and the movement direction in the left direction (the direction from the left eye to the right eye). A value D corresponding to the second value (for example, 1) is set. A value D corresponding to the motion direction of the microsaccade generated in such a time interval F i may be used as any element of the feature amount (y i, 1 ,..., Y i, d ).

次に図4を参照して、マイクロサッカードの基準振幅A、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間K、減衰率λについて説明する。
(1)基準振幅A:マイクロサッカードによる眼球の動きが収束したときの移動量である。
(2)最大速度Vmax:基準振幅A+オーバーシュートの振幅Aoに達するまでの最大の速度である。
(3)持続時間Dm:マイクロサッカードが起きている時間区間の長さである。マイクロサッカードの開始時刻は1次階差系列の絶対値が所定の閾値を上回る時刻で、マイクロサッカードの終了時刻は、オーバーシュートの振幅に達したあとに初めて基準振幅Aに戻る時刻である。
(4)オーバーシュート(overshoot)の振幅Ao:マイクロサッカードによって基準振幅Aを超過した(行き過ぎた)部分の量である。オーバーシュートとは、波形の立ち上がり部分で、波形が基準振幅Aを超えて突出する現象、または、その突出した波形である。言い換えると、オーバーシュートの振幅とは、突出した部分の量である。
(5)オーバーシュートの速度Vo:基準振幅A+オーバーシュートの振幅Aoから基準振幅Aに収束しようとする際の最大の速度である。
(6)立ち上がり時間K:基準振幅A+オーバーシュートの振幅Aoに達する(立ち上がる)までにかかる時間である。なお、基準振幅A+オーバーシュートの振幅Aoに達するまでにかかる時間は、最大速度Vmaxからオーバーシュートの速度Voに達するまでにかかる時間と同じ値となる。
(7)減衰率λ:基準振幅Aに対するオーバーシュートの振幅Aoの比である。最大速度Vmaxに対するオーバーシュートの速度Voの比としてもよく、

Figure 2017202047

と表される。 Next, the microsaccade reference amplitude A, maximum speed V max , duration D m , overshoot amplitude A o , overshoot speed V o , rise time K, and attenuation rate λ will be described with reference to FIG. To do.
(1) Reference amplitude A: the amount of movement when the movement of the eyeball by the microsaccade converges.
(2) Maximum speed V max : The maximum speed until reaching the reference amplitude A + the overshoot amplitude A o .
(3) Duration D m : the length of the time interval in which microsaccade is occurring. The start time of the microsaccade is a time when the absolute value of the first-order difference series exceeds a predetermined threshold, and the end time of the microsaccade is the time when the first return to the reference amplitude A is reached after reaching the overshoot amplitude. .
(4) Overshoot amplitude A o : The amount of the portion that exceeds (overshoots) the reference amplitude A by the microsaccade. The overshoot is a phenomenon in which the waveform protrudes beyond the reference amplitude A at the rising portion of the waveform, or the protruding waveform. In other words, the overshoot amplitude is the amount of the protruding portion.
(5) Overshoot speed V o : This is the maximum speed when attempting to converge from the reference amplitude A + the overshoot amplitude A o to the reference amplitude A.
(6) Rise Time K: a reference amplitude A + overshoot reaches the amplitude A o (rise) time it takes. The reference amplitude A + overshoot amplitude A o time to reach of the same value as the time it takes from the maximum velocity V max reach speeds V o overshoot.
(7) Attenuation rate λ: ratio of overshoot amplitude A o to reference amplitude A It may be the ratio of overshoot speed V o to maximum speed V max ,
Figure 2017202047

It is expressed.

マイクロサッカードの減衰係数ζ、固有角振動数ωは、

Figure 2017202047

と表される。固有角振動数ωはマイクロサッカードの応答の速さを表す指標に相当し、減衰係数ζはマイクロサッカードの応答の収束性を表す指標に相当する。 Microsaccade damping coefficient ζ and natural angular frequency ω n are
Figure 2017202047

It is expressed. The natural angular frequency ω n corresponds to an index representing the response speed of the microsaccade, and the damping coefficient ζ corresponds to an index representing the convergence of the microsaccade response.

特徴量抽出部112は、マイクロサッカードの減衰係数ζ、固有角振動数ω、基準振幅Aを、マイクロサッカードが起きている間の眼球の位置をフィッティングし、最小二乗法などによって最適化することで計算してもよい。 The feature extraction unit 112 fits the microsaccade damping coefficient ζ, natural angular frequency ω n , and reference amplitude A by fitting the position of the eyeball while the microsaccade is occurring, and optimizes it by the least square method or the like You may calculate by doing.

マイクロサッカードの減衰係数ζは、運動が左右方向に依存して値が変化する傾向があるため、特徴量抽出部112は、左方向のマイクロサッカードの減衰係数の代表値、右方向のマイクロサッカードの減衰係数の代表値を分けて計算しても良い。   Since the value of the attenuation coefficient ζ of the microsaccade tends to change depending on the movement in the left-right direction, the feature amount extraction unit 112 uses the representative value of the attenuation coefficient of the left-side microsaccade, the micro-saccade in the right direction, The representative value of the saccade attenuation coefficient may be calculated separately.

時間区間Fiで発生した上述のようなマイクロサッカードの基準振幅Aの絶対値|A|、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Aoの絶対値|Ao|、オーバーシュートの速度Vo、立ち上がり時間K、減衰率λ、減衰係数ζ、固有角振動数ωの少なくとも何れかを特徴量(yi,1,…,yi,d)の何れかの要素としてもよい。 The absolute value of the reference amplitude A of the micro-saccades as described above occurring in a time interval F i | A |, the maximum velocity V max, the absolute value of the duration D m, of the overshoot amplitude A o | A o |, over At least one of the chute speed V o , rise time K, damping rate λ, damping coefficient ζ, and natural angular frequency ω n is used as any element of the feature quantity (y i, 1 ,..., Y i, d ). Also good.

ラージサッカードの特徴量:
「ラージサッカード」とは、マイクロサッカードよりも振幅の大きな跳躍性眼球運動をいい、一般に振幅が視野角2度以上の場合をラージサッカード、2度未満のものをマイクロサッカードとする。特徴量抽出部112は、前述の基準振幅Aが所定の閾値以上となった時刻を、ラージサッカードの起きた開始時刻として検出すればよい。ラージサッカードの特徴量の例は、ラージサッカードの発生タイミングに基づく値Z、運動方向に応じた値D、基準振幅A、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間K、減衰率λ、減衰係数ζ、固有角振動数ω、単位時間あたりの発生回数Rm、発生回数などである。これらの具体例は、前述したマイクロサッカードの特徴量の例の「マイクロサッカード」を「ラージサッカード」に置換したものである。時間区間Fiで発生したラージサッカードの特徴量の少なくとも何れかを特徴量(yi,1,…,yi,d)の何れかの要素としてもよい。前述した理由より、特にラージサッカードの発生タイミングに基づく値Z、運動方向に応じた値D、基準振幅Aの絶対値|A|、減衰係数ζを用いることが望ましい。
Large saccade features:
“Large saccade” means a jumping eye movement with a larger amplitude than that of microsaccade. Generally, when the amplitude is a viewing angle of 2 degrees or more, a large saccade is less than 2 degrees and a microsaccade is a microsaccade. The feature amount extraction unit 112 may detect the time when the reference amplitude A is equal to or greater than a predetermined threshold as the start time when the large saccade occurs. Examples of large saccade feature values include a value Z based on the occurrence timing of large saccade, a value D corresponding to the direction of motion, a reference amplitude A, a maximum velocity V max , a duration D m , an overshoot amplitude A o , These are the overshoot speed V o , rise time K, damping rate λ, damping coefficient ζ, natural angular frequency ω n , number of occurrences R m per unit time, number of occurrences, and the like. These specific examples are obtained by replacing “microsaccade” in the example of the feature amount of the microsaccade described above with “large saccade”. At least one of the features of the large saccade generated in the time interval F i may be any element of the features (y i, 1 ,..., Y i, d ). For the reasons described above, it is particularly desirable to use the value Z based on the generation timing of the large saccade, the value D according to the direction of motion, the absolute value | A | of the reference amplitude A, and the attenuation coefficient ζ.

「瞳孔の動き」に基づく特徴量:
図5に例示したように、瞳孔の大きさは一定ではなく、変化している。瞳孔の大きさは交感神経系の支配を受けた瞳孔散大筋によって拡大(散瞳)し、副交感神経系の支配を受けた瞳孔括約筋によって収縮(縮瞳)する。瞳孔の大きさの変化は主に対光反射、輻輳反射、感情による変化の3つに区別される。対光反射は、網膜に入射する光量を制御するために瞳孔の大きさが変化する反応のことで、強い光に対しては縮瞳、暗所では散瞳が生じる。輻輳反射は、焦点を合わせる際に両眼が内転あるいは外転する運動(輻輳運動)に伴って瞳孔径が変化する反応のことで、近くを見るときには縮瞳、遠くを見るときには散瞳が生じる。感情による変化は、上記のいずれにもよらず外界のストレスに対して生じる反応のことで、怒りや驚き、活発な活動に伴って交感神経が優位となる際には散瞳が生じ、リラックスして副交感神経が優位となる際には縮瞳が生じる。「瞳孔の動き」に基づく特徴量としては、縮瞳の特徴量や散瞳の特徴量を用いることができる。
Features based on “pupil movement”:
As illustrated in FIG. 5, the size of the pupil is not constant but changes. The size of the pupil is enlarged (mydriasis) by the pupil dilator that is controlled by the sympathetic nervous system, and contracted (miosis) by the pupil sphincter that is controlled by the parasympathetic nervous system. Changes in the size of the pupil are mainly classified into three types: light reflection, convergence reflection, and emotional changes. The light reflection is a reaction in which the size of the pupil changes in order to control the amount of light incident on the retina. A miosis occurs for strong light, and a mydriasis occurs in a dark place. Convergence reflex is a reaction in which the pupil diameter changes with the movement of both eyes inward or outward (convergence movement) when focusing. Arise. The emotional change is a reaction that occurs to the external stress regardless of any of the above. When my sympathetic nerve is dominant due to anger, surprise, or active activity, mydriasis occurs and relaxes. When the parasympathetic nerve dominates, miosis occurs. As the feature amount based on “pupil movement”, a feature amount of a miosis or a feature amount of a mydriasis can be used.

縮瞳の特徴量:
縮瞳の開始する時刻(以下、縮瞳開始点)は、瞳孔の大きさの時系列から極大点を抽出することによって検出する。縮瞳の終了する時刻(以下、縮瞳終了点)は、縮瞳開始以降初めて散瞳が開始した点、または縮瞳開始以降初めて瞬目が開始した点のうち、時間が早い方とする。縮瞳の振幅Acは、縮瞳開始点から縮瞳終了点までの瞳孔径の差である。縮瞳の持続時間Dcは、縮瞳開始点から縮瞳終了点までの時間差である。平均縮瞳の速度Vcは、(振幅Ac)/(持続時間Dc)である。時間区間Fiで発生した縮瞳の振幅Ac、縮瞳の持続時間Dc、平均縮瞳の速度Vc、縮瞳の発生回数などを時間区間Fiでの「瞳孔の動き」に基づく特徴量として用いることができる。特徴量抽出部112は、時間区間Fiで発生した縮瞳の振幅Ac、縮瞳の持続時間Dc、平均縮瞳の速度Vc、縮瞳の発生回数の少なくとも何れかを特徴量(yi,1,…,yi,d)の何れかの要素としてもよい。時間区間Fiにおいて縮瞳が複数検出された場合、一つ一つの縮瞳について求めた縮瞳の振幅Ac、縮瞳の持続時間Dc、平均縮瞳の速度Vcのそれぞれの代表値の何れかを特徴量(yi,1,…,yi,d)の何れかの要素としてもよい。なお、ノイズによる誤検出を防ぐために、縮瞳の持続時間が所定の閾値(例えば、10ms)以下の場合、あるいは縮瞳の振幅が所定の閾値以下の場合は、その縮瞳を検出から除外してもよい。
Miotic features:
The time at which the miosis starts (hereinafter referred to as the miosis start point) is detected by extracting the maximum point from the time series of pupil sizes. The time at which the miosis ends (hereinafter referred to as the miosis end point) is the earlier of the point at which the mydriasis start for the first time after the start of miosis or the point at which the blinks start for the first time after the start of miosis. Amplitude A c of miosis is the difference in the pupil diameter from the miosis start point to miosis end point. The miosis duration D c is the time difference from the miosis start point to the miosis end point. The average miosis speed V c is (amplitude A c ) / (duration D c ). Amplitude A c of miosis occurring in a time interval F i, the duration D c of miosis, velocity V c of the average miosis, based on the "movements of the pupil" of the like number of occurrences of miosis in a time interval F i It can be used as a feature amount. The feature amount extraction unit 112 uses at least one of the amplitude A c of the miosis generated in the time interval F i , the duration D c of the miosis, the speed V c of the average miosis, and the number of occurrences of miosis as a feature amount ( y i, 1 ,..., y i, d ). When multiple miosis is detected in the time interval F i , representative values of the miosis amplitude A c , miosis duration D c , and average miosis velocity V c obtained for each miosis Any of these may be used as any element of the feature amount (y i, 1 ,..., Y i, d ). In order to prevent erroneous detection due to noise, if the duration of miosis is less than a predetermined threshold (for example, 10 ms) or if the amplitude of miosis is less than a predetermined threshold, the miosis is excluded from detection. May be.

散瞳の特徴量:
散瞳の開始する時刻(以下、散瞳開始点)は、瞳孔径の時系列から極小点を抽出することによって検出する。散瞳の終了する時刻(以下、散瞳終了点)は、散瞳開始以降初めて縮瞳が開始した点、または散瞳開始以降初めて瞬目が開始した点のうち、時間が早い方とする。散瞳の振幅Adは、散瞳開始点から散瞳終了点までの瞳孔径の差である。散瞳の持続時間Ddは、散瞳開始点から散瞳終了点までの時間差である。散瞳の平均速度Vdは、(振幅Ad)/(持続時間Dd)である。時間区間Fiで発生した散瞳の振幅Ad、散瞳の持続時間Dd、平均散瞳の速度Vd、散瞳の発生回数などを時間区間Fiでの「瞳孔の動き」に基づく特徴量として用いることができる。特徴量抽出部112は、時間区間Fiで発生した散瞳の振幅Ad、散瞳の持続時間Dd、平均散瞳の速度Vd、散瞳の発生回数の少なくとも何れかを特徴量(yi,1,…,yi,d)の何れかの要素としてもよい。時間区間Fiにおいて散瞳が複数検出された場合、一つ一つの散瞳について求めた散瞳の振幅Ad、散瞳の持続時間Dd、平均散瞳の速度Vdのそれぞれの代表値の何れかを特徴量(yi,1,…,yi,d)の何れかの要素としてもよい。なお、ノイズによる誤検出を防ぐために、散瞳の持続時間が所定の閾値(例えば、10ms)以下の場合、あるいは散瞳の振幅が所定の閾値以下の場合は、その散瞳を検出から除外してもよい。
Mydriatic features:
The time at which the mydriatic starts (hereinafter referred to as the mydriatic start point) is detected by extracting a minimum point from the time series of the pupil diameter. The time at which the mydriatic ends (hereinafter referred to as the mydriatic end point) is the earlier of the time when the miosis starts for the first time after the start of mydriasis or the time when the blink starts for the first time after the start of mydriasis. Amplitude A d mydriatic is the difference between the pupil diameter from mydriasis start point to mydriasis end point. The mydriatic duration D d is the time difference from the mydriatic start point to the mydriatic end point. The average speed V d of the mydriasis is (amplitude A d ) / (duration D d ). The amplitude A d of the mydriasis generated in the time interval F i , the duration of the mydriasis D d , the average mydriatic velocity V d , the number of occurrences of the mydriasis, etc. based on the `` pupil movement '' in the time interval F i It can be used as a feature amount. The feature amount extraction unit 112 uses at least one of the amplitude A d of the mydriasis generated in the time interval F i , the duration D d of the mydriasis, the average mydriatic velocity V d , and the number of occurrences of the mydriasis as a feature amount ( y i, 1 ,..., y i, d ). When multiple mydriasis are detected in the time interval F i , representative values of the mydriatic amplitude A d , mydriatic duration D d , and average mydriatic velocity V d obtained for each mydriatic Any of these may be used as any element of the feature amount (y i, 1 ,..., Y i, d ). In order to prevent false detection due to noise, if the duration of mydriasis is less than or equal to a predetermined threshold (for example, 10 ms), or if the amplitude of mydriasis is less than or equal to a predetermined threshold, that mydriatic is excluded from detection. May be.

前述のように、対象者100の一方の眼(例えば、右眼)の動的な変化に由来する値と他方の眼(例えば、左眼)の動的な変化に由来する値との相対量を特徴量(yi,1,…,yi,d)の何れかの要素としてもよい。眼の動的な変化に由来する値としては、前述したマイクロサッカードの特徴量、ラージサッカードの特徴量、縮瞳の特徴量、散瞳の特徴量などを用いることができる。ただし、一方の眼の動的な変化に由来する値と、他方の動的な変化に由来する値とは、同種の特徴量である。「相対量」の具体例は前述の通りである。 As described above, the relative amount between the value derived from the dynamic change of one eye (for example, the right eye) of the subject 100 and the value derived from the dynamic change of the other eye (for example, the left eye). May be any element of the feature value (y i, 1 ,..., Y i, d ). As the value derived from the dynamic change of the eye, the above-described microsaccade feature amount, large saccade feature amount, miosis feature amount, mydriatic feature amount, or the like can be used. However, the value derived from the dynamic change of one eye and the value derived from the other dynamic change are the same type of feature amount. Specific examples of the “relative amount” are as described above.

《特徴量算出部113(ステップS113)》
特徴量(yi,1,…,yi,d)(ただし、i=t,t-1,…,t-p)は特徴量算出部113に送られる。例えば、d=5であり、マイクロサッカードの発生タイミングに基づく値Z、運動方向に応じた値D、基準振幅Aの絶対値|A|、減衰係数ζ、および固有角振動数ωを特徴量の要素とする場合、特徴量(yi,1,…,yi,5)の要素は以下のようになる。このように第1特徴量(yt,1,…,yt,5)と第2特徴量(yt-1,1,…,yt-1,5),…,(yt-p,1,…,yt-p,5)とは同じ種別の特徴量である。

Figure 2017202047
<< Feature Quantity Calculation Unit 113 (Step S113) >>
The feature amount (y i, 1 ,..., Y i, d ) (where i = t, t−1,..., Tp) is sent to the feature amount calculation unit 113. For example, d = 5, characterized by a value Z based on the microsaccade generation timing, a value D according to the direction of motion, an absolute value | A | of the reference amplitude A, a damping coefficient ζ, and a natural angular frequency ω n In the case of a quantity element, the elements of the feature quantity (y i, 1 ,..., Y i, 5 ) are as follows. Thus the first feature quantity (y t, 1, ..., y t, 5) and the second feature quantity (y t-1,1, ..., y t-1,5), ..., (y t-p , 1 ,..., Y t-p, 5 ) are feature quantities of the same type.
Figure 2017202047

特徴量算出部113は、第1時間区間T1での対象者100の眼の動的な変化に基づいて得られた第1特徴量(yt,1,…,yt,d)と、第2時間区間T2での対象者100の眼の動的な変化に基づいて得られた第2特徴量の時系列情報(yt-1,1,…,yt-1,d),…,(yt-p,1,…,yt-p,d)から推定した第1時間区間T1での特徴量(y^t-1,1,…,y^t-1,d)と、の相違の度合いに応じた特徴量St(第3特徴量)を得て出力する。以下、この処理を例示する。本形態では、ベクトル自己回帰モデルを用い、(yt-1,1,…,yt-1,d),…,(yt-p,1,…,yt-p,d)から(y^t-1,1,…,y^t-1,d)を推定する例を示す。しかし、これは本発明を限定するものではない。なお、(y^t-1,1,…,y^t-1,d)の「^」は本来「y」の真上に表記すべきであるが、記載表記の制約上「^」を「y」を右上に表記する場合がある。第1特徴量や第2特徴量は必ずしも正規分布をとる特徴量とは限らないため、本形態のようにベクトル自己回帰モデルを用いる場合は、事前にBox-Cox変換等の手法によって特徴量を正規化しても良い。 The feature amount calculation unit 113 includes a first feature amount (y t, 1 ,..., Y t, d ) obtained based on the dynamic change of the eye of the subject 100 in the first time interval T 1 , Time series information (y t−1,1 ,..., Y t−1, d ) of the second feature amount obtained based on the dynamic change of the eye of the subject 100 in the second time interval T 2 , ..., (y t-p, 1 , ..., y t-p, d ), the feature value (y ^ t-1,1 , ..., y ^ t-1, d in the first time interval T 1 estimated from ) And a feature quantity S t (third feature quantity) corresponding to the degree of difference. Hereinafter, this process will be exemplified. In this embodiment, a vector autoregressive model is used, and (y t-1,1 , ..., y t-1, d ), ..., (y t-p, 1 , ..., y t-p, d ) to ( An example of estimating y ^ t-1,1 , ..., y ^ t-1, d ) is shown. However, this does not limit the invention. In addition, "^" in (y ^ t-1,1 , ..., y ^ t-1, d ) should be written directly above "y", but "^" “Y” may be written on the upper right. Since the first feature value and the second feature value are not necessarily feature values having a normal distribution, when a vector autoregressive model is used as in this embodiment, the feature value is previously obtained by a method such as Box-Cox conversion. It may be normalized.

《予測モデル生成部113a(ステップS113a)》
予測モデル生成部113aは、これまでの各t’で得られた(yt’,1,…,yt’,d),…,(yt’-p,1,…,yt’-p,d)を入力とし、以下のベクトル自己回帰モデルの係数c1,…,cd,φ1,1 (1),…,φd,d (1),…,φ1,1 (p),…,φd,d (p)を算出して出力する。ここでt≧t’である。例えばt’=t,t-1,t-2,...,t-wであり、wはw<tの整数である。例えば、t-wは時間インデックスの初期値(例えば、t-w=1)である。係数c1,…,cd,φ1,1 (1),…,φd,d (1),…,φ1,1 (p),…,φd,d (p)は、例えば、すべてのt’=t,t-1,t-2,...,t-wについての予測誤差(予測残差)εt’,1,…,εt’,dの大きさを最小化するように選択される。例えば、t’=t,t-1,t-2,...,t-wについてのεt’,1,…,εt’,dの合計やその関数値が最小となるように係数c1,…,cd,φ1,1 (1),…,φd,d (1),…,φ1,1 (p),…,φd,d (p)が設定される。

Figure 2017202047

選択された係数c1,…,cd,φ1,1 (1),…,φd,d (1),…,φ1,1 (p),…,φd,d (p)は、予測誤差特徴量計算部113bに送られる。 << Prediction Model Generation Unit 113a (Step S113a) >>
The prediction model generation unit 113a obtains (y t ', 1 , ..., y t', d ), ..., (y t'-p, 1 , ..., y t'- p, d ) as input and coefficients c 1 , ..., c d , φ 1,1 (1) , ..., φ d, d (1) , ..., φ 1,1 (p ) , ..., φ d, d (p) are calculated and output. Here, t ≧ t ′. For example, t ′ = t, t−1, t−2,..., Tw, and w is an integer of w <t. For example, tw is an initial value of the time index (for example, tw = 1). Coefficients c 1 , ..., c d , φ 1,1 (1) , ..., φ d, d (1) , ..., φ 1,1 (p) , ..., φ d, d (p) are, for example, To minimize the size of prediction error (prediction residual) ε t ', 1 , ..., ε t', d for all t '= t, t-1, t-2, ..., tw Selected. For example, the coefficient c 1 is set so that the sum of ε t ′, 1 ,..., Ε t ′, d and the function value of t ′ = t, t-1, t-2,. , ..., c d , φ 1,1 (1) , ..., φ d, d (1) , ..., φ 1,1 (p) , ..., φ d, d (p) are set.
Figure 2017202047

The selected coefficients c 1 ,…, c d , φ 1,1 (1) ,…, φ d, d (1) ,…, φ 1,1 (p) ,…, φ d, d (p) are The error is sent to the prediction error feature amount calculation unit 113b.

《予測誤差特徴量計算部113b(ステップS113b)》
予測誤差特徴量計算部113bは、係数c1,…,cd,φ1,1 (1),…,φd,d (1),…,φ1,1 (p),…,φd,d (p)、および、特徴量(yi,1,…,yi,d)(ただし、i=t,t-1,…,t-p)を入力とし、以下のようにtに対応する特徴量St(第3特徴量)を得て出力する。

Figure 2017202047

ただし、
Figure 2017202047

であり、
Figure 2017202047

であり、[・]は[・]の転置である。Σはy^tの分散共分散行列であり、Σのi行j列の要素Σijは以下の通りである。
Figure 2017202047

ただし、E[・]は[・]の期待値を表す。 << Prediction Error Feature Quantity Calculation Unit 113b (Step S113b) >>
The prediction error feature quantity calculation unit 113b uses coefficients c 1 , ..., c d , φ 1,1 (1) , ..., φ d, d (1) , ..., φ 1,1 (p) , ..., φ d , d (p) , and feature quantity (y i, 1 , ..., y i, d ) (where i = t, t-1, ..., tp) are input and correspond to t as follows: A feature quantity S t (third feature quantity) is obtained and output.
Figure 2017202047

However,
Figure 2017202047

And
Figure 2017202047

[•] T is the transpose of [•]. Σ t is a variance-covariance matrix of y ^ t , and elements Σ ij of i rows and j columns of Σ t are as follows.
Figure 2017202047

However, E [•] represents the expected value of [•].

特徴量Stは、第1時間区間T1での対象者100の眼の動的な変化に基づいて得られた第1特徴量(yt,1,…,yt,d)が、第2時間区間T2での対象者100の眼の動的な変化に基づいて得られた第2特徴量の時系列情報(yt-1,1,…,yt-1,d),…,(yt-p,1,…,yt-p,d)から推定した第1時間区間T1での特徴量(y^t-1,1,…,y^t-1,d)の分布において出現しうる確率に応じた値となる(図6)。ここで、(1)式は、一般に特徴量(yt,1,…,yt,d)の多変量正規分布の確率密度関数Ptは以下のようになることに基づく。

Figure 2017202047

ここで、μはytの平均ベクトルであり、Σt’はytの分散共分散行列である。特徴量Stは、第2特徴量から推定された確率分布における第1特徴量の出現確率が0に近いほど大きくなって1に近づき、出現確率が1に近いほど小さくなって0に近づく。つまり、特徴量Stは、新奇な状態であって対象者100の注意度合いや驚き度合いが高いほど大きな値となり、逆に、対象者100の注意度合いや驚き度合いが低いほど小さな値をとる。 The feature amount St is the first feature amount (y t, 1 ,..., Y t, d ) obtained based on the dynamic change of the eye of the subject 100 in the first time interval T 1 . Time series information (y t−1,1 ,..., Y t−1, d ) of the second feature amount obtained based on the dynamic change of the eye of the subject 100 in the 2-hour section T 2 ,. , (y t-p, 1 , ..., y t-p, d ), the feature value (y ^ t-1,1 , ..., y ^ t-1, d ) in the first time interval T 1 It becomes a value according to the probability of appearing in the distribution of (Fig. 6). Here, the expression (1) is generally based on the probability density function P t of the multivariate normal distribution of the feature quantities (y t, 1 ,..., Y t, d ) as follows.
Figure 2017202047

Here, μ is an average vector of y t , and Σ t ′ is a variance covariance matrix of y t . Feature amount S t is the probability of occurrence of the first feature quantity at the estimated probability distribution of the second feature quantity approaches 1 increases closer to 0, the occurrence probability approaches 0 becomes smaller toward 1. That is, the feature amount S t is a novel state attention degree and surprises the degree of the subject 100 becomes higher large value, conversely, attention degree and surprises the degree of the subject 100 takes a low enough small value.

《推定部121(ステップS121)》
特徴量Stは推定装置の推定部121に送られる。推定部121は、少なくとも特徴量Stを用い、注意度合いおよび/または驚き度合いといった対象者100の心理状態を推定し、その推定結果を出力する。
<< Estimation unit 121 (step S121) >>
The feature amount St is sent to the estimation unit 121 of the estimation device. Estimation unit 121, using at least the feature amount S t, estimates the psychological state of the subject 100 such as attention degree and / or surprise degree, and outputs the estimation result.

対象者100の心理状態の推定方法に限定はない。単純な方法としては、推定部121は、特徴量Stと閾値Th1(ただし、1>Th1>0)を比較し、St≧Th1であれば対象者100が注意状態および/または驚き状態にある旨の推定結果を出力し、そうでなければ対象者100が注意状態および/または驚き状態にない旨の推定結果を出力する。 There is no limitation on the method for estimating the psychological state of the subject 100. As a simple method, the estimation unit 121, the feature amount S t and the threshold Th 1 (however, 1> Th 1> 0) are compared, and the subject 100 if S t ≧ Th 1 caution condition and / or An estimation result indicating that the user is in a surprise state is output, and if not, an estimation result indicating that the subject 100 is not in an attention state and / or a surprise state is output.

推定部121が特徴量Stと複数の閾値Thmax,…,Th1(ただし、1>Thmax>…>Th1>0、maxは2以上の整数)とを比較し、特徴量Stが何れの範囲に属するかを表す値を、対象者100の注意度合いおよび/または驚き度合いを示すレベルを表す推定結果として出力してもよい。あるいは、推定部121が特徴量Stそのものや、特徴量Stに対する単調関数(単調増加関数や単調減少関数)を注意状態および/または驚き状態を表す推定結果として出力してもよい。 Estimation unit 121 the feature amount S t and a plurality of threshold Th max, ..., Th 1 (however, 1> Th max>...> Th 1> 0, max is an integer of 2 or more) is compared with the feature amount S t May be output as an estimation result indicating a level indicating the degree of attention and / or the degree of surprise of the subject 100. Alternatively, the estimation unit and 121 feature amount S t itself may output a monotonic function (monotone increasing function or a monotonically decreasing function) for the feature amount S t as an estimation result indicating the attentional state and / or surprise state.

特徴量Stと前述した時間区間Ftでの「眼の動的な変化」に基づく特徴量の何れかとを要素とするベクトルVFtを用い、注意度合いおよび/または驚き度合いといった対象者100の心理状態を推定してもよい。例えば、各tでのベクトルVFtをk-means等によってクラスタリングし、各ベクトルVFtが属するクラスタを表す情報を推定結果として出力してもよい。 In the feature amount S t and the above-mentioned time interval F t using a vector VF t be either preparative elements of the feature quantity based on the "dynamic changes in the eye", the subject 100 such as attention degree and / or surprise degree A psychological state may be estimated. For example, a vector VF t at each t clustered by k-means or the like, may output information indicating the cluster to which each vector VF t belongs as an estimation result.

[第2実施形態]
第1実施形態では、予測モデル生成部113aがリアルタイムに係数c1,…,cd,φ1,1 (1),…,φd,d (1),…,φ1,1 (p),…,φd,d (p)を更新した。しかしながら、事前に係数c1,…,cd,φ1,1 (1),…,φd,d (1),…,φ1,1 (p),…,φd,d (p)を計算しておき、これらの更新しないことにしてもよい。以下ではこれまで説明した事項との相違点を中心に説明し、既に説明した事項については同じ参照番号を引用して説明を簡略化する。
[Second Embodiment]
In the first embodiment, the prediction model generation unit 113a performs coefficients c 1 ,..., C d , φ 1,1 (1) , ..., φ d, d (1) , ..., φ 1,1 (p) in real time. , ..., φ d, d (p) were updated. However, the coefficients c 1 , ..., c d , φ 1,1 (1) , ..., φ d, d (1) , ..., φ 1,1 (p) , ..., φ d, d (p) May be calculated and these may not be updated. In the following, differences from the items described so far will be mainly described, and the items already described are referred to by the same reference numerals and the description is simplified.

図1に例示するように、本形態のシステムは特徴量抽出装置21、および、推定装置12を含む。特徴量抽出装置21は、眼球情報取得部111、特徴量抽出部112、および特徴量算出部213を含む。特徴量算出部213は、予測モデル生成部113a、予測誤差特徴量計算部113b、および記憶部213cを有する。本形態では、事前処理の段階で、予測モデル生成部113aが過去の各t’(ただし、t>t’)で得られた(yt’,1,…,yt’,d),…,(yt’-p,1,…,yt’-p,d)を入力とし、以下のベクトル自己回帰モデルの係数c1,…,cd,φ1,1 (1),…,φd,d (1),…,φ1,1 (p),…,φd,d (p)を算出して記憶部213cに格納しておく。各tでの処理では、ステップS111,112が実行された後、ステップS113aの処理が実行されることなく、ステップS113bの処理が実行される。ただし、ステップS113bでは、予測誤差特徴量計算部113bが、記憶部213cから抽出した係数c1,…,cd,φ1,1 (1),…,φd,d (1),…,φ1,1 (p),…,φd,d (p)、および、特徴量抽出部112から送られた特徴量(yi,1,…,yi,d)(ただし、i=t,t-1,…,t-p)を入力とし、前述のようにtに対応する特徴量St(第3特徴量)を得て出力する。その後、ステップS121の処理が実行される。これにより、リアルタイムな予測モデル生成処理を省略でき、処理を高速化できる。 As illustrated in FIG. 1, the system according to the present embodiment includes a feature amount extraction device 21 and an estimation device 12. The feature quantity extraction device 21 includes an eyeball information acquisition unit 111, a feature quantity extraction unit 112, and a feature quantity calculation unit 213. The feature amount calculation unit 213 includes a prediction model generation unit 113a, a prediction error feature amount calculation unit 113b, and a storage unit 213c. In this embodiment, at the pre-processing stage, the prediction model generation unit 113a is obtained at each past t ′ (where t> t ′) (y t ′, 1 ,..., Y t ′, d ),. , (y t'-p, 1 , ..., y t'-p, d ) as inputs, coefficients c 1 , ..., c d , φ 1,1 (1) , ..., φ d, d (1) ,..., φ 1,1 (p) ,..., φ d, d (p) are calculated and stored in the storage unit 213c. In the process at each t, after steps S111 and 112 are executed, the process of step S113b is executed without executing the process of step S113a. However, in step S113b, the prediction error feature quantity calculation unit 113b extracts coefficients c 1 ,..., C d , φ 1,1 (1) ,..., Φ d, d (1) ,. φ 1,1 (p) ,..., φ d, d (p) , and feature quantity (y i, 1 ,..., y i, d ) sent from the feature quantity extraction unit 112 (where i = t , t−1,..., tp) as inputs, and obtains and outputs a feature quantity S t (third feature quantity) corresponding to t as described above. Thereafter, the process of step S121 is executed. Thereby, the real-time prediction model generation process can be omitted, and the process can be speeded up.

[第3実施形態]
本形態は第1または2実施形態の変形例である。本形態では、少なくとも特徴量Stを事前に学習された予測モデルに適用し、注意度合いおよび/または驚き度合いといった対象者100の心理状態を推定する。
[Third Embodiment]
This embodiment is a modification of the first or second embodiment. In this embodiment, at least the feature quantity St is applied to a prediction model learned in advance, and the psychological state of the subject 100 such as the degree of attention and / or the degree of surprise is estimated.

図1に例示するように、第3実施形態の第1,2実施形態との相違点は、システムが推定装置12に代えて推定装置32を有する点である。推定装置32は、推定部321、モデル生成部322、および記憶部323を有する。本形態では、事前処理の段階で、モデル生成部322が、過去の各t”(ただし、t>t”)で得られた特徴量St”を少なくとも含む特徴量(例えば、特徴量St”またはベクトルVFt”)を入力とし、tで得られた特徴量Stを少なくとも含む特徴量(例えば、特徴量StまたはベクトルVFt)から、注意度合いおよび/または驚き度合いといった対象者100の心理状態を表す推定結果を出力する心理状態予測モデルを生成し、それを特定する情報(モデルパラメータ等)を記憶部323に格納しておく。この学習は特徴量St”を少なくとも含む特徴量と心理状態を表す正解ラベルとが関連付けられた学習データを用いた教師あり学習であってもよいし、特徴量St”を少なくとも含む特徴量のみを学習データとした教師なし学習であってもよい。ただし、学習データとして用いられる特徴量の種別とtで得られる特徴量の種別とは同一である。心理状態予測モデルとしては、例えば、サポートベクターマシーン、隠れマルコフモデル、ニューラルネットワーク、ディープラーニングなどを用いることができる。各tでの処理では、ステップS113bの処理の後、推定部321が記憶部323から抽出した情報に基づいて設定される心理状態予測モデルに対し、tで得られた特徴量Stを少なくとも含む特徴量を適用し、注意度合いおよび/または驚き度合いといった対象者100の心理状態を表す推定結果を出力する(図2:ステップS321)。 As illustrated in FIG. 1, the difference between the third embodiment and the first and second embodiments is that the system includes an estimation device 32 instead of the estimation device 12. The estimation device 32 includes an estimation unit 321, a model generation unit 322, and a storage unit 323. In this embodiment, at the stage of pre-processing, the model generating unit 322, each of the past t "(although, t>t") including at least the feature amount feature amounts S t "obtained in (e.g., the feature amount S t " Or vector VF t" ) as an input, and a subject 100 such as a degree of attention and / or a degree of surprise from a feature amount (for example, feature amount St or vector VF t ) including at least the feature amount St obtained at t. A psychological state prediction model that outputs an estimation result representing the psychological state of the human being is generated, and information (model parameter or the like) specifying the psychological state prediction model is stored in the storage unit 323. This learning is a feature that includes at least the feature amount St ″ Supervised learning using learning data in which a quantity and a correct answer label representing a psychological state are associated, or unsupervised learning using only a feature quantity including at least a feature quantity St ” as learning data. No, but just The type of feature quantity used as learning data is the same as the type of feature quantity obtained by t. Examples of psychological state prediction models include support vector machines, hidden Markov models, neural networks, and deep learning. In the processing at each t, the feature amount obtained at t is applied to the psychological state prediction model set based on the information extracted from the storage unit 323 by the estimation unit 321 after the processing at step S113b. applying the feature quantity including at least a S t, and outputs an estimation result indicating the psychological state of the subject 100 such as attention degree and / or surprising degree (Figure 2: step S321).

[実験例]
次に、式(1)を用い、実際の実験で測定されたマイクロサッカードから特徴量St(サプライズ値:surprise)を計算し、心理物理実験に基づく評価を行った例を紹介する。実験例においては、特徴量Stの心理物理評価として、音列消失の検知にかかる反応時間を計測した。
[Experimental example]
Next, an example will be introduced in which a feature quantity S t (surprise value: surprise) is calculated from the microsaccade measured in an actual experiment using Formula (1), and an evaluation based on a psychophysical experiment is performed. In the example experiment, a psychophysical evaluation of the feature amount S t, was measured according the reaction time to the detection of the sound column disappears.

<心理物理実験:音列消失の検知>
健常成人6名(平均年齢27.6±1.2歳,女性2名)が実験に参加した。実験では、規則的(図7Aの上図)あるいは不規則(図7Aの下図)な間隔で1000Hzの純音(持続時間200ms)がランダムな回数呈示された。被験者には、「音列の呈示が終了した」と感じたタイミングで、なるべく早くボタン押しを行うよう教示した。純音の呈示回数には、8回,10回,12回の3条件を用い、試行毎にランダムに切り替えた。純音同士の呈示時間隔(呈示開始時間の間隔)は、すべて500msの条件(図7Aの上図:規則呈示条件),500±50ms,500±100ms,500±150ms,500±200msの条件(図7Aの下図:不規則呈示条件)の計5条件を試行毎にランダムに切り替えた。不規則呈示条件では、呈示時間隔は上記の幅の中で一様分布に従うものとし、一つの試行の中に同じ時間隔は存在しないように設定した。ただし、反応に際する条件の統一のため、各試行の最後の音とその一つ前の音の呈示時間隔はすべて500msとした。呈示時間隔及び呈示回数の条件毎に10回の繰り返しを行い、被験者毎に計150試行を行った。
<Psychophysical experiment: Detection of loss of sound sequence>
Six healthy adults (mean age 27.6 ± 1.2 years, 2 women) participated in the experiment. In the experiment, 1000 Hz pure tone (duration 200 ms) was presented at random times at regular (upper figure in FIG. 7A) or irregular (lower figure in FIG. 7A) intervals. The subject was instructed to press the button as soon as possible when he felt that the presentation of the sound string had ended. The number of pure tones presented was changed randomly at each trial using three conditions of 8, 10, and 12. The time intervals between presentations of pure tones (interval of presentation start time) are all 500 ms (upper figure in FIG. 7A: rule presentation conditions), 500 ± 50 ms, 500 ± 100 ms, 500 ± 150 ms, 500 ± 200 ms (figure A total of 5 conditions (lower figure of 7A: irregular presentation conditions) were randomly switched for each trial. In the irregular presentation condition, the presentation time interval follows a uniform distribution within the above-mentioned width, and is set so that the same time interval does not exist in one trial. However, in order to unify the conditions for the reaction, the presentation time interval of the last sound of each trial and the previous sound was set to 500 ms. Ten repetitions were performed for each condition of the presentation time interval and the number of presentations, and a total of 150 trials were performed for each subject.

表2は、各条件において音列消失の検出にかかった平均の反応時間を示したものである。ただし、音列消失の検出にかかった平均の反応時間を「平均±標準偏差」で示し、その単位として「秒」を用いた。

Figure 2017202047

音列消失検知にかかる反応時間は、規則的な音列ほど早かった。規則的な間隔で呈示される音列は、消失のタイミングがはっきりとしており、不規則的な間隔で呈示される音列に比べて消失の検知にかかる反応時間が早くなるものと考えられる。また、音列消失検知にかかる反応時間は、消失までの呈示回数が多いほど早かった。これは試行の繰り返しによる効果を反映しているものと考えられる。すなわち、呈示回数が少ないほど音列が消失する確率は経験的には低くなるため、判断に遅れが生じるものと考えられる。 Table 2 shows the average reaction time taken to detect the disappearance of the sound string under each condition. However, the average reaction time required to detect the disappearance of the sound string was indicated by “average ± standard deviation”, and “second” was used as the unit.
Figure 2017202047

The reaction time required to detect the disappearance of the sound string was faster for regular sound strings. It is considered that the sound strings presented at regular intervals have clear timings of disappearance, and the reaction time required for detection of disappearance is faster than the sound strings presented at irregular intervals. In addition, the reaction time required to detect the disappearance of the sound string was faster as the number of times until the disappearance was increased. This is considered to reflect the effect of repeated trials. That is, as the number of presentations decreases, the probability that the sound string disappears becomes empirically low, and it is considered that the determination is delayed.

図7Bは、音列消失時刻を0として、その前後で測定されたマイクロサッカードから得られた特徴量St(サプライズ値:surprise)を表したものである。図7Bの通り、音列の消失直後はいったん減少するものの、1500-2500msにかけて大きなサプライズが検出されることがわかる。このとき、各条件(呈示回数、呈示時間隔の分布幅)において音列消失にかかる平均の反応時間と、式(1)で計算されたマイクロサッカードの特徴量St(1500-2500ms)の平均値は弱い負の相関(r=-0.42)を示した。このことから、人間が知覚する「驚き」の度合を、マイクロサッカードから得られた特徴量Stが一定程度表現しているものと考えられる。 FIG. 7B shows the feature quantity S t (surprise value: surprise) obtained from the microsaccade measured before and after the sound string disappearance time is zero. As shown in FIG. 7B, although it decreases once immediately after the disappearance of the sound train, it can be seen that a large surprise is detected over 1500-2500 ms. In this case, the condition (presentation number, distribution width of the presentation time interval) and according Mean reaction times to the sound column disappeared in the formula (1) of the calculated micro saccade by the feature amount S t of (1500-2500Ms) The average value showed a weak negative correlation (r = -0.42). Therefore, humans perceive the degree of "surprise", the feature amount S t obtained from the micro saccade is considered to have a certain degree expressed.

[その他の変形例等]
なお、本発明は上述の実施形態に限定されるものではない。例えば、式(1)に代えて、以下の式によって特徴量St(第3特徴量)が得られてもよい。

Figure 2017202047

ただしγは任意の定数である(例えば、0<γ≦1)。また、前述の式(2)は第1特徴量が多変量正規分布に従っていることを前提としている。しかし、これは本発明を限定するものではない。特徴量Stの計算にあたっては、第2特徴量の時系列情報に基づいて推定された分布における第1特徴量の確率Ptを計算した上で、一般に
Figure 2017202047

とすることもできる。また、少なくとも特徴量Stを用い、注意度合いや驚き度合い以外の対象者100の心理状態を推定してもよい。例えば、少なくとも特徴量Stを用い、対象者100のリラックス度合いや緊張度合いなどの心理状態を推定してもよい。 [Other variations]
In addition, this invention is not limited to the above-mentioned embodiment. For example, instead of the equation (1), the feature amount S t (third feature amount) may be obtained by the following equation.
Figure 2017202047

However, γ is an arbitrary constant (for example, 0 <γ ≦ 1). Further, the above-described equation (2) is based on the premise that the first feature amount follows a multivariate normal distribution. However, this does not limit the invention. In the calculation of the feature amount S t, in terms of calculating the first feature amount of the probability P t in the estimated distribution on the basis of the time-series information of the second feature quantity, generally
Figure 2017202047

It can also be. Further, at least the feature amount St may be used to estimate the psychological state of the target person 100 other than the attention level and the surprise level. For example, using at least the feature amount S t, it may estimate the psychological state of such relaxation degree and tension degree of the subject 100.

上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。   The various processes described above are not only executed in time series according to the description, but may also be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes. Needless to say, other modifications are possible without departing from the spirit of the present invention.

上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体の例は、非一時的な(non-transitory)記録媒体である。このような記録媒体の例は、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等である。   When the above configuration is realized by a computer, the processing contents of the functions that each device should have are described by a program. By executing this program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. An example of a computer-readable recording medium is a non-transitory recording medium. Examples of such a recording medium are a magnetic recording device, an optical disk, a magneto-optical recording medium, a semiconductor memory, and the like.

このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   This program is distributed, for example, by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own storage device, and executes a process according to the read program. As another execution form of the program, the computer may read the program directly from the portable recording medium and execute processing according to the program, and each time the program is transferred from the server computer to the computer. The processing according to the received program may be executed sequentially. The above-described processing may be executed by a so-called ASP (Application Service Provider) type service that realizes a processing function only by an execution instruction and result acquisition without transferring a program from the server computer to the computer. Good.

上記実施形態では、コンピュータ上で所定のプログラムを実行させて本装置の処理機能が実現されたが、これらの処理機能の少なくとも一部がハードウェアで実現されてもよい。   In the above embodiment, the processing functions of the apparatus are realized by executing a predetermined program on a computer. However, at least a part of these processing functions may be realized by hardware.

11,21 特徴量抽出装置
12,32 推定装置
11, 21 Feature amount extraction device 12, 32 Estimation device

Claims (11)

第1時間区間での眼の動的な変化に基づいて得られた第1特徴量と、第2時間区間での眼の動的な変化に基づいて得られた第2特徴量の時系列情報から推定した前記第1時間区間での特徴量と、の相違の度合いに応じた第3特徴量を得る特徴量抽出装置。   Time series information of the first feature value obtained based on the dynamic change of the eye in the first time interval and the second feature value obtained based on the dynamic change of the eye in the second time interval A feature quantity extraction device that obtains a third feature quantity according to the degree of difference from the feature quantity in the first time interval estimated from. 請求項1の特徴量抽出装置であって、
前記第1特徴量および前記第2特徴量は、眼球のサッカードに基づく特徴量を含む、特徴量抽出装置。
The feature amount extraction apparatus according to claim 1,
The feature quantity extraction device, wherein the first feature quantity and the second feature quantity include a feature quantity based on a saccade of an eyeball.
請求項2の特徴量抽出装置であって、
前記第1特徴量および前記第2特徴量は、眼球の運動方向および眼球運動の減衰係数の少なくとも一方に基づく特徴量を含む、特徴量抽出装置。
The feature quantity extraction device according to claim 2,
The feature quantity extraction device, wherein the first feature quantity and the second feature quantity include a feature quantity based on at least one of an eyeball movement direction and an eyeball movement attenuation coefficient.
請求項2または3の特徴量抽出装置であって、
前記第1特徴量および前記第2特徴量は、眼球のサッカードの発生タイミングに基づく特徴量を含む、特徴量抽出装置。
The feature quantity extraction device according to claim 2 or 3,
The feature quantity extraction device, wherein the first feature quantity and the second feature quantity include a feature quantity based on a generation timing of an eyeball saccade.
請求項1から4の何れかの特徴量抽出装置であって、
前記第1特徴量および前記第2特徴量は、一方の眼の動的な変化に由来する値と他方の眼の動的な変化に由来する値との相対量に基づく特徴量を含む、特徴量抽出装置。
The feature quantity extraction device according to any one of claims 1 to 4,
The first feature amount and the second feature amount include a feature amount based on a relative amount between a value derived from a dynamic change of one eye and a value derived from a dynamic change of the other eye. Quantity extraction device.
請求項1から5の何れかの特徴量抽出装置であって、
前記第1特徴量および前記第2特徴量は、一方の眼の瞳孔の動きに由来する値と他方の眼の瞳孔の動きに由来する値との相対量に基づく特徴量を含む、特徴量抽出装置。
The feature quantity extraction device according to any one of claims 1 to 5,
The first feature amount and the second feature amount include feature amounts based on a relative amount between a value derived from the movement of the pupil of one eye and a value derived from the movement of the pupil of the other eye. apparatus.
請求項1から6の何れかの特徴量抽出装置であって、
前記第3特徴量は、注意度合いおよび驚き度合いの少なくとも一方を表す、特徴量抽出装置。
The feature quantity extraction device according to any one of claims 1 to 6,
The third feature quantity is a feature quantity extraction device that represents at least one of a degree of attention and a degree of surprise.
少なくとも、第1時間区間での眼の動的な変化に基づく第1特徴量と、第2時間区間での眼の動的な変化に基づく第2特徴量の時系列情報から推定した前記第1時間区間での特徴量と、の相違の度合いに応じた第3特徴量を用い、注意度合いおよび驚き度合いの少なくとも一方を推定する推定装置。   The first feature amount estimated from time-series information of at least a first feature amount based on a dynamic change of the eye in the first time interval and a second feature amount based on the dynamic change of the eye in the second time interval. An estimation device that estimates at least one of a degree of attention and a degree of surprise using a third feature amount corresponding to a degree of difference from a feature amount in a time interval. 第1時間区間での眼の動的な変化に基づいて得られた第1特徴量と、第2時間区間での眼の動的な変化に基づいて得られた第2特徴量の時系列情報から推定した前記第1時間区間での特徴量と、の相違の度合いに応じた第3特徴量を得る特徴量抽出方法。   Time series information of the first feature value obtained based on the dynamic change of the eye in the first time interval and the second feature value obtained based on the dynamic change of the eye in the second time interval A feature quantity extraction method for obtaining a third feature quantity according to the degree of difference from the feature quantity in the first time interval estimated from 少なくとも、第1時間区間での眼の動的な変化に基づく第1特徴量と、第2時間区間での眼の動的な変化に基づく第2特徴量の時系列情報から推定した前記第1時間区間での特徴量と、の相違の度合いに応じた第3特徴量を用い、注意度合いおよび驚き度合いの少なくとも一方を推定する推定方法。   The first feature amount estimated from time-series information of at least a first feature amount based on a dynamic change of the eye in the first time interval and a second feature amount based on the dynamic change of the eye in the second time interval. An estimation method for estimating at least one of a degree of attention and a degree of surprise using a third feature amount corresponding to a degree of difference from a feature amount in a time interval. 請求項1から7の何れかの特徴量抽出装置または請求項8の推定装置としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as the feature-value extraction apparatus in any one of Claim 1 to 7, or the estimation apparatus of Claim 8.
JP2016094387A 2016-05-10 2016-05-10 Feature amount extraction apparatus, estimation apparatus, method thereof, and program Active JP6479708B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016094387A JP6479708B2 (en) 2016-05-10 2016-05-10 Feature amount extraction apparatus, estimation apparatus, method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016094387A JP6479708B2 (en) 2016-05-10 2016-05-10 Feature amount extraction apparatus, estimation apparatus, method thereof, and program

Publications (2)

Publication Number Publication Date
JP2017202047A true JP2017202047A (en) 2017-11-16
JP6479708B2 JP6479708B2 (en) 2019-03-06

Family

ID=60322690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016094387A Active JP6479708B2 (en) 2016-05-10 2016-05-10 Feature amount extraction apparatus, estimation apparatus, method thereof, and program

Country Status (1)

Country Link
JP (1) JP6479708B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019111291A (en) * 2017-12-26 2019-07-11 日本電信電話株式会社 Attention level estimation device, attention level estimation model learning device, attention level estimation method, attention level estimation model learning method, and program
CN110353626A (en) * 2018-04-10 2019-10-22 浜松光子学株式会社 Eye movement characteristic quantity computing system, eye movement characteristic quantity calculating method and eye movement characteristic quantity calculation procedure
WO2020152732A1 (en) * 2019-01-21 2020-07-30 三菱電機株式会社 Attentiveness determination apparatus, attentiveness determination system, attentiveness determination method, and program
WO2021240714A1 (en) * 2020-05-28 2021-12-02 日本電信電話株式会社 Psychological state analysis method, psychological state analysis device, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009508553A (en) * 2005-09-16 2009-03-05 アイモーションズ−エモーション テクノロジー エー/エス System and method for determining human emotion by analyzing eyeball properties
JP2015132783A (en) * 2014-01-16 2015-07-23 日本電信電話株式会社 Remarkableness estimation device for sound, and method and program thereof
JP2015131069A (en) * 2014-01-16 2015-07-23 日本電信電話株式会社 Impression estimation device, method thereof, and program
JP2015131070A (en) * 2014-01-16 2015-07-23 日本電信電話株式会社 Impression estimation device, method thereof, and program
JP2015132782A (en) * 2014-01-16 2015-07-23 日本電信電話株式会社 Remarkableness estimation device for sound, and method and program thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009508553A (en) * 2005-09-16 2009-03-05 アイモーションズ−エモーション テクノロジー エー/エス System and method for determining human emotion by analyzing eyeball properties
JP2015132783A (en) * 2014-01-16 2015-07-23 日本電信電話株式会社 Remarkableness estimation device for sound, and method and program thereof
JP2015131069A (en) * 2014-01-16 2015-07-23 日本電信電話株式会社 Impression estimation device, method thereof, and program
JP2015131070A (en) * 2014-01-16 2015-07-23 日本電信電話株式会社 Impression estimation device, method thereof, and program
JP2015132782A (en) * 2014-01-16 2015-07-23 日本電信電話株式会社 Remarkableness estimation device for sound, and method and program thereof

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019111291A (en) * 2017-12-26 2019-07-11 日本電信電話株式会社 Attention level estimation device, attention level estimation model learning device, attention level estimation method, attention level estimation model learning method, and program
CN110353626A (en) * 2018-04-10 2019-10-22 浜松光子学株式会社 Eye movement characteristic quantity computing system, eye movement characteristic quantity calculating method and eye movement characteristic quantity calculation procedure
JP2019180831A (en) * 2018-04-10 2019-10-24 浜松ホトニクス株式会社 Eye movement feature amount calculation system, eye movement feature amount calculation method, and eye movement feature amount calculation program
JP7107725B2 (en) 2018-04-10 2022-07-27 浜松ホトニクス株式会社 Eye Movement Feature Quantity Calculation System, Eye Movement Feature Quantity Calculation Method, and Eye Movement Feature Quantity Calculation Program
CN110353626B (en) * 2018-04-10 2024-04-05 浜松光子学株式会社 Eyeball motion feature calculation system, eyeball motion feature calculation method, and eyeball motion feature calculation program
WO2020152732A1 (en) * 2019-01-21 2020-07-30 三菱電機株式会社 Attentiveness determination apparatus, attentiveness determination system, attentiveness determination method, and program
CN113271852A (en) * 2019-01-21 2021-08-17 三菱电机株式会社 Attention determination device, attention determination system, attention determination method, and program
JPWO2020152732A1 (en) * 2019-01-21 2021-09-09 三菱電機株式会社 Attention determination device, attention determination system, attention determination method, and program
WO2021240714A1 (en) * 2020-05-28 2021-12-02 日本電信電話株式会社 Psychological state analysis method, psychological state analysis device, and program
JP7456503B2 (en) 2020-05-28 2024-03-27 日本電信電話株式会社 Psychological state analysis method, psychological state analysis device and program

Also Published As

Publication number Publication date
JP6479708B2 (en) 2019-03-06

Similar Documents

Publication Publication Date Title
US11089985B2 (en) Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders
US20200364539A1 (en) Method of and system for evaluating consumption of visual information displayed to a user by analyzing user&#39;s eye tracking and bioresponse data
JP7070605B2 (en) Focus range estimator, its method and program
JP6479708B2 (en) Feature amount extraction apparatus, estimation apparatus, method thereof, and program
JP5718493B1 (en) Sound saliency estimating apparatus, method and program thereof
JP2019111291A (en) Attention level estimation device, attention level estimation model learning device, attention level estimation method, attention level estimation model learning method, and program
JP5718494B1 (en) Impression estimation device, method thereof, and program
JP6509712B2 (en) Impression estimation device and program
Komogortsev et al. Biometrics via Oculomotor Plant Characteristics: Impact of Parameters in Oculomotor Plant Model.
JP5718495B1 (en) Impression estimation device, method thereof, and program
JP6377545B2 (en) Personal identification method, personal identification device, program
JP7214986B2 (en) Reflectivity determination device, reflectivity determination method, and program
Korda et al. Automatic identification of oculomotor behavior using pattern recognition techniques
WO2022232414A1 (en) Methods, systems, and related aspects for determining a cognitive load of a sensorized device user
KR102341937B1 (en) Method for understanding emotion dynamics in daily life and system therefore
JP2017202048A (en) Feature amount extraction device, estimation device, method for the same and program
JP6445418B2 (en) Impression estimation device, impression estimation method, and program
JP6509778B2 (en) Learning device, estimation device, methods thereof and program
Jayarathna et al. Rationale and architecture for incorporating human oculomotor plant features in user interest modeling
JP7347822B2 (en) Mental and physical state estimation device, mental and physical state estimation method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190206

R150 Certificate of patent or registration of utility model

Ref document number: 6479708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150